Всего было сделано по два прогона на каждый сайт за последние два месяца, как раз с прошлого АПа ТИЦ до сегодняшнего. Интервал между прогонами составлял 2 недели.
20 -> 90
80 -> 120
30 -> 70
40 -> 80
20 -> 100
30 -> 80
10 -> 80
0 -> 50
30 -> 90
Первые значения ТИЦ на моих сайтах были подняты одним прогоном от dyba. Обратки в индекс не загонял.
Тем заказал и у кого поднялся ТИЦ сразу хочу сказать, что нужно ТИЦ поддерживать, заказывать хотя бы один прогон между старым и новый АПом ТИЦ, тогда ТИЦ будет стабильно держаться/расти. Это из своего опыта.
ТС, огромное спасибо.
torres15, кого вы слушаете, какие доры? Человек даже не заказывал прогон. Так просто гадит по всем темам форума.
Сайты, что используются в прогоне весьма хорошего качества.
А для объективного мнения почитайте лучше всю ветку целиком. Главное увидите мнение адекватных форумчан, что заказывали услугу ТС.
От себя могу сказать: помимо ТИЦ растут еще НЗ.
Минусовые клоны повылазили. ТС, не обращайте внимания, это зависть.
Можно немного подробнее насчет этого параметра. Допустим, при кол-ве Mem 512 Mb какой параметр наиболее оптимально выставить?
Спасибо за совет. Посещаемость скорее всего низкая, практически нулевая.
Dizerd, Logger, спасибо.
LinuxMan, т.е. Virtuozzo даёт какие-то преимущества в работе VPS, насколько я понял?
V(o)ViK, CMS я думаю по нагрузке сравнится с wordpress. Быть может, сам wordpress и будет использоваться.
Перечитал почти всю тему, но так и не могу разобраться насчёт прикрепления неименной карты Привата Миттева.
Загрузил скан лицевой стороны карты и выписку счёта.
Нужно ли её прикреплять и платить 18$, если я собираюсь продолжить выводить WM только через обменники.
ТС, если будете и дальше развивать свой сервис, то более, чем уверен, вас и ваш поисковик ждет великое будущее.
Вполне возможно, что даже сам Сережа Брин позвонит вам и предложит несколько миллиардов за ваши поисковые технологии, дабы обезопасить Гугл от серьезного конкурента.
Дело в том, что у меня страницы и дубли проиндексировало одновременно.
получается проблема только в распределении веса страницы? Если так, то мне легче закрыть через Clean-param, чтобы не мучаться с htaccess.
ПС bigton, последний вопрос к вам - если я сделаю все наиболее просто , т.е. через Clean-param, то дубли перестанут индексироваться Яндексом по маске? Т.е., если отбросить такие факторы как вес и т.д. и оставить один главный - индексация и запрет, то самым простым способом в моем случае будет:
User-agent: *
Disallow:
Clean-param: book_cat
Clean-param: book_theme
bigton, спасибо за развернутый ответ. только мне немного непонятен один момент
1. Если параметр
Clean-param: order
исключает все страницы из индекса по маске 'order', то по идее и я могу закрыть от индексации свои страницы по маске 'book_cat', если я правильно понял.
Вот, то что я в принципе хотел сказать.
User-agent: YandexDisallow:Clean-param: book_cat&book&book_them /
Да, конечно, весь день ломаю голову в хэлпе Яндекса.
Честно сказать, так и не понял, что в моем случае подойдет лучше всего, да и возможно ли так закрыть, как мне нужно.
Ведь по сути мне нужно избавиться от такого дубля:
?book=23&book_cat=2&book_theme=2&book_id=12 по маске &book_cat=
Но как именно это осуществить без урона для индексации страниц book=23, book=24 и всего контента на них - ?book=23&book_id=12, ?book=23&book_id=123, - так и не понял.