SE03

SE03
Рейтинг
106
Регистрация
09.02.2009

Всего было сделано по два прогона на каждый сайт за последние два месяца, как раз с прошлого АПа ТИЦ до сегодняшнего. Интервал между прогонами составлял 2 недели.

20 -> 90

80 -> 120

30 -> 70

40 -> 80

20 -> 100

30 -> 80

10 -> 80

0 -> 50

30 -> 90

Первые значения ТИЦ на моих сайтах были подняты одним прогоном от dyba. Обратки в индекс не загонял.

Тем заказал и у кого поднялся ТИЦ сразу хочу сказать, что нужно ТИЦ поддерживать, заказывать хотя бы один прогон между старым и новый АПом ТИЦ, тогда ТИЦ будет стабильно держаться/расти. Это из своего опыта.

ТС, огромное спасибо.

torres15, кого вы слушаете, какие доры? Человек даже не заказывал прогон. Так просто гадит по всем темам форума.

Сайты, что используются в прогоне весьма хорошего качества.

А для объективного мнения почитайте лучше всю ветку целиком. Главное увидите мнение адекватных форумчан, что заказывали услугу ТС.

От себя могу сказать: помимо ТИЦ растут еще НЗ.

Минусовые клоны повылазили. ТС, не обращайте внимания, это зависть.

На VPS под OpenVZ/VZ волшебно воздействует ulimit -s, главное не переборщить.

Можно немного подробнее насчет этого параметра. Допустим, при кол-ве Mem 512 Mb какой параметр наиболее оптимально выставить?

nginx + php-fpm, думаю, будет неплохо. Все зависит от посещаемости, без этого трудно прогнозировать.

Спасибо за совет. Посещаемость скорее всего низкая, практически нулевая.

Dizerd, Logger, спасибо.

LinuxMan, т.е. Virtuozzo даёт какие-то преимущества в работе VPS, насколько я понял?

V(o)ViK, CMS я думаю по нагрузке сравнится с wordpress. Быть может, сам wordpress и будет использоваться.

Перечитал почти всю тему, но так и не могу разобраться насчёт прикрепления неименной карты Привата Миттева.

Загрузил скан лицевой стороны карты и выписку счёта.

Нужно ли её прикреплять и платить 18$, если я собираюсь продолжить выводить WM только через обменники.

ТС, если будете и дальше развивать свой сервис, то более, чем уверен, вас и ваш поисковик ждет великое будущее.

Вполне возможно, что даже сам Сережа Брин позвонит вам и предложит несколько миллиардов за ваши поисковые технологии, дабы обезопасить Гугл от серьезного конкурента.

В вашем же случае старые страницы получили новые адреса

Дело в том, что у меня страницы и дубли проиндексировало одновременно.

нужно сообщить Яндексу, сделать это нужно с помощью 301 редиректа, это позволит сохранить вес страниц.

получается проблема только в распределении веса страницы? Если так, то мне легче закрыть через Clean-param, чтобы не мучаться с htaccess.

ПС bigton, последний вопрос к вам - если я сделаю все наиболее просто , т.е. через Clean-param, то дубли перестанут индексироваться Яндексом по маске? Т.е., если отбросить такие факторы как вес и т.д. и оставить один главный - индексация и запрет, то самым простым способом в моем случае будет:

User-agent: *

Disallow:

Clean-param: book_cat

Clean-param: book_theme

bigton, спасибо за развернутый ответ. только мне немного непонятен один момент

1. Если параметр

Disallow:

Clean-param: order

исключает все страницы из индекса по маске 'order', то по идее и я могу закрыть от индексации свои страницы по маске 'book_cat', если я правильно понял.

Вот, то что я в принципе хотел сказать.

koras:
User-agent: Yandex
Disallow:
Clean-param: book_cat&book&book_them /
-EX-:
SE03, а тут читали?

Да, конечно, весь день ломаю голову в хэлпе Яндекса.

Честно сказать, так и не понял, что в моем случае подойдет лучше всего, да и возможно ли так закрыть, как мне нужно.

Ведь по сути мне нужно избавиться от такого дубля:

?book=23&book_cat=2&book_theme=2&book_id=12 по маске &book_cat=

Но как именно это осуществить без урона для индексации страниц book=23, book=24 и всего контента на них - ?book=23&book_id=12, ?book=23&book_id=123, - так и не понял.

Всего: 159