Извините, видимо не в теме был. Сразу как все набросились. Раньше думал, что только от контекста страницы зависит, теперь буду знать что и от поведенческого таргетинга это зависит.
Вот вам яркий пример. Даже на серче преследуют. Последнее, чем интересовался - перерегистрация и фасады.
Не вижу грамматической ошибки в предложении "Заработная плата будет зависеть от ....". Может быть не я неграмотный?
То что нарушил правила, каюсь, виноват, но поправился.
Просто надо было со всех страниц старого сайта поставить редирект на страницы нового. С наименьшими потерями все произошло бы. Сайт просел бы, но не так сильно. А щас, УРЛы сменили, вот все из индекса и выпало. Дождитесь переиндексации, возможно прибудет еще трафик. Не надо сразу бежать и ссылки покупать. До ссылок еще дойдет время.
Такие действия (менять ему дизайн и структуру) надо проводить после консультации с SEO специалистом.
Пишите, обращайтесь, проконсультирую. Найдем выход из этой ситуации.
Что удивительно, Гугл даже с одной строчкой "Disallow: / " в роботс.тхт продолжал спокойно индексировать сайт :)
У меня прописано:
php_flag session.use_trans_sid Off
php_flag session.use_only_cookie On
php_flag session.auto_start On
Эффект нулевой, Google все равно плодит дубли.
Попробую Ваше решение.
В яндексе роботс.тхт работает. Вот если много страниц будет на сайте, то этим способом затруднительно будет
Спасибо, попробую оба варианта.
не знал, что в robots.txt можно по шаблону запрещать.
Смотрел эту тему. Там для одной конкретной страницы, а мне для всех страниц надо, там шаблон наверное нужно написать, а как - не знаю
RewriteRule ^category/[0-9]+/[0-9]+$ category.php?id=$1&page=$2 [L]
Если не ошибаюсь, то так