Лучше перевести урлы из динамических в статические с помощью mod_revrite, а потом запретить в robots.txt
Например, сделать
из www.site.ru/script.cgi?aa=11&bb=22&cc=33
www.site.ru/script/11/22/33
Регулярные вражения в в robots.txt понимает только Гугль.
Вот другой пример. Запрос "прайс листы организаций" http://www.yandex.ru/yandsearch?text=%EF%F0%E0%E9%F1+%EB%E8%F1%F2%FB+%EE%F0%E3%E0%ED%E8%E7%E0%F6%E8%E9&stype=www
Почему на на 5 месте в топе Яндекса стоит "организация питания", а на 6-м "организация корпоративных мероприрятий"?
Можно было бы говорить про морфологию или про "размазанность парамеров ранжирования", но ничего подобного не происходит в Гугле.
Ну а что тут такого, если регион поинска поставлена галочка "искать в регионе Беларусь"?
Если ты имеешь в виду меня, то я то как раз не жалуюсь, а говорю, что как работали так и будем работать, даже без Яндекса.
Нарушения были, я и не спорю, мы их устранили. Жду реакции Яндекса, но ответа от Платонов пока нет.
Пишет как всем
Адрес указывать не буду, и не просите. Не обижайтесь. Все таки
надеюсь на восстановление. Может, если восстановят, потом...
Именно такой у меня. 1000 уникальных посетителей сейчас без Яндекса. Все равно забанили 😡
Меня тоже забанили, но я не считаю, что Яндекс может лишить мой сайт жизни. Наплевать на Яндекс. Как работали так и будем работать.
Вот скриншот этого глюка
Пункт 3.1 лицензии на использование поисковой машины Яндекс:
Т.о. каждый вправе, даже (!!!) с точки зрения Яндекса, размещать на сайте что хочет, всякие статьи о строительстве в Москве и того подобное.
В данном случае сайт забанен за то, что БЫЛ и ОСТАЕТСЯ дорвеем.