Беобахтер, согласен. Собственно, именно по этой причине и я $ добавил :)
Легко проверить
Как видно вариант без дефиса в 6.5 раз более популярен, чем с дефисом.
adwords.google.ru/select/KeywordToolExternal показывает похожий результат, но и конкуренция по варианту без дефиса выше.
Но Clean-param только для Яндекса. Не логичнее ли запрещать результаты сортировок, фильтров с помощью <meta content="noindex, nofollow" name="robots"/>?
Bdiang добавил 29.05.2009 в 17:50
У меня был случай когда в индекс вылезла служебная папка /stats/ и /root/ - пришлось закрывать :)
Беобахтер, это был не вопрос, а пример когда мне такое понадобилось :)
Ааа, ну хорошо. У меня был случай, правда наоборот - разрешить каталог и запретить подкаталоги.
Понадобилось, т.к подкаталоги переехали в другой каталог :)
С сабжем проще - запретить page.html и разрешить "page.html?id=", т.к, например page.html пуста, а вся инфа в page.html с параметрами id. Всякое бывает, не зря ведь ввели...
Львович, половина из них блондинки за рулем
P.S. Не в обиду кому-нибудь, просто факт :)
Пожалуйста.
В панели вебмастера гугла заходите в Анализ robots.txt
В текст robots.txt пишите:
User-Agent: *
Disallow: /catalog/$
В "Проверка URL по этому файлу robots.txt":
http://site.ru/catalog/
http://site.ru/catalog/?123
Нажимаете кнопку "проверка"
После проверки гугл выдаст:
http://site.ru/catalog/ Заблокировано строкой 2: Disallow: /catalog/$
http://site.ru/catalog/?123 Разрешено
Действие бакса описано в хелпе Гугла и Яндекса.
P.S. Вместо site.ru должен быть сайт, добавленный в панель вебмастера под вашим акком.
А лучше совмещать IP и куки :)
Если надо исключить, например каталог, но не подкаталоги, то обязательно. Или же надо исключить page.html, но не page.html?id=1 и т.д.
Смотря какая ситуация.
Убила реклама ихнего автопрома "прочная и надежная машина" ))