Bdiang

Bdiang
Рейтинг
102
Регистрация
19.07.2006

Беобахтер, согласен. Собственно, именно по этой причине и я $ добавил :)

Легко проверить

Как видно вариант без дефиса в 6.5 раз более популярен, чем с дефисом.

adwords.google.ru/select/KeywordToolExternal показывает похожий результат, но и конкуренция по варианту без дефиса выше.

Alehandro710:
Желательно поиск и сортировки (например если у Вас интернет-магазин) дабы не было страниц с дублирующимся текстом но в ином порядке.
Беобахтер:
Угу. Здесь можно эффективно использовать Clean-param.

Но Clean-param только для Яндекса. Не логичнее ли запрещать результаты сортировок, фильтров с помощью <meta content="noindex, nofollow" name="robots"/>?

Bdiang добавил 29.05.2009 в 17:50

vadimon:
А на какие файлы(папки) нужно ставить запрет на индексацию?(В общем случае

У меня был случай когда в индекс вылезла служебная папка /stats/ и /root/ - пришлось закрывать :)

Беобахтер, это был не вопрос, а пример когда мне такое понадобилось :)

Ааа, ну хорошо. У меня был случай, правда наоборот - разрешить каталог и запретить подкаталоги.

Понадобилось, т.к подкаталоги переехали в другой каталог :)

С сабжем проще - запретить page.html и разрешить "page.html?id=", т.к, например page.html пуста, а вся инфа в page.html с параметрами id. Всякое бывает, не зря ведь ввели...

Львович, половина из них блондинки за рулем

P.S. Не в обиду кому-нибудь, просто факт :)

kimberlit:
Можно какой-нибудь конкретный пример? С логическим объяснением сего действа

Пожалуйста.

В панели вебмастера гугла заходите в Анализ robots.txt

В текст robots.txt пишите:

User-Agent: *

Disallow: /catalog/$

В "Проверка URL по этому файлу robots.txt":

http://site.ru/catalog/

http://site.ru/catalog/?123

Нажимаете кнопку "проверка"

После проверки гугл выдаст:

http://site.ru/catalog/ Заблокировано строкой 2: Disallow: /catalog/$

http://site.ru/catalog/?123 Разрешено

Действие бакса описано в хелпе Гугла и Яндекса.

P.S. Вместо site.ru должен быть сайт, добавленный в панель вебмастера под вашим акком.

Prior:
Можно кукисы устанавливать при заходе на сайт. А при втором заходе проверять - если кукисы уже есть, то выполнять требуемые действия.

А лучше совмещать IP и куки :)

kimberlit:
Бакс на конце писать необязательно ...

Если надо исключить, например каталог, но не подкаталоги, то обязательно. Или же надо исключить page.html, но не page.html?id=1 и т.д.

Смотря какая ситуация.

Убила реклама ихнего автопрома "прочная и надежная машина" ))

Всего: 872