Вопрос по robots.txt

12
sotomarket
На сайте с 02.07.2007
Offline
62
#11

Кстати, Allow команда существует, но ТОЛЬКО для ГУГЛА!!!

Это ответ на

Нет инструкции Allow, есть только Disallow. Файл robots.txt ничего не разрешает, только запрещает!
sotomarket
На сайте с 02.07.2007
Offline
62
#12

если написано вот в таком виде:

Disallow: /dir/ - запрет индексации директории dir

а если вот так

Disallow: /dir - запрет индексации всех файлов и директорий, начинающихся с dir

Denis_Ka
На сайте с 26.10.2006
Offline
25
#13

а если есть много страниц, которые необходимо закрыть от индексации, но нельзя перенестив отдельную папку и закрыть только её - необходимо каждую страницу в роботсе прописать ? и если их больше 100 всё будет нормально ?

или можно ли только тег прописать на этих страницах noindex, не указывая их в роботсе - цель закрыть контент этих страниц от индексации, т.к. онне уникальный..

*надеюсь правильно объяснился

Denis_Ka
На сайте с 26.10.2006
Offline
25
#14

help me.. *up

john2007
На сайте с 26.03.2007
Offline
173
#15

Тогда уж не тег <noindex></noindex> (потому что его учитывает только Яндекс), а тег:

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Но у этого метода есть недостаток, страница будет скачена. А при запрете в robots.txt запрещенные страницы качаться не будут, что будет экономить трафик.

Не знаю предел записей в robots.txt для разных ПС (по стандарту он ограничений не имеет), но до 1000 записей в robots.txt я думаю, что ПС потянут.

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
Denis_Ka
На сайте с 26.10.2006
Offline
25
#16
Тогда уж не тег <noindex></noindex> (потому что его учитывает только Яндекс), а тег:

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Но у этого метода есть недостаток, страница будет скачена. А при запрете в robots.txt запрещенные страницы качаться не будут, что будет экономить трафик.

Не знаю предел записей в robots.txt для разных ПС (по стандарту он ограничений не имеет), но до 1000 записей в robots.txt я думаю, что ПС потянут.

спасиба за ответ :)

в принципе было бы достаточно только для Яндекса, т.к. по другим П.С. получше дела..

а вот про предел как раз то что мне и нужно..и раз уж вы думаете что 1000 нормально - то для меня этого достаточно будет )

*проблем страфиком пока небыло, а вот времени прописать в роботсе кажется времен меньше уйдёт чем прописывать на каждой странице теги..

PS
На сайте с 12.12.2007
Offline
22
#17

Зачем убирать индексацию с уникального контента?

kimberlit
На сайте с 13.03.2007
Offline
370
#18
ProSaifer:
Зачем убирать индексацию с уникального контента?

А кто убирает?

богоносец
На сайте с 30.01.2007
Offline
774
#19
Denis_Ka:
что 1000 нормально - то для меня этого достаточно будет

Сделайте короче:

Kislov:
Пихаем страницы в подкаталог и запрещаем его к индексации. Все.

User-agent: *
Disallow: /copy/

или как в #7 сказано, перечислите все буквы, включая Disallow: /i вам же не нужно индексить лишнее зеркало ццц.сайт.ру/index.htm и поиндексится ццц.сайт.ру (или сайт.ру без ццц.), а то придётся дописать позже.

(это разные адреса, хотя и ведут на одну страницу. Ссылайтесь внутри: <a href="/">главная</a> или <a href="../">главная</a> если из подкаталога)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий