robots.txt для яндекса

123 4
[Удален]
#11

да и самого веса не будет

Егор
На сайте с 28.02.2006
Offline
231
#12

Попиарю Ктулху :) Неплохо про robots.txt написано на - http://robotstxt.org.ru/

А вот сам robots.txt там вообще секретный :)

Shakes.pro (http://Shakes.pro/) & Leadbit.com (http://Leadbit.com/) - товарка по всему миру С уважением, Егор
J
На сайте с 04.12.2006
Offline
37
#13

Но при прогоне например по каталогам Тиц ведь начислится ?

з.ы. несколько сайтов долго в индексе не появляются . Может быть из-за дублированного контента ? Если допустим у меня морда уникальная , а весь остальной контент дублированный , то "Я" проиндексирует хотя-бы морду ?

Vetra
На сайте с 07.04.2005
Offline
200
#14
jkljkljkl:
Если допустим у меня морда уникальная , а весь остальной контент дублированный , то "Я" проиндексирует хотя-бы морду ?

Скорее всего нет. Думается мне, что он применит какие-нибудь хитрые санкции. Ну не любит Яндекс дубли, что делать.

Каширин
На сайте с 03.01.2004
Offline
1031
#15
Dybra:
User-Agent: Yandex
Disallow: /a*
Disallow: /b*
......
Disallow: /z*

C вас тысячу за консультацию! 500 мне и 500 Каширину, я у него первую сточку "скопипастил". :)

Не правильно ;) Пицот баксов уходят мне ;) Потому что

1. * не работает и в данном случае - избыточна.

2. ваш вариант не блокирует /12.php :p

andrej-ilin:
User-Agent: Yandex
Disallow: /index.php

Тоже не верно. Потому что вы не закрыли страницы типа /dir/ и исходите из предположения, что все страницы сайта есть index.php с параметрами, а топикстартер явно написал, что их - большинство , то есть не все! ;)

Еще пицот баксов уходят мне :p

andrej-ilin
На сайте с 28.03.2005
Offline
42
#16
Каширин:
вы не закрыли страницы типа /dir/ и исходите из предположения, что все страницы сайта есть index.php с параметрами

А откуда Вам стало известно о моих предположениях? Если задача состоит в написании универсального robots.txt, запрещающего Яндексу индексацию всех страниц сайта кроме главной, то, может быть Вы огласите правильное решение для всего множества всевозможных URL?

andrej-ilin@yandex.ru
K
На сайте с 31.01.2001
Offline
737
#17

User-Agent: Yandex

Disallow: /a

Disallow: /b

......

Disallow: /z

Disallow: /0

Disallow: /1

...

Disallow: /9

и перечислить все остальные символы, которые могут быть в имени файла или директории. robots.txt будет не очень большой, эти 36 строк уже закроют 99.9% всех возможных случаев.

Файлы с кириллическими именами, на китайском языке и т.д. в расчет не берем :).

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
andrej-ilin
На сайте с 28.03.2005
Offline
42
#18
Kost:
Файлы с кириллическими именами, на китайском языке и т.д. в расчет не берем

В реальности мало кто создает сайты соответсвующие стандартам, и роботы вынуждены следовать за людьми, чтобы проиндексировать их творчество.

Kost, а если у меня главная страница на фреймах сделана, и еще я хочу чтобы картинки с главной страницы тоже в индекс попали?

E2
На сайте с 15.12.2006
Offline
128
#19

Запретить

index.php?

Именно со знаком вопроса.

Ну и вообще взять максимальное количество первых символов адресов запрещаемых страниц, не забывая, что параметры после ? могут иногда меняться местами (если движок не очень ровный или просто так получилось ;).

Ап! И тигры у ног моих сели.
Каширин
На сайте с 03.01.2004
Offline
1031
#20
andrej-ilin:
А откуда Вам стало известно о моих предположениях?

Не обижайтесь, коллега. Ваши предположения видны из вашего кода :)

Правильный вариант смотрите у Kost выше.

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий