Специалисты, не проверите ли robots.txt

123
K
На сайте с 31.01.2001
Offline
737
#11
SeoNizator:
Т.е. между остальными директивами - допускается.

Логика хреновая.

SeoNizator:
а разве он вне секции?

Читайте первоисточник.

The file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL).

Пустая строка отделяет блоки друг от друга. Кому-то нужно побольше читать и поменьше писать.

Замена чтения первоисточноков на безудержную фантазию может завести далеко. Поэтому прошу заниматься этим самостоятельно на собственных сайтах и не писать заведомо неверные советы.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
[Удален]
#12
Kost:
Читайте первоисточник.

А я не дал ссылку на первоисточник? Не? ;)

Kost:
Пустая строка отделяет блоки друг от друга

гугл-перевод:

Файл состоит из одной или нескольких записей, разделенных одной или несколькими пустыми строками

Тут что-то о секциях (блоках)?

Специально нашел пример. В какой секции тут сайтмап?

Или тут тоже ошибка?

Kost:
прошу заниматься этим самостоятельно на собственных сайтах

Не было случая, чтобы ПС-ы не так определили хост или не видели сайтмап на моих сайтах :)

Kost:
Кому-то нужно

Кому-то стоит быть сдержаннее. Тем более в этом разделе.

K
На сайте с 31.01.2001
Offline
737
#13
SeoNizator:
А я не дал ссылку на первоисточник? Не?

Нет. Это краткая справка особенностей Яндекса для чайников.

SeoNizator:
В какой секции тут сайтмап?

Сайтмап может быть общим для всех поисковиков. Вы прость прыгаете на своих любимых граблях. Почему вы упорно не желаете брать информацию в первоисточнике?

Как указать местоположение файла Sitemap в файле robots.txt

Можно указать местоположение файла Sitemap, используя файл robots.txt. Для этого просто добавьте следующую строку:

Sitemap: http://www.example.com/sitemap.xml

Эта инструкция не зависит от строки агента пользователя, поэтому неважно, где она размещается в файле.
SeoNizator:
нашел пример.

Мало ли что написано на сарае (а внутри дрова) , читайте первоисточники. Вы можете обманывать самого себя сколько угодно, но не надо пытаться дезинформировать публику, особенно в этом разделе.

iguania
На сайте с 10.12.2010
Offline
72
#14
alalat:

Может что-то подправить надо? Заранее благодарю.

Здравствуйте, я хочу помочь вам подправить файл robots.txt. Надеюсь, что помог вам...

User-agent: YandexBlog

Disallow:

User-agent: *

Sitemap: http://site.ru/sitemap.xml.gz

Sitemap: http://site.ru/sitemap.xml

Allow: /wp-content/uploads

Disallow: /cgi-bin

Disallow: /wp-admin

Disallow: /wp-includes

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /trackback

Disallow: /feed

Disallow: /comments

Disallow: /category/

Disallow: */trackback/

Disallow: */feed/

Disallow: */comments/

Disallow: /?feed=

Disallow: /?s=

Disallow: /*?*

Disallow: /*?

Host: site.ru

Все всегда заканчивается хорошо. Если все закончилось плохо, значит, это еще не конец…
[Удален]
#15
Kost:
Нет. Это краткая справка особенностей Яндекса для чайников.

Блинн.. Повторю:

SeoNizator:
Или я не прав (в аглицком не силён)?

Ладно, проехали.

Kost:
Эта инструкция не зависит от строки агента пользователя, поэтому неважно, где она размещается в файле.

А я не это самое показал в примере? :)

Теперь получается указывая сайтмап можно (и нужно!), отделять пустой строкой.

А host?

Ок, спрошу - где написано, что host не будет учитываться ПС, если он отделён пустой строкой?

K
На сайте с 31.01.2001
Offline
737
#16
SeoNizator:
Ок, спрошу - где написано, что host не будет учитываться ПС, если он отделён пустой строкой?

http://help.yandex.ru/webmaster/?id=996567#996574

Отдельностоящая:

#Примеры некорректно составленных robots.txt, при обработке
#которых директива Host может не учитываться

#2.
Host: www.myhost.ru

Если вы откроете, то найдете в примерах, как использовать директиву Host: .

И во всех примерах она идет внутри блока, нет ни одного примера, где она оторвана.

kimberlit
На сайте с 13.03.2007
Offline
370
#17
iguania:
Здравствуйте, я хочу помочь вам подправить файл robots.txt. Надеюсь, что помог вам...

Ладно, с хостом разобрались. Вот это можешь объяснить, мусьё помощник:

iguania:
Disallow: /*?*
Disallow: /*?

Чем первая отличается от второй? Или вторая от первой...

И смысл этого:

iguania:
Allow: /wp-content/uploads
[Удален]
#18
Kost:
Отдельностоящая

В данном примере ошибка состоит в том, что не указан юзер-агент.

Kost:
И во всех примерах она идет внутри блока, нет ни одного примера, где она оторвана.

Согласен - тут ничего не сказано можно\нельзя отделять директиву Host пустыми строками. Но выше я уже приводил цитату из этой "справки для чайников", где указано чего нельзя отделять. Хоста там нет. А значит - можно (какой бы хреновой логикой кому-то это не казалось ;) ). Или же точно нельзя, не будет учитываться? Где об этом что-то сказано?

iguania:
Надеюсь, что помог вам...

Больше навредил

K
На сайте с 31.01.2001
Offline
737
#19
SeoNizator:
Или же точно нельзя, не будет учитываться? Где об этом что-то сказано?

Непонятно, зачем на этом так зацикливаться, если заведомо известно, как сделать так, чтобы точно работало.

Надо просто сделать как в мануале и все, и не пытаться противоречить простым стандартам, пусть они даже и на другом языке.

Экспериментируйте, пожалуйста, на себе, а не устраивайте провокации для новичков.

[Удален]
#20
Kost:
Непонятно, зачем на этом так зацикливаться, если заведомо известно, как сделать так, чтобы точно работало.
Надо просто сделать как в мануале и все, и не пытаться противоречить простым стандартам,

В том-то и дело, что противоречий нет.

Если кто хорошо знает английский - может прочитать, что секции для ботов определяются по User-agent (вот перед ним должна быть одна или несколько пустых строк). От одного User-agent до следующего или конца файла.

Более того - в "классическом" роботс.тхт только одна директива - Disallow. Если не ошибаюсь - Гугл ввел поддержку Allow. Потом и другие боты начали его поддерживать. Все остальное каждый бот волен по своему понимать.

Но основное.. правило (если угодно) - от вся секция User-agent является рекомендацией для конкретного бота. И только для него. (только * - как бы для всех, но яндекс - он особенный ;) )

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий