- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно, сабж.
Решил я забанить на своем сайте боты Yahoo! (уж очень брутально они его сканят). Для этого, по рекомендации самого Yahoo! создал robots.txt и внес в него следующие строки:
Каково же было мое удивление, когда вместе с яхушным ботом пропал и Яндекс. На второй день я был выкинут из поиска вообще.
Что я сделал не так?
Собственно, сабж.
Решил я забанить на своем сайте боты Yahoo! (уж очень брутально они его сканят). Для этого, по рекомендации самого Yahoo! создал robots.txt и внес в него следующие строки:
Каково же было мое удивление, когда вместе с яхушным ботом пропал и Яндекс. На второй день я был выкинут из поиска вообще.
Что я сделал не так?
Покажи полный robots.txt
Это и есть полный robots.txt
до этого его вообще не было :)
PS: в бак переименовал после инцидента уже.
dj_maxx,
Очевидно все же стоит для Яндекса написать отдельную директиву и не забыть указать хост.
Кстати выпать могли и по другой причине
Это и есть полный robots.txt
до этого его вообще не было :)
PS: в бак переименовал после инцидента уже.
В общем ОК... Единственно что - согласно http://www.robotstxt.org/wc/norobots.html -
"The file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL)." (выделение мое).
Не то, чтобы очень важно - но я бы пустую строку добавил в конце (как конец блока)
Так что причина скорее всего не в нем. А что забирал Яндексовский индексер? Если НЕ только роботс - тогда точно не в этом проблема.
Последнее, что забрал Яндекс был robots.txt
C тех пор его след простыл...
Последнее, что забрал Яндекс был robots.txt
C тех пор его след простыл...
Хммм... Неужели ребята семантику сломали? Врят-ли.
Вот что..... Внимательно посмотри, с каким кодом ты отдал robots.txt, с каким MIME и не пакованный ли. Дело в том, что если робот видит наличие robots.txt, но не может получить его содержимое - он, по понятным причинам, считается запрещающим.
Мдя.. странно как-то.
Может просто совпало мое создание роботса с очередным апдейтом Яндекса %)
При попытке добавить УРЛ говорит
Сайт при этом живой и относительно не тормознутый. Можете сами проверить...
Дело в том, что если робот видит наличие robots.txt, но не может получить его содержимое - он, по понятным причинам, считается запрещающим.
Почему считается запрещающим?
Стандарт исключений для роботов:
http://www.robotstxt.org/wc/norobots.html
The presence of an empty "/robots.txt" file has no explicit associated semantics, it will be treated as if it was not present, i.e. all robots will consider themselves welcome.
Отсутствие файла или пустой файл robots.txt равнозначно разрешению любому роботу индексировать весь сайт полностью.
--
И потом, как это так:
видит наличие robots.txt, но не может получить его содержимое
Ведь если бот получил ответ сервера при запросе файла с кодом ошибки отличным от 200, то, ясное дело, он файл не видит, а если с ответом сервера 200ОК, то содержимое файла он, естественно, уже получил.
Хм... ситуация стала намного интересней. Уже 2 дня меня сканят боты яндекса, а в поиске до сих пор пусто %)