genjnat

genjnat
Рейтинг
230
Регистрация
08.10.2008
Дмитрий Громов #:

Я рекомендую вам задать дополнительные уточняющие вопросы в том же тикете, так обратная связь с командой получится быстрее. Хочу добавить, что в целом не советую использовать файл robots.txt для постраничного ограничения отдельных страниц. Если необходимо запретить обход отдельных ссылок, для этого можно использовать мета-тег noindex. В robots.txt же в первую очередь стоит запрещать разделы и большие группы страниц по определенному признаку.

Вернулись в начало... Яндекс грузит в индекс то, что уже полгода как 404. Куда я метатеги нарисую? Меняете правила, то хоть отражайте это в справке.

Поддержка Яндекс.Поиска
Здравствуйте!
Спасибо, что заметили! Передал информацию коллегам о необходимости внесения изменений.

Надеюсь это было последнее ограничение, и через неделю я опять не останусь без робота))

Дмитрий Громов #:

Думаю, здесь потребуется участие ребят из Вебмастера, нужно более подробно разобраться в причинах. Напишите, пожалуйста, им напрямую через форму обратной связи: https://yandex.ru/support/webmaster/troubleshooting.html Они вас уже ждут.

Ответ

Мы проверили ситуацию с запретами в robots.txt вашего сайта.

Сейчас директивы в файле robots.txt, к сожалению, не обрабатываются. Это связано с тем, что в файле указано огромное число директив. Рекомендуем по возможности сократить размер файла до 500 строк.

Основные требования к файлу robots.txt можно прочесть в нашей Справке.

Отдельное спасибо парням за ссылку на справку, где указано ограничение в 500 КБ. Что вообще не тоже самое. В итоге у меня сайт уже месяц без  robots.txt, а вы даете людям опасные советы...
Шо интересно, еще 4 недели назад, убирал через  robots.txt 800 страниц, robots считывался...

Работники орифлейм или гербалайф рады если хотя бы бить не начинают... 
Дмитрий Громов #:

Здравствуйте! Для того, чтобы узнать об http-коде 404 со всех таких ссылок, поисковому роботу может потребоваться какое-то время, так как нужно переиндексировать каждую такую страницу. Вы можете ускорить процесс исключения из поиска ссылок с http-кодом 404, запретив их индексирование в файле robots.txt вашего сайта. В таком случае они смогут выпасть из выдачи в течение 1-2 недель. Подробнее о файле robots.txt вы можете прочитать в нашей Справке: https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html

Да тут как бы даже и не про исключение из индекса. Дело в том, что эти страницы в нем и не были. Яндекс их считал как недостаточно качественные, и в индекс брать не хотел. Собственно, вот поэтому, и потому, что этих товаров больше нет у поставщиков, они были удалены. И вот спустя полгода они вдруг появляются в индексе...

И вы кстати упомянули про  robots.txt. Я вот прямо сейчас пытаюсь удалить таким способом еще одну большую пачку ненужных товаров. 3,5 тыс. В правилах у вас макс размер файла 500 кб. Он у меня получился 250. Прошло полторы недели. Яндекс robots.txt не взял. Ну думаю, правила правилами, а наверно большой.  Уменьшил до 1,5 тыс. строк (90 кб), прошла неделя - тоже не взял. Сейчас у меня там уже 500 строчек, пока прошло 4 дня...
Раньше для такого фокуса нужно было пару дней. Теперь что, действительно нужны недели? 

Не вопрос, просто порефлексировать...
Вот что это вообще такое
Яндекс сегодня вывалил в индекс страницы проиндексированные во 2,3...6-м месяце. Большинство из которых давно не существуют, они 404-е. Среди них целый кластер сайта, со 150 категориями и несколькими тысячами товаров. Весной удалил и уже забыл о нем. А сегодня он восстал из мертвых, и участвует в поиске...

Если храните это  по 6-10 месяцев, а потом по каким-то причинам решаете публиковать, то нельзя ли хотя бы прочекивать на 404?)))
John Silver #:
У меня инструмент с роботами и без показывает абсолютно одинаковые значения. Хотя на некоторых сайтах 50% посещаемости это роботы, но метрика, судя по всему, считает их не роботами.

Значит у меня какой-то уникальный аккаунт. На котором у всех сайтов примерно одна и та же картина. Разных людей, на разных серверах, с разным трафиком.
Примеры
https://skr.sh/i/261021/bDfGBKFv.jpg
https://skr.sh/i/261021/IfSXRpb4.jpg
https://skr.sh/i/261021/XlI1sAyJ.jpg
Нашел вот какой-то уникальный сайт, где вкладка "без роботов" не активная, поэтому ничего не показывает
https://skr.sh/i/261021/Uk6cjdCG.jpg
Но видимо просто древний код.

John Silver #:
Извините, не верьте. Не вижу смысла что-либо доказывать.

Понятно...
На всех сайтах их инструмент "Без роботов" показывает их наличие. И +/- одно и тоже в процентах.  На 1000 посетителей, "С роботами", обязательно показывает + 10-60 "роботов". 
Но тут не про РСЯ. Тут про нерабочий инструмент в метрике.

John Silver #:

У меня в метрике показывает что на сайтах нет роботов. В РСЯ, в свою очередь, все сайты под фильтром, клики не учитываются.

Извините не верю. Сделайте скриншот пожалуйста. 

Дмитрий Громов #:
чтобы мы с командой Метрики смогли её проанализировать

У меня доступ боле чем к сотне сайтов, некоторые периодически под атаками ботов. С аномальным трафиком кратно превышающим обычный. Во всех случаях инструмент "Без роботов" работает точно так же. Отминусовывая 1-6%, даже если там боты почти все.
Вы сделали муляж, имитацию определения роботов. Его не надо анализировать. Надо сделать инструмент, который правда будет их отфильтровывать.

Дмитрий Громов #:

Здравствуйте! Давайте посмотрим, почему так могло произойти. Для этого пришлите мне, пожалуйста, ссылку на отчёт, где вы наблюдаете такую ситуацию.

Зачем? Если это какая-то имитация определения роботов. Которая на самом деле их не определяет...
Вот на скрине прямые переходы, с роботами и без. В действительности прямых переходов на этом сайте до 150/в день. Пики (400, 600, 1000+...), это бототрафик. Из которого ваш инструмент определяет как роботов единицы, или десятки. Когда их овер 1000.
Ровно такая же картинка по другим типам трафика, из соцсетей, по ссылкам и пр. Когда под их реферами идет атака ботов. Вы их не определяете. Вы просто рисуете некую кривую, которая (смотря по типу трафика) на 1-6% выше, и назвали ее "С роботами".
Слегка рандомизировали, что бы не была совсем уже параллельной. Но рукожопо. Поэтому иногда "без роботов" у вас выходит больше.)))


Всего: 2166