А какие известные сети можете порекомендовать тогда? Без риска навредить сайту.
По паре человек в сутки идут конечно.
---------- Добавлено 15.05.2018 в 13:34 ----------OS_ZP_UA, а как кличут картиночного бота Яндекс? ) YandexImages?
User-agent: Yandex
Disallow: /wp-content/uploads/
Host: сайт
Sitemap: сайт/sitemap.xml
User-agent: YandexImages
Allow: /wp-content/uploads/
Так вроде правильно будет?
А где посмотреть идет ли трафик именно с картинок Яндекс? Может я не там ищу вообще...
А запрет индексации картинок Яндексу на что-нибудь может в принципе повлиять или чему-то навредить? Трафика с картинок конечно никакого нет.
АХАХАХА, анаголично! Именно 28-го попал под фильтр!
И что характерно: выход из-под фильтра один в один совпадает с датой последнего обхода роботом картинок :)
Ну а вдруг это тоже известная, а я не в курсе? ) Просто ранее не увлекался этим никогда.
OS_ZP_UA, ну вот смотрите для примера:
И для некоторых страниц заметил, что такого рода ссылок куча, и все они учитываются как загруженные страницы, а потом исключаются роботом как неканонические. Что Вы с ними можете делать? Кстати непонятно откуда они вообще берутся...
На какому-то другом форуме читал0 что задавали этот вопрос Платону насчет картинок. Ответ был, что мол не беспокойтесь, робот живет своей жизнью, статистика по обходу картинок вас не должна волновать, это ни на что не влияет.
Вот интересно, если Яндекс начал исключать из индекса картинки со всех сайтов, то за счет чего он формирует свою поисковую базу этих самых картинок? )---------- Добавлено 15.05.2018 в 11:52 ----------
А зачем ему что-то запрещать, например, просмотр страниц с параметрами в URL, если в коде этих страниц есть ссылка на каноническую страницу?? Одно время аналогичная ситуация была с Гуглом - их робот плюет на запреты в robots и сканирует всё подряд. Так вот чем больше ты ему запрещаешь, тем больше этого мусора он добавляет в индекс (сопли). После того как это было выявлено, все вебмастера для гугл в robots открывали практически все разделы, и проблемы с индексацией пропадали. Убедился в этом на собственном опыте. Куча статей была написана по этой теме, так как задело многих.
Так робот к загруженным страницам относит все, даже тех которых нет физически: страницы с параметрами в URL, с метками для отслеживания переходов, с ошибками в урл (с других сайтов), с параметрами поиска по сайту, редиректы и пр. Как Вы хотите от них избавиться? Вы на это не можете влиять. Чем объемней сайт, тем больше таких "мусорных" ссылок. И в таблице, если загрузить её из кабинета вебмастера, видно, что робот после проглатывания такой ссылки переходит на каноническую страницу, как и должно быть.
Гораздо хуже, когда такие страницы попадают в поиск и находятся в индексе. Вот тогда это действительно беда.
OS_ZP_UA, в моем случае: загружено 4245 (из них картинки 2 282), в поиске 771.