По мне, так IndexNow самый уверенный инструмент для Бинг в плане ускорения индекса страниц.
Так банится не аккаунт, а домен и его уже не добавить.
Это не вечно, когда первый 30 становятся последними, когда могут еще дать, но не вечно.
Не всегда, но да, сложный вопрос.
Есть такие, но не известно куча или все те три, что отписались тут на форуме. Кстати у кого-то уже опять выкинуло...
Если не найти явную проблему или правильное положение звёзд, это будет последняя проверка для сайта.
так а как составить, если нет прямых отсылок на яндекс в райпе, например?
Согласен, не просто только глядя в лог. Тут только некоторые свои системы статы и блокирования ботов. Если надо, вот более приближенный к реальностям и "укороченный" список используемого Яндексом за последние пару месяцев по моей стате с десятка сайтов:
5.45.192.0/18
5.255.192.0/18
37.9.64.0/18
37.140.128.0/18
77.88.0.0/18
84.252.160.0/19
87.250.224.0/19
90.156.176.0/22
93.158.128.0/18
95.108.128.0/17
178.154.128.0/18
213.180.192.0/19
185.32.187.0/24
ну да, можно сказать официальные, но это не все, их немного больше + скрытые наверняка есть)вот например 195.68.142.224/27 вроде и не яндекс, а вроде яндекс)
Да, есть не так много ещё, но есть. Список не сложно составить по своим логам или статистики своих наработок.
Тут яндекс делится некоторыми IP https://yandex.ru/ips
Там пять основных пунктов блокировки по этой проблеме сайта, выше написал. И ни одного в инете сайта заблоченного за капчи и проверки, а их просто море. да и они занимаются (технологии) очисткой трафика, а не другим. Думаю проблема не в антиботах. Очистку трафика давно повесили на админов сами пс.
В .htaccess добавьте:
SetEnvIfNoCase User-Agent "^Yandex" search_bot<Limit GET POST HEAD>Order Allow,DenyAllow from allDeny from env=search_bot</Limit>
Можно менять добавлять и тд.