Главное "техничку" сайта до мелочей, выше часть описал, остальную часть Гуглите изучайте и будет вам индексация любого контента.
Время новой публикации Время индексации
- Время переиндексации контента при его изменении, примерно такое же. - Использование лимита ПС на обход (не более 5%) минимальное, при максимальной скорости обхода.Т.е нагрузка ботов ПС на сайт нулевая
Вон оно что, файл robots надо проверять из под бурж IP
Вашем случае письмо из Роскомнадзора ни при чем.Вам же хостер дал прямой ответ на ваш вопрос
Запрет индексации уменьшает траф ботов Яндекса и Гугла до нуля.Защита от Ddos-атаки😭
т.е. ручное управление выдачей? если амбассадор может изменить выдачу
Откуда такой вывод? Она прекрасно справляется с ботами и тем более по прямым заходам. И как раз в этом и был вопрос.
С прямыми заходами на сайт ( на хостинг сайта ) справляется обыкновенный скрипт, опять же без блоктровок в htaccess, капч и антиботов.Но, лично вы можете использовать любую капчу💪PS Интересно какой идиот вообще до нее додумался ( до капчи )
не смеши. чел будет делать вебинары только для того, чтоб оправдать тары на его амбассадорство :)) причем бесполезное во всех смыслах. Если выдачей рулит нейросеть, то чем может помочь амбассадор? А если амбассадор может изменит выдачу, указав на ошибку, то какой на фиг алгоритм на основе ИИ? :))
кто врёт?
Никто не врет😭- амбассадор может изменит выдачу, указав на ошибку- затем ИИ изменит выдачу, не указывая на ошибку амбассадора- цикл ꝏ PS Но, да зачистку ИИ они провели знатную, удаляя ошибки. Но "оно" заложено системно, т.е ошибки будут плодиться по нарастанию
Так будет не просто автоматизировать, постоянно дописывая правила и перезапуская сервер. Это если я правильно понял.
Это каким же образом, выбирая адрес целевого сайта обращение минует хостинг?
Это никаким образом к моим задачам не относится.
Почему не касается? Думаю ( надо проверять, лень), что он хочет сказать что бот заходит на адрес твоего сайта с загруженной метрикой, при этом не заходя на твой хостинг ( т.е мимо твоих капч )