И придут к какому-нибудь тумблеру в консоле: разрешить/запретить доступ к сайту для ГПТ.
Есть директива для robots.txt:User-agent: GPTBotDisallow: /
Только проблема в том, что LLM-ки растут как грибы, и далеко не все из них вообще реализуют возможность от них закрыть общедоступный контент. Прошёлся давече по наиболее популярным изданиям - уже более 20 различных агентов насобирал, и это ещё не рассматриваются local-LLM, к которым прикрутить парсер тоже дело не хитрое.
С августа.
Намного лучше. На большем количестве данных обучен = точнее отвечает на технические запросы, меньше воды в гуманитарных ответах. Кроме того, в 4-ке прикручен DALL-E 3 для генерации изображений и возможность анализировать выдачу Bing, парсить содержание сайтов из неё (если нет запрещающей директивы) и на их основе генерировать контент.
Блин, ЧЯДНТ?
Невнимательно смотрите на кавычки.
У semrush вышел отчёт-исследование о факторах ранжирования в гугле. Там в топе доменный трафик и трафик конкретного урла.
Проще снимать налоги + поглощение мелких бизнесов.https://www.forbes.ru/tekhnologii/503272-vladimir-potanin-mog-vojti-v-kapital-andeksa-do-razdelenia-biznesaПомните, как на время исчезли все небольшие продуктовые магазинчики и как грибы повырастали сетевые филиалы? Оно.
он сам не скрывает свою виноватость?
О какой виноватости идёт речь, позвольте спросить? Все животные равны, но некоторые - равнее (с)
Не, в том то и дело, что кукиши почищены и все следы отмыты. Я его тоже не смотрю, просто по многим запросам он есть именно не в качестве статей, а ленты, похоже с генерированным заголовком, на автомате (возможно).
Подтверждаю. Более того, по части запросов гугл пихал дзен-копипасту статей с одного отслеживаемого проекта. По жалобе статьи были удалены. Спустя месяц ссылки на уже удалённые дзен-статьи всё также висят в топе выдачи (хотя должны были исчезнуть хотя бы из-за негативных ПФ), только теперь к ним добавились ленты-дзен, в которых в 60-70% случаев нерелевантные статьи.