- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как заблокировать YandexGPT? Как заблокировать YaGPT?
Ранее владельцы сайта применяли запрещающую директиву для YandexAdditional в файле robots.txt:
User-Agent: YandexAdditional
Disallow: /
Применение директивы занимает по времени до 2 недель.
Но всё устарело, появились новые директивы:
Если вы не хотите, чтобы информация с вашего сайта попадала в быстрые ответы с YandexGPT, добавьте для YandexAdditional или YandexAdditionalBot запрет в файле robots.txt.:
User-agent: YandexAdditionalBot Disallow: /cats/mycat.html # ограничивает отображение контента страницы в быстрых ответах с YandexGPT
Итого получаем 3 директивы в robots.txt :
User-Agent: YandexAdditional
Disallow: /
User-Agent: YandexAdditionalBot
Dissllow: /cats/mycat.html
User-Agent: YandexAdditionalBot
Disallow: /
Имхо, такие запреты лучше всего реализовывать в .htaccess
Если инфа хорошего качества))
Есть смысл только .htaccess, чтобы не грузили сервер
Бесполезны оба варианта, информация с вашего сайта все равно попадет в быстрые ответы с YandexGPT
Ну если не сразу добавлять а прощёлкать и сидеть пол года ничего не делая а только потом добавлять директивы, то нигде не написано, что яндекс уже отсканированное удаляет.
Ну если не сразу добавлять а прощёлкать и сидеть пол года ничего не делая а только потом добавлять директивы, то нигде не написано, что яндекс уже отсканированное удаляет.
Все проще, у тебя все равно скоммуниздят твой контент дорвейщики
Мой контент дорвейщикам не надо, во вторых если я добавляю тему то сразу индексирую и опять не прищёлкиваю время. Также на нормальных сайтах быстро робот работает.
Мой контент дорвейщикам не надо, ..
В этом случае .htacces полный запрет. Robots.txt это рекомендации, а не правило
Т.е. что пишет яндекс это рекомендации а не правило?
Т.е. что пишет яндекс это рекомендации а не правило?
Куча тем и споров на серче было)
Robots.txt это рекомендации, а не правило!!
PS В том числе и для индекса страниц сайта
Куча тем и споров на серче было)
Robots.txt это рекомендации, а не правило!!
PS В том числе и для индекса страниц сайта
Ну в случае с быстрыми ответами это именно правило, а не рекомендации.