- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как заблокировать YandexGPT? Как заблокировать YaGPT?
Ранее владельцы сайта применяли запрещающую директиву для YandexAdditional в файле robots.txt:
User-Agent: YandexAdditional
Disallow: /
Применение директивы занимает по времени до 2 недель.
Но всё устарело, появились новые директивы:
Если вы не хотите, чтобы информация с вашего сайта попадала в быстрые ответы с YandexGPT, добавьте для YandexAdditional или YandexAdditionalBot запрет в файле robots.txt.:
User-agent: YandexAdditionalBot Disallow: /cats/mycat.html # ограничивает отображение контента страницы в быстрых ответах с YandexGPT
Итого получаем 3 директивы в robots.txt :
User-Agent: YandexAdditional
Disallow: /
User-Agent: YandexAdditionalBot
Dissllow: /cats/mycat.html
User-Agent: YandexAdditionalBot
Disallow: /
Имхо, такие запреты лучше всего реализовывать в .htaccess
Если инфа хорошего качества))
Есть смысл только .htaccess, чтобы не грузили сервер
Бесполезны оба варианта, информация с вашего сайта все равно попадет в быстрые ответы с YandexGPT
Ну если не сразу добавлять а прощёлкать и сидеть пол года ничего не делая а только потом добавлять директивы, то нигде не написано, что яндекс уже отсканированное удаляет.
Ну если не сразу добавлять а прощёлкать и сидеть пол года ничего не делая а только потом добавлять директивы, то нигде не написано, что яндекс уже отсканированное удаляет.
Все проще, у тебя все равно скоммуниздят твой контент дорвейщики
Мой контент дорвейщикам не надо, во вторых если я добавляю тему то сразу индексирую и опять не прищёлкиваю время. Также на нормальных сайтах быстро робот работает.
Мой контент дорвейщикам не надо, ..
В этом случае .htacces полный запрет. Robots.txt это рекомендации, а не правило
Т.е. что пишет яндекс это рекомендации а не правило?
Т.е. что пишет яндекс это рекомендации а не правило?
Куча тем и споров на серче было)
Robots.txt это рекомендации, а не правило!!
PS В том числе и для индекса страниц сайта
Куча тем и споров на серче было)
Robots.txt это рекомендации, а не правило!!
PS В том числе и для индекса страниц сайта
Ну в случае с быстрыми ответами это именно правило, а не рекомендации.