Vladimir

Vladimir
Рейтинг
624
Регистрация
07.06.2004
Интересы
Photo
Алеандр #:

Имхо, любые игры с прописыванием условий под блокировки ботов поисковиков, рано или поздно, могут вылезти боком. Сейчас это работает, завтра в Яндексе решат добавить lang, по какой-то из причин, естественно об этом никто никого оповещать не будет. Но о том, что бот перестал получать контент можете узнать слишком поздно, когда позиции уже отлетят.

Схема допустима, но нужно отдавать себе отчет, что требуется или постоянно за этим присматривать, либо доверять уведомлениям вебмастера и что сможете вовремя среагировать, если что.

Вам лишь бы написать?
В вебмастере сразу появится 301 редирект или вы раз в месяц его просматриваете?
А, еще есть оповещения, для критически важных страниц. Они у вас тоже  не включены?



Алеандр #:

И опыте тех, кто с момента внедрения стандарта robots им пользуется, без малого 29 лет.
Но да, нет смысла дальше это обсуждать.

Так никто вас и не заставляет, если вам это ненужно, и в вашем вебмастере ничего лишнего нет.


webinfo #:
Роботс - это для страниц, которые генерируются собственным сайтом и где контент предсказуем. 

Именно эта фраза для него и непонятна))
Китайцам в базу попадет, тогда сразу поймет🤣

Datot #:

=не может удалить страницы

не может удалить страницы

не может удалить страницы

= В РСЯ боты скликивают рекламу, на сайте скликивать НЕЧЕГО :)) это если для тех, кто на завод уже пошел

Это и есть индексация.
Нормально и Гугл и Ягдекс все индексирует, независимо от возраста сайта

Про ботов - На сайтах они как раз и скликивают РСЯ у рекламодателей
- У рекламщиков бюджет
- А вебмастеров на сайте, а сайт естественно в бан из-за скликивания рекламы ботами.
О бане сайтов Яндексом из-за ботов, тебе и написали

Так, что каша нынче у тебя))

alaev #:
Disallow: /
В смысле одной строкой?)

Все работает) Роботы получают страницу ту, что нужно
А переводчик редиректит самостоятельно страницу, потому как она с авторизацией ( доступ запрещен)

Алеандр #:

Тогда вернемся к вопросу, что гугл игнорирует роботс.

В каком месте в теме, что Гугл игнорирует роботс? Не замечал на практике

Читать научитесь...внимательно

webinfo #:

Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.

Кстати тема была: Рекламы нет, а utm метки есть с яндекса
Так вот они действительно есть = факт
Т.е разрешение и запрет на индексирование по utm метке, должен быть на сайте по умолчанию
Алеандр #:

Ну, то есть ответа на вопрос вы дать не можете, верно?
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?

Вы читать умеете?
Вначале он ее индексирует, дублирует основную
А потом выкидывает по правилу роботс!

Т.е делает все наоборот, вначале индексация, а потом правило
webinfo #:

Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.

Да я понял🙏


Алеандр #:
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?

Давайте топовую страницу, попробую на практике вам показать, как это элементарно Яндекс делает
Но, если вы прочитали пост выше: предупреждение Яндекс основную страницу выкинет из поиска и из индекса, как дубль.
Об этом вам черным по белому известит в вебмастере

webinfo #:

.. на своём сайте.

И как есть толк, для разбавления контента?

webinfo #:

Ноуиндекс же. Разместить в хэдере при условии наличия гет-параметра - и всё, вопрос решён.

Возможно. Тогда правило будет на самой странице, надо добавить проверку🙏

Кстати, именно дубли возникающие  снаружи индексирует, не глядя на правила в роботс
Всего: 9057