Vladimir

Vladimir
Рейтинг
614
Регистрация
07.06.2004
Интересы
Photo
Алеандр #:

Ну, то есть ответа на вопрос вы дать не можете, верно?
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?

Вы читать умеете?
Вначале он ее индексирует, дублирует основную
А потом выкидывает по правилу роботс!

Т.е делает все наоборот, вначале индексация, а потом правило
webinfo #:

Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.

Да я понял🙏


Алеандр #:
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?

Давайте топовую страницу, попробую на практике вам показать, как это элементарно Яндекс делает
Но, если вы прочитали пост выше: предупреждение Яндекс основную страницу выкинет из поиска и из индекса, как дубль.
Об этом вам черным по белому известит в вебмастере

webinfo #:

.. на своём сайте.

И как есть толк, для разбавления контента?

webinfo #:

Ноуиндекс же. Разместить в хэдере при условии наличия гет-параметра - и всё, вопрос решён.

Возможно. Тогда правило будет на самой странице, надо добавить проверку🙏

Кстати, именно дубли возникающие  снаружи индексирует, не глядя на правила в роботс
Алеандр #:
 это значит, что эта страница не будет размещена в индексе.

Если вы не сталкивались, то это не значит, что такого не бывает
- Размещает в индексе. Размещает в поиске
- Несмотря на каноникал, и правило роботса, выкидывает страницу из индекса, обьявляя ее копией
- Потом, ой  у вас правило каноникал, ой тут правило роботс, страницу из индекса выкидываем

И если у вас была хорошая страница в топе, то ее у вас там уже нет. И возможно не будет

Самое лучшее правило, не плодить дубли, в том числе и навязываемые извне.


Антоний Казанский #:Это понятно. Но иногда дубли возникают не изнутри, а снаружи, когда, например, Яндекс начинает индексировать рекламные страницы по UTM меткам из Директа, которые дублируют оригинальные страницы, поэтому здесь в любом случае идёт доп. настройка через robots.txt   

Это естественно ибо только robots.tx, больше нечем

cyberbonus #:

А вы сами читаете кого-то по rss? 😊

Блин, а он разве для чтения создан?????
Вот не знал🤣 Шутка, но тем не менее...

Обленился настолько, что третий год только РСС у меня и работает, пашет не покладая рук))
И вполне успешно. Правда, решил, что можно и поработать немного, для увеличения дохода🤣

maximka77 #:
Не тратьте на это время. Бесполезная затея.
Если у вас не сложилось с RSS, зачем же других отговаривать?)
Алеандр #:
Нет смысла за это воевать, достаточно дополнительно в роботс поставить запрет на /*?* и все вопросы будут решены.

Совет из числа вредных. Но каждый склонен проверить на практике самостоятельно
Замечу лишь, что роботс вас не спасет от большого количества дублей страниц вида /?****
Которые будут периодически индексироваться, а потом выкидываться по правилу. А периодически будут выкидываться нужные страницы и тд

Самое главное правило на сайте не роботс, а правило - на сайте не должно быть дублей страниц.

Антоний Казанский #:

О том, и речь под пример site.ru/?***** попадает и то, и другое.

Тоже сложно пример htacces разобрать?
там учитываются и рабочие страницы и параметры, и сторонние ссылки. Все обрабатывается как надо

Алеандр #:

Давая советы, нет смысла опираться на то, что есть в вашем вебмастере. Мало кого интересует то, что УЖЕ туда попало, если есть необходимость изначально сделать так, чтобы это туда вообще не попало. Если пользователь спрашивает такие вещи, то очевидно, что ему будет малопонятно, пример вы даете или практическое применение. Да и не одним вордпрессом едины, потому вариантов - полна коробочка.

Давая совет, даю пример
А смотреть вы должны свой вебмастер, а не мой. И если оно туда попало, то будет долбить не один месяц.
Вы похоже в свой вебмастер совсем не заходите, или первый раз с сайтами работаете? Не похоже по дате...

Естественно не единым вордпрессом. Но дан пример, вы что не в состоянии на его основе сделать под свой сайт?
Или вам, что все на блюдечке с голубой каемочкой?)) Ну хорошо, под любой сайт
- админку исключить
- рекламные исключить
- файл индекс исключить
- /? перенаправить

Всего: 8951