Vladimir

Vladimir
Рейтинг
624
Регистрация
07.06.2004
Интересы
Photo
Алеандр #:
 это значит, что эта страница не будет размещена в индексе.

Если вы не сталкивались, то это не значит, что такого не бывает
- Размещает в индексе. Размещает в поиске
- Несмотря на каноникал, и правило роботса, выкидывает страницу из индекса, обьявляя ее копией
- Потом, ой  у вас правило каноникал, ой тут правило роботс, страницу из индекса выкидываем

И если у вас была хорошая страница в топе, то ее у вас там уже нет. И возможно не будет

Самое лучшее правило, не плодить дубли, в том числе и навязываемые извне.


Антоний Казанский #:Это понятно. Но иногда дубли возникают не изнутри, а снаружи, когда, например, Яндекс начинает индексировать рекламные страницы по UTM меткам из Директа, которые дублируют оригинальные страницы, поэтому здесь в любом случае идёт доп. настройка через robots.txt   

Это естественно ибо только robots.tx, больше нечем

cyberbonus #:

А вы сами читаете кого-то по rss? 😊

Блин, а он разве для чтения создан?????
Вот не знал🤣 Шутка, но тем не менее...

Обленился настолько, что третий год только РСС у меня и работает, пашет не покладая рук))
И вполне успешно. Правда, решил, что можно и поработать немного, для увеличения дохода🤣

maximka77 #:
Не тратьте на это время. Бесполезная затея.
Если у вас не сложилось с RSS, зачем же других отговаривать?)
Алеандр #:
Нет смысла за это воевать, достаточно дополнительно в роботс поставить запрет на /*?* и все вопросы будут решены.

Совет из числа вредных. Но каждый склонен проверить на практике самостоятельно
Замечу лишь, что роботс вас не спасет от большого количества дублей страниц вида /?****
Которые будут периодически индексироваться, а потом выкидываться по правилу. А периодически будут выкидываться нужные страницы и тд

Самое главное правило на сайте не роботс, а правило - на сайте не должно быть дублей страниц.

Антоний Казанский #:

О том, и речь под пример site.ru/?***** попадает и то, и другое.

Тоже сложно пример htacces разобрать?
там учитываются и рабочие страницы и параметры, и сторонние ссылки. Все обрабатывается как надо

Алеандр #:

Давая советы, нет смысла опираться на то, что есть в вашем вебмастере. Мало кого интересует то, что УЖЕ туда попало, если есть необходимость изначально сделать так, чтобы это туда вообще не попало. Если пользователь спрашивает такие вещи, то очевидно, что ему будет малопонятно, пример вы даете или практическое применение. Да и не одним вордпрессом едины, потому вариантов - полна коробочка.

Давая совет, даю пример
А смотреть вы должны свой вебмастер, а не мой. И если оно туда попало, то будет долбить не один месяц.
Вы похоже в свой вебмастер совсем не заходите, или первый раз с сайтами работаете? Не похоже по дате...

Естественно не единым вордпрессом. Но дан пример, вы что не в состоянии на его основе сделать под свой сайт?
Или вам, что все на блюдечке с голубой каемочкой?)) Ну хорошо, под любой сайт
- админку исключить
- рекламные исключить
- файл индекс исключить
- /? перенаправить

24Journal #:
Могу предложить Ифрейм трафик от 1000-3000 в сутки за 1$ счётчик liveinternet и Гугл Аналитика определяет 80% трафика, Яндекс метрика тоже если отключить фильтр роботов 
Живые посетители?
alaev #:

Боты заходят с IP Yandex.

Я с платоном переписывался по этому вопросу. Он дал рецепт. Ну, а что? В Израиле травка легализована, а сегодня ещё и шаббат.

Ну рецепт отписан, чисто по ключевому слову, не читая сути


alaev #:

Бот Яндекса со своего ip грузит страницу :-(

Получается что-то вроде прокси.


Если из ссылки translated.turbopages.org.... убрать translated, откроется турбо страница

Похоже с турбо страниц, т.е никак не запретишь. Ну или пробовать отключить турбо принудительно
fliger #:
Del

Ну да, вы правы/ и Гугл тоже фрейм убрал
Проверил запрет на сервере, не срабатывает

Всего: 9057