Vladimir

Vladimir
Рейтинг
615
Регистрация
07.06.2004
Интересы
Photo
Gonchar-web #:

Не секрет?

В итоге меняется релевантность, и другая страница становится релевантной. Соглашаемся с Яндексом и гоним ее наверх. И так до трех. страниц, не более. В итоге, нужно и можно вернуть первую основную на место. Ну и побочный эффект интересный получается ( на практике отрабатываем )
boobi #:

А вот как с и-магазинами? дубли по сортировке и пагинации не удалишь, приходится использовать каноникал и мету ноуиндекс, фоллоу / только ноуиндекс 

Сортируйте не меняя URL, как вариант

Всю пагинацию Яндекс кушает, держит в индексе и даже не выкидывает. Пишите титл и тд, уникализируйте.
Ну или это же ваш сайт, ищите варианты на практике.
Snake800 #:

В таких случаях надёжнее noindex. Бюджет хавает, но хотя бы в индекс не лезет. С бюджетом, впрочем, у Яндекса вроде бы проблем нет.

Бюджет оптимизируйте, 99% сайтов этого не делают
Kaavain #:

По canonical отлично и быстро и Яндекс и Гугл выкидывает дубли, коих у меня дохренеллион.

Яндекс даже не извинился за косяк 

Вам перевод нужен написанного?😂
Это ваш косяк, дублей на сайте не должно быть по умолчанию.


samimages #:

Ну вот просто: Зачем?
...но не будут этого делать... просто потому что не будут.

Кроме того старт пост вполне себе цельно подает информацию: у меня дубли - это нормально

Неее, есть кто внимательно читает, и задает технические вопросы в личку. И как ни странно это девушки))

Shelton724 #:
Можно взглянуть на это с другой стороны. Просто (скорее всего) активна функция переобхода страниц по счётчику, логично добавить условие, что если есть в адресе всякие GET, то код счётчика на такую страницу не отдавать.
Почему бы не взлянуть правильно не удаляя счетчик, и оптимизировать crawl бюджет?
А потом удивляетесь, почему выписали МПК
John Silver #:

Все работает. Но можете мне не верить, я теоретик)

Да, верю, что вы теоретики, и серч не читаете)

И каноникал, и роботс это рекомендации для ПС, а не правила. Которые ПС могут не учитывать.
Что Яндекс периодически и делает. Выкинет основную страницу, дубль в индекс закинет.
Он естественно, ой исправится через сутки или через неделю...но
Вам ТС прямо об этом и пишет....

Но вам то, что Если Топовую страницу выкинет, и когда она назад попадет, вас это же не интересует. Сайты то клиентские.

А так да бред, следуйте и далее своим правилам теоретики))

Ответ, для ТС все работает, т.е через сколько дней Я исправит согласно роботс
Ну и тд по кругу, пока не удалишь дубли.

olegon :

Хватаюсь за сердце, а там традиционная ерунда. Дубликаты страниц

То есть задуманное не работает?

Не работает, ни роботс, ни каноникал
Есдинственный метод, это не должно быть дублей страниц на сайте

PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
Ну и при таком количестве дублей , МПК в шаге от вашего сайта

advertash #:
Проект некоммерческий, на сеошника пока нет бюджета)

https://shoria.news

Но тем не менее, сервер настроен отлично)) Expires, добавьте в ответ сервера ( +час, сутки как вам нужно)
- html код картинок исправьте, альт

Weblady #:

Не тестировала:

Можно прописать правило в файле .htaccess. 

Вам похоже точно делать нечего)
Писал же характер  защиты контента))
Защита контента не должна состоять в поиске, и вас не должно волновать, что кто то копирует ваш контент

Если вы желаете защищать картинки, то защищайте (exif) их и распространняйте на чужих сайтах
В этом случае, чем больше у вас скачают на свои сайты тем лучше, для вашего сайта

PS Милионны фото на сайтах, никому не запрещается, и всем показывается. Идет хороший траф с картинок.



Snake800 #:
Если коротко - напрягают. Выделение потока для http(s) соединения, какая-никакая загрузка канала, запись в лог как минимум. Но если при этом сервер не обращается к скриптам и БД - разумеется, нагрузка несоизмеримо меньше. Раз жажда данных столь высока - можно уважить клиента и отправить такой ответ. Многих отрезвляет.
Там же, читать надо все)) - во многих странах «активная защита» приравнивается к хакингу и является уголовно наказуемой.
Всего: 8954