- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хватаюсь за сердце, а там традиционная ерунда. Дубликаты страниц
highlight:https://olegon.ru/showthread. php?t=33678
https://olegon.ru/showthread. php?t=33678&highlight=%D0%B2% D0%B5%D1%81%D1%8B
https://olegon.ru/showthread. php?t=13090
https://olegon.ru/showthread. php?t=13090&highlight=%EF%EE% E4%E0%F0%EE%EA
https://olegon.ru/showthread. php?t=27994
https://olegon.ru/showthread. php?t=27994&highlight=digi+sm- 5100
Собственно, просто кто-то, видимо, пользовался поиском. Ничего криминального. Тем более, что на странице много лет стоит canonical.
Внимание, вопрос, как заставить Яндекс учитывать этот canonical? Ниже в сообщении справка и указано
Как оставить в поиске нужную страницу
Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
То есть задуманное не работает?
То есть задуманное не работает?
C чего вы это взяли? Всё работает, если правильно использовать.
Вы понимаете различие между действием инструкции clean-param и тега canonical?
Это два разных инструмента, первый - определяет как будут обрабатываться url адреса, второй - определяет лишь рекомендацию при индексации.
Хватаюсь за сердце, а там традиционная ерунда. Дубликаты страниц
То есть задуманное не работает?
Не работает, ни роботс, ни каноникал
Есдинственный метод, это не должно быть дублей страниц на сайте
PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
Ну и при таком количестве дублей , МПК в шаге от вашего сайта
Не работает, ни роботс
Работает, уже проверил, сам интересовался https://searchengines.guru/ru/forum/1087052
После обновления ПС почти все удалились и новых нету)
Не работает, ни роботс, ни каноникал
Чушь полная. Сразу понятно, кто тут теоретик.
Вот относительно свежий живой пример отсева лишних get параметров по clean-param после применения доп. инструкции.
Всё работает, если правильно пользоваться и корректно настраивать.
Не вводите людей в заблуждение.
Не работает, ни роботс, ни каноникал
Есдинственный метод, это не должно быть дублей страниц на сайте
PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
Ну и при таком количестве дублей , МПК в шаге от вашего сайта
Все работает. Но можете мне не верить, я теоретик)
Все работает. Но можете мне не верить, я теоретик)
Да, верю, что вы теоретики, и серч не читаете)
И каноникал, и роботс это рекомендации для ПС, а не правила. Которые ПС могут не учитывать.
Что Яндекс периодически и делает. Выкинет основную страницу, дубль в индекс закинет.
Он естественно, ой исправится через сутки или через неделю...но
Вам ТС прямо об этом и пишет....
Но вам то, что Если Топовую страницу выкинет, и когда она назад попадет, вас это же не интересует. Сайты то клиентские.
А так да бред, следуйте и далее своим правилам теоретики))
Ответ, для ТС все работает, т.е через сколько дней Я исправит согласно роботс
Ну и тд по кругу, пока не удалишь дубли.
Можно взглянуть на это с другой стороны. Просто (скорее всего) активна функция переобхода страниц по счётчику, логично добавить условие, что если есть в адресе всякие GET, то код счётчика на такую страницу не отдавать.
А потом удивляетесь, почему выписали МПК
А так да бред, следуйте и далее своим правилам теоретики))
Ну вот просто: Зачем?
Они же в шаге от того чтобы скачать файл индексации и своими глазами посмотреть на индекс, но не будут этого делать... просто потому что не будут.
Причем из виду упускается уровень риска, как несущественная деталь, т.е. признается что каноникал это рекомендация и тут же предлагается закрывать ей дубли, т.е. страницы несущие не рекомендательные сообщения в явм, а конкретные проблемы в ранжировании.
Это как с оптимизацией <head>, хочешь услышать какое ты говно, посоветуй вычистить <head>))))
Кроме того старт пост вполне себе цельно подает информацию: у меня дубли - это нормально