- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс постоянно добавляет дубли страниц в индекс такого вида:
Это только часть, набор символов после знака "?" может быть совершенно любая, так что закрытие их от индекса через Clean-param не выход.
На таких страницах у меня естественно стоит rel=canonical на основную, но яндексу плевать, при добавлении в индекс он пишет "Страница попала в поиск, поскольку во время её сканирования роботом её содержимое существенно отличалось от содержимого страницы по адресу", хотя естественно содержимое страницы идентично основной, но он видимо не умеет это определять.
Также недавно попробовал закрыть их в роботсе строкой Disallow: *? , Яндекс сначала выкинул часть из индекса основываясь на этом правиле, затем опять стал добавлять, то есть и это ему плевать.
Поддержка несет какую-то пургу противоречащую друг другу из сообщения в сообщение.
Склоняюсь к тому чтобы наглухо закрыть все подобные страницы метатегом noindex, но это крайний случай.
У кого-нибудь были подобные проблемы? Что делали? Помогло что-нибудь?
Это только часть, набор символов после знака "?"
Приведите полный список.
Пока всё покрывается правилом: yandex-source&hhtmFrom
набор символов после знака "?" может быть совершенно любая, так что закрытие их от индекса через Clean-param не выход.
Если эта разница в части после "=", то это неважно, какой там набор символов.
На таких страницах у меня естественно стоит rel=canonical на основную, но яндексу плевать, при добавлении в индекс он пишет "Страница попала в поиск, поскольку во время её сканирования роботом её содержимое существенно отличалось от содержимого страницы по адресу", хотя естественно содержимое страницы идентично основной, но он видимо не умеет это определять.
Правильно, потому что это не ультимативное правило, это лишь рекомендация и Яндекс может переопределить правило (как в вашем случае).
Также недавно попробовал закрыть их в роботсе строкой Disallow: *? , Яндекс сначала выкинул часть из индекса основываясь на этом правиле, затем опять стал добавлять, то есть и это ему плевать.
Пробуйте Disallow: /?
Поддержка несет какую-то пургу противоречащую друг другу из сообщения в сообщение.
Что конкретно друг другу противоречит? Приведите последовательно и точно, что у вас вызывает противоречие.
Склоняюсь к тому чтобы наглухо закрыть все подобные страницы метатегом noindex, но это крайний случай.
Да, это тоже вариант.
Приведите полный список.
Пока всё покрывается правилом: yandex-source&hhtmFrom
Там много разного, я говорю что Clean-param не выход, ибо может быть любая последовательность символов которую не систематизируешь в правило. Сегодня удалю через Clean-param одно, завтра появится другое.
я говорю что Clean-param не выход
Тогда либо Disallow: /? либо noindex на все страницы, которые начинаются с ?.
У кого-нибудь были подобные проблемы? Что делали? Помогло что-нибудь?
Я сделал так, что все эти параметры просто удаляются из урл, т.е. обычный редирект на нормальный урл без всех параметров. Остаются только те, которые мне нужны и то не на всех страницах.
Я сделал так, что все эти параметры просто удаляются из урл, т.е. обычный редирект на нормальный урл без всех параметров. Остаются только те, которые мне нужны и то не на всех страницах.
тоже так сделал в htaccess + запретил в robots.txt. но этот метод хорош для сайтов, где не используются get-параметры
Я сделал так, что все эти параметры просто удаляются из урл, т.е. обычный редирект на нормальный урл без всех параметров. Остаются только те, которые мне нужны и то не на всех страницах.
А не подскажите правило для htacess, которое это делает?
У меня стоит правило, но работает не так как хочется. Например, страницу с параметром *.php?yandex-source он редиректит на *.php, а вот страницу с просто знаком вопроса *.php? - он не редиректит.
но этот метод хорош для сайтов, где не используются get-параметры
Очень важная оговорка. Там где используется контекстная реклама, utm метки и разного рода roistat-ы - вариант принудительных редиректов на get параметры не подойдет.
А не подскажите правило для htacess, которое это делает?
У меня стоит правило, но работает не так как хочется. Например, страницу с параметром *.php?yandex-source он редиректит на *.php, а вот страницу с просто знаком вопроса *.php? - он не редиректит.
Не подскажу. У меня сделан посредник для Laravel. Для каждого маршрута добаляю посредник и указываю параметры, которые не нужно удалять.