- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
собственно сабж
яндекс индексирует страницы по /?style=printme&mobile_override=
хотя в роботс.тхт стоит правило, в т.ч. для яши:
Disallow: /?
как решить проблему?
как решить проблему?
Через Clean-param.
Clean-param: style
хотя в роботс.тхт стоит правило, в т.ч. для яши:
Disallow: /?
Это правило не будет работать.
Clean-param: style
Одним не обойдешься. Да и по моим наблюдениям какая-то стремная директива. То ли работает, то ли нет. Железно:
User-agent: *
Disallow: /*?мусор*
Где "мусор" подстрока УРЛ, например - параметр, который точно не встречается в нужных УРЛ и обязательно есть в мусорных.
Одним не обойдешься. Да и по моим наблюдениям какая-то стремная директива. То ли работает, то ли нет.
Нормально работает
Одним не обойдешься
Одним скорее все не обойдется, потому что наверняка всплывут еще параметры, включая внешние типа utm и т.д.
Да и по моим наблюдениям какая-то стремная директива
Вполне нормальная регламентируемая директива.
То ли работает, то ли нет.
Работает точно, проверял лично и лично в Вебмастере получал уведомления Исключено по правилам clean-param (за точность формулировки не ручаюсь, но то, что убирали из индекса по clean-param - совершенно точно).
Железно:
User-agent: *
Disallow: /*?мусор*
Где "мусор" подстрока УРЛ, например - параметр, который точно не встречается в нужных УРЛ и обязательно есть в мусорных.
Можно и так, но:
а) Ваш вариант запрещает обходить, тогда как clean-param как раз не учитывает адреса с нужными динамическими параметрами.
б) Яндекс в подобных случаях рекомендует использовать именно clean-param.
в) Динамические параметры удобнее дописывать т.е. Clean-param: style&utm&еще_чего-нибудь&ещё_чего-нибудь и т.д.
Но это конечно мелкие частности, ваш вариант тоже имеет место быть.
собственно сабж
яндекс индексирует страницы по /?style=printme&mobile_override=
хотя в роботс.тхт стоит правило, в т.ч. для яши:
Disallow: /?
как решить проблему?
301 поставить
в коде проверять наличие ненужных get-переменных в запрошенном url и выводить в секции <head> вместо обычного <meta name="robots" content ="index,follow"> (если он вообще есть) - запрет через <meta name="robots" content="noindex,follow"> Это решит вопрос и с Яндексом, и с Гуглом.
robots.txt - не директива, а рекомендация, оба поисковика могут его игнорировать, если на страницы с параметрами где-то нарыли прямые ссылки (изнутри сайта или внешние).
Clean-param работает только для Яндекса и далеко не всегда (хотя чаще работает).
<link rel="canonical"> также рекомендация и Яндекс ее очень часто игнорирует по сочетанию прочих сигналов.
Через Clean-param.
Clean-param: style
?utm_source=fact
?P�f��D??ce=fact
И кучу всяких вариаций похожих, как с этим совладать?
Это в роботсе как-то можно "причесать"?
Буквально, на днях появились в вебмастере с клик = 1 сразу после бототрафа.
Я свой роботс временами дописываю. Первый параметр - для главной, так как у меня там нет ничего с ?.
Disallow: /?
Disallow: /*?ysclid
Остальное - для всех страниц. /*?utm помогает и от ?utm_source. Вроде все спокойно работает. Яндекс понимает.
В идеале, конечно, 301 редирект или хоть запрет в мета-тегах. Для того же Гугла он считается более строгим.
запрет через <meta name="robots" content="noindex,follow"> Это решит вопрос и с Яндексом, и с Гуглом.
не знаю как с гошей, а с яша на такой тег через сутки присылает:
Старый код страницы: 200
Новый код страницы: URL запрещён к индексированию тегом noindex
так что никому не советую
а всем остальным отписавшимся спасибо
не знаю как с гошей, а с яша на такой тег через сутки присылает:
Старый код страницы: 200
Новый код страницы: URL запрещён к индексированию тегом noindex
так что никому не советую
а всем остальным отписавшимся спасибо
Ну да. А что нужно-то? Вот у вас страница дубль, конкретно - версия для печати.
Она в индексе зачем?