- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Итак ситуация: Яша сообщает о наличии дублей страниц. Например mysite.com и mysite.com/? т.е. знак вопроса - без параметров (откуда он вылезает, на нескольких проектах попросили разобраться, достоверно не знаю).
Если есть внешние обращения по указанные адресам, то в случае привязанной Метрики она будут передавать данные адреса для индексации.
Робот приходит по данным адресам, получает 200-е ответы от сервера и индексирует полученные документы (очевидно это будут дубли). Потом в большинстве случаев как дубли выбрасывает.
1. Добавлять тег cannonical. как я понимаю, он решает проблему но не полностью: этот грязный урл можно сохранить в закладки, зашарить в соцсетях. А так же, если я правильно понимаю, в метрике в статистике все равно это как отдельный URL
Корректный canonical в любом случае лучше выводить в мета информации, но это лишь рекомендация для Яндекса это не является руководствующим решением (Яндекс может занести в индекс страницу и вопреки данным canonical).
В этом случае для подобных адресов (и остальных с get параметрами) выводить:
<meta name="robots" content="follow, noindex" />
и дублируются страницы с адресацией ../*?* не будут индексироваться.
А отдельные get парамеtтры потом описать в robots.txt директивой Clean-param. Тогда Яндекс и не будет ходить по ненужным адресам.
2. robots.txt - так же избранное и ссылки. Как в этом случае с точки зрения метрики это в итоге выглядит, там только в индекс не включит, но увидит как отдельную страницу?
Нередко адреса вида /*?* запрещают в robots.txt, выше вам об этом уже подсказали.
3. Настроить редирект 301.
Не надо.
Все рабочие адреса с get параметрами, в частности utm метки, сортировки по признакам внутри сайта, которые используются адресацию с get параметрами должны корректно работать.
С точки зрения Chief Executive Officer лучше заниматься стратегическим развитием компании, управлением ресурсами и финансовыми показателями.
Cовершенно верное и уместное замечание.
Выпендрился, смотрите-ка на него.
А вот это систематическое хамство и повторяющиеся провокации от данного пользователя надо жестко пресекать.
В том то и дело, что параметров нет. Речь об этом случае: когда только знак вопроса и все....
Нужно учитывать, что для в рекламных кампаний могут использоваться UTM метки, которые и состоят из GET параметров.
Подобные адреса должны работать без осложнений и не пересекаться с правилами редиректов.
Опять же выше резонно указали - случаев когда в адресах может появляться ?=что_угодно_ - может быть бесконечное множество. Вы будете вылавливать эти адреса и составлять новые правила редиректов? Это будет утомительный бесконечный процесс.
Проще и правильнее сообщить ПС не индексировать подобные адреса. И вопрос снимается.
Есть второй сайт мегаппопулярный ресурс. На этом сайте некто Вася размещает ссылку на обсуждаемый сайт и по доброте или умышленно забывает "?" . Получается site1.com/? . По этой ссылке пошел толпами народ.
Метрика ведь заметит эту ссылку?
Да.
Метрика будет считать дублем для реально существующей главной страницы "обсуждаемого сайта"?
Метрика не определяет дубли, дубли фиксируют поисковые анализаторы, а информация по дублям и по обходам поискового робота выводится в Я.Вебмастере.
Да даже из логики: нафига поднимать ядро, какое бы шустрое оно ни было, пробегаться по все правилам роутов?
Потому что сегодня ты ловишь одно, завтра вылезет еще что-то опять будешь правит нжинксы, роботсы?
Правильные роуты это фиксят и никак тут РПС не помешает
Потому что сегодня ты ловишь одно, завтра вылезет еще что-то опять будешь правит нжинксы, роботсы?
Потому что сегодня ты ловишь одно, завтра вылезет еще что-то опять будешь правит нжинксы, роботсы?
Правильные роуты это фиксят и никак тут РПС не помешает
Все по ситуации. В данном случае вполне конкретный случай.
RPS им не помешает, а вот наоборот вполне себе может. (хотя конечно всегда можно взять и еще один сервер воткнуть :) ) Понятно что если рассматривать отдельно - тут время ответа "ни о чем". Естественно я не сторонник захламлять конфиг nginx и апача. Но и все в код тащить не вижу смысла.