- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Итак ситуация: Яша сообщает о наличии дублей страниц. Например mysite.com и mysite.com/? т.е. знак вопроса - без параметров (откуда он вылезает, на нескольких проектах попросили разобраться, достоверно не знаю).
Если есть внешние обращения по указанные адресам, то в случае привязанной Метрики она будут передавать данные адреса для индексации.
Робот приходит по данным адресам, получает 200-е ответы от сервера и индексирует полученные документы (очевидно это будут дубли). Потом в большинстве случаев как дубли выбрасывает.
1. Добавлять тег cannonical. как я понимаю, он решает проблему но не полностью: этот грязный урл можно сохранить в закладки, зашарить в соцсетях. А так же, если я правильно понимаю, в метрике в статистике все равно это как отдельный URL
Корректный canonical в любом случае лучше выводить в мета информации, но это лишь рекомендация для Яндекса это не является руководствующим решением (Яндекс может занести в индекс страницу и вопреки данным canonical).
В этом случае для подобных адресов (и остальных с get параметрами) выводить:
<meta name="robots" content="follow, noindex" />
и дублируются страницы с адресацией ../*?* не будут индексироваться.
А отдельные get парамеtтры потом описать в robots.txt директивой Clean-param. Тогда Яндекс и не будет ходить по ненужным адресам.
2. robots.txt - так же избранное и ссылки. Как в этом случае с точки зрения метрики это в итоге выглядит, там только в индекс не включит, но увидит как отдельную страницу?
Нередко адреса вида /*?* запрещают в robots.txt, выше вам об этом уже подсказали.
3. Настроить редирект 301.
Не надо.
Все рабочие адреса с get параметрами, в частности utm метки, сортировки по признакам внутри сайта, которые используются адресацию с get параметрами должны корректно работать.
С точки зрения Chief Executive Officer лучше заниматься стратегическим развитием компании, управлением ресурсами и финансовыми показателями.
Cовершенно верное и уместное замечание.
Выпендрился, смотрите-ка на него.
А вот это систематическое хамство и повторяющиеся провокации от данного пользователя надо жестко пресекать.
В том то и дело, что параметров нет. Речь об этом случае: когда только знак вопроса и все....
Нужно учитывать, что для в рекламных кампаний могут использоваться UTM метки, которые и состоят из GET параметров.
Подобные адреса должны работать без осложнений и не пересекаться с правилами редиректов.
Опять же выше резонно указали - случаев когда в адресах может появляться ?=что_угодно_ - может быть бесконечное множество. Вы будете вылавливать эти адреса и составлять новые правила редиректов? Это будет утомительный бесконечный процесс.
Проще и правильнее сообщить ПС не индексировать подобные адреса. И вопрос снимается.
Есть второй сайт мегаппопулярный ресурс. На этом сайте некто Вася размещает ссылку на обсуждаемый сайт и по доброте или умышленно забывает "?" . Получается site1.com/? . По этой ссылке пошел толпами народ.
Метрика ведь заметит эту ссылку?
Да.
Метрика будет считать дублем для реально существующей главной страницы "обсуждаемого сайта"?
Метрика не определяет дубли, дубли фиксируют поисковые анализаторы, а информация по дублям и по обходам поискового робота выводится в Я.Вебмастере.
Да даже из логики: нафига поднимать ядро, какое бы шустрое оно ни было, пробегаться по все правилам роутов?
Потому что сегодня ты ловишь одно, завтра вылезет еще что-то опять будешь правит нжинксы, роботсы?
Правильные роуты это фиксят и никак тут РПС не помешает
Потому что сегодня ты ловишь одно, завтра вылезет еще что-то опять будешь правит нжинксы, роботсы?
Потому что сегодня ты ловишь одно, завтра вылезет еще что-то опять будешь правит нжинксы, роботсы?
Правильные роуты это фиксят и никак тут РПС не помешает
Все по ситуации. В данном случае вполне конкретный случай.
RPS им не помешает, а вот наоборот вполне себе может. (хотя конечно всегда можно взять и еще один сервер воткнуть :) ) Понятно что если рассматривать отдельно - тут время ответа "ни о чем". Естественно я не сторонник захламлять конфиг nginx и апача. Но и все в код тащить не вижу смысла.
Единственное верное и полное решение это 301 редирект на уровне веб-сервера (Nginx/Apache). Он решает сразу все проблемы:
- склеивает ссылочный вес для поисковиков
- исправляет URL для пользователя, который сохранит его в закладки
- нормализует адреса для систем аналитики
Canonical это лишь рекомендация для поисковика, а robots.txt вообще не для этого
Canonical это лишь рекомендация для поисковика
склеивает ссылочный вес для поисковиков
Единственное верное и полное решение это 301 редирект на уровне веб-сервера (Nginx/Apache). Он решает сразу все проблемы:
Вы не встречались со случаями когда в Вебмастере появляются адреса вида ../*?=несуществующие_адреса ?
Даже на форуме обсуждались эти темы и на моей памяти раза три. Иногда их даже намеренно генерируют, чтобы спровоцировать дубли и тем самым навредить индексу сайта через дублирование.
Так что насчёт полного решения я бы оспорил.
- склеивает ссылочный вес для поисковиков
Этот вес как правило "ошибочный". Если мы говорим о каких-то рабочих случаях, когда этот передаваемый вес важен, то в данном случае SEO специалист должен связаться с администратором донорского сайта и попросить исправить ссылку (когда это возможно).
- исправляет URL для пользователя, который сохранит его в закладки
Это скорее как следствие неправильно установленной ссылки.
Живой пользователь и не должен попадать на сайт по ошибочным адресам (это я к тому, что по легитимным источникам такие адреса надо исправлять).
- нормализует адреса для систем аналитики
C точки зрения аналитики это просто ошибочный адрес, но формально я с вами согласен.
Canonical это лишь рекомендация для поисковика, а robots.txt вообще не для этого
Но вы забыли про meta robots который одинаково корректно работает и в Яндексе, и в Гугле.
Какая цель правильная. Т.е. это ведь по факту одна и та же страница
Для человека. Но для ботов это разные урлы, которые им приходится запрашивать / индексить при ответе 200 ... расходовать на дубли свой драгоценный траф.
Правильная цель - отдавать боту только единственный урл / экономить его ресурсы... и каноникал эту проблему не решит.
почитай уже внимательно вопрос!
1 Речь о ссылка размещенных на других сайта
Вопрос всеми прочитан / сочтён слишком узколобым / не решающим всего вороха проблем движка.
Можно поставить сцылку с матом после ?
для полных дублей она работает
Ну добавится на / новость, бот зайдёт на дубль ... и не сочтёт дублем. Так его слобали.
бот зайдёт на дубль ... и не сочтёт дублем.