Дубли страниц из-за параметров google

HJ
На сайте с 14.02.2006
Offline
274
1660

Речь про параметры типа ?sa=X&ved=0ahUKEwi6-uXIjcjPAhXG1xoKHcgzAkYQ9QEIHjAA, которые гугл добавляет к адресу сайта при редирректе со своей выдачи.

Яндекс все страницы с этими параметрами увидел каким-то образом. Соответственно, дубли. Он их загрузил, но они не в поиске. На таких дублях прописывается rel="canonical".

Насколько это вообще критично? Могло ли негативно повлиять на ранжирование?

Что лучше сделать? Запрет индексации через robots.txt? Или мудрить с редирректами?

S
На сайте с 13.06.2013
Offline
29
#1

Увидел через метрику (в счетчике надстройка стоит отправлять на индексацию страницы). По поводу гет-параметра не особо понятно. По вашим словам если пользователь перейдет с выдачи гугла то попадаете вместо страницы "/new/" на "/new/??sa=X&ved=0ahUKEwi6...".

HJ
На сайте с 14.02.2006
Offline
274
#3
slaret:
Увидел через метрику (в счетчике надстройка стоит отправлять на индексацию страницы). По поводу гет-параметра не особо понятно. По вашим словам если пользователь перейдет с выдачи гугла то попадаете вместо страницы "/new/" на "/new/??sa=X&ved=0ahUKEwi6...".

Если кликнуть по выдаче, то попадаем на /new/. Но если посмотреть на ссылку в выдаче, то видно, что редиррект идет на урл с параметрами.

---------- Добавлено 15.10.2016 в 00:29 ----------

В роботсе у гугла? Запрета нет.

В роботсе у меня на сайте - тоже не запрещено.

---------- Добавлено 15.10.2016 в 00:35 ----------

Проверил ответ сервера по ссылке гугла на мой сайт с параметрами - 200. Это как?

E
На сайте с 21.09.2009
Offline
283
#4
happy-joker:
Что лучше сделать? Запрет индексации через robots.txt? Или мудрить с редирректами?

запрет в роботс, надо было делать изначально. Если они в индексе то уже поздновато.

Если в индексе, то выгонять(открыв в роботс) метатегами ноиндекс. Выгнав, уже можно и в роботс закрыть от сканирования.

Такие дубли "размазывают" запрос по ним. гугл будет долго думать на какую страницу отдать запрос. Каноникал поможет, но лучше сделать как выше написал.

HJ
На сайте с 14.02.2006
Offline
274
#5

богоносец, а где вы взяли ссылку на вики такую? У меня, если набрать в гугле "совок" и копировать ссылку, то ответ по ней 200



---------- Добавлено 15.10.2016 в 00:50 ----------

easywind:
запрет в роботс, надо было делать изначально. Если они в индексе то уже поздновато.
Если в индексе, то выгонять(открыв в роботс) метатегами ноиндекс. Выгнав, уже можно и в роботс закрыть от сканирования.
Такие дубли "размазывают" запрос по ним. гугл будет долго думать на какую страницу отдать запрос. Каноникал поможет, но лучше сделать как выше написал.

В гугле проблем с ранжированием нет. А вот яндекс сожрал кучу таких дублей. Каноникал изначально был. Метод я понял, попробую, спасибо.

---------- Добавлено 15.10.2016 в 01:15 ----------

Я понимаю, что сам допустил подобную ситуацию. Надо было коды ответа сервера настраивать. У вики в подобном случае 400 отдает.

Но как яндекс увидел эти страницы? Они загружены, но не в поиске, как пишет яндекс вебмастер. Это сказывается негативно на ранжировании?

Если тегами прописать noindex, страницы из загруженных пропадут?

По таким урлам лучше 404 отдавать?

Если настроить ответ сервера на такие страниуы с параметрами, которые задает гкгл в своих редиректах, то это не скажется негатиано на ранжировании в гугле?

E
На сайте с 21.09.2009
Offline
283
#6
happy-joker:
По таким урлам лучше 404 отдавать?

и да, и нет. Время будет тратить на сканирование, с другой стороны поймет что нет их. Может и как клоакинг определить. Вам надо было изначально написать, под какую ПС делаете. Для яши достаточно закрыть в роботс.

богоносец
На сайте с 30.01.2007
Offline
774
#7
happy-joker:
ответ сервера по ссылке гугла на мой сайт с параметрами - 200.

(это у меня JS был отключен) Ищем в Гугле, в выдаче кривые ссылки,

ответ совсем не 200:

HTTP/1.1 302 Found
Location: https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%B2%D0%BE%D0%BA_(%D0%B7%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D1%8F)

А по вашей 200...

Откуда такие ссылки? Ну может кто из выдачи скопировал и где-то оставил. Не знаю, но что-то в индексе их не много. Но почему бы не 301 отвечать?

wolf
На сайте с 13.03.2001
Offline
1183
#8
happy-joker:
На таких дублях прописывается rel="canonical".

Насколько это вообще критично? Могло ли негативно повлиять на ранжирование?

Что лучше сделать? Запрет индексации через robots.txt? Или мудрить с редирректами?

rel=canonical вполне достаточно

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий