Как удалить дубль страницы из Google?

12 3
zaxavar
На сайте с 08.10.2012
Offline
166
731

Здравствуйте!

Каким-то образом в индекс гугл попал дубль страницы и основная страница резко просела в позициях.

Как быстро удалить дубль страницы из Google?

Спасибо.

ВМЕСТО или ВМЕСТЕ с ADSENE - ADSTERRA - https://publishers.adsterra.com/referral/wf8uqXSYuu Раcскажу, подскажу.
Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#1

через удаление урла

через канонинкал

через 301

( с переобходом страницы)

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Maks_seo_1992
На сайте с 14.11.2016
Offline
100
#2
xVOVAx:
через удаление урла
через канонинкал
через 301
( с переобходом страницы)

+ закрыть в роботс, тоже можно

Anamnado
На сайте с 08.02.2010
Offline
242
#3

если вы думаете что эта страница мешает нужной:

самый лучший вариант редирект 301 - чтобы она передала свой "мешающий вес" на нужную...

Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#4
Maks_seo_1992:
+ закрыть в роботс, тоже можно

ем у же быстро надо , если нет то можно еще и метатег ноиндекс поставить ))) а можно просто удалить страницу и ждать годами 404

Maks_seo_1992
На сайте с 14.11.2016
Offline
100
#5
xVOVAx:
ем у же быстро надо

А каноникал разве быстрей отработает чем ноиндекс или роботс? Просто что то даже не сравнивал

Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#6
Maks_seo_1992:
А каноникал разве быстрей отработает чем ноиндекс или роботс? Просто что то даже не сравнивал

сразу же при переобходе , через 2 минуты))

Maks_seo_1992
На сайте с 14.11.2016
Offline
100
#7
xVOVAx:
сразу же при переобходе , через 2 минуты))

Даже не задумывался про них, честно говоря, спасибо)

Витали_Ч
На сайте с 11.04.2009
Offline
132
#8
+ закрыть в роботс, тоже можно

Если закрыть в meta-robots - да, через переобход - да и выкинет.

Если добавить в robots.txt соответствующую директиву - то зачастую, Google просто перестает обходить УРЛ (ему-же запретили), а из индекса - не выкидывает )))

Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#9
Витали_Ч:
Если закрыть в meta-robots - да, через переобход - да и выкинет.
Если добавить в robots.txt соответствующую директиву - то зачастую, Google просто перестает обходить УРЛ (ему-же запретили), а из индекса - не выкидывает )))

именно по этому роботс тхт я не писал

zaxavar
На сайте с 08.10.2012
Offline
166
#10
xVOVAx:
сразу же при переобходе , через 2 минуты))

А почему вы так уверены, что переобход состоится через 2 минуты, а не через несколько дней?

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий