Срочный вопрос, как выкинуть поддомен из индекса?

P
На сайте с 06.01.2009
Offline
592
658

Привет. Подскажите, пожалуйста, товарищ интересуется, а я не знаю.

Есть site.ru

Он обнаружил что каким то боком поддомен tratata.site.ru вошел в индекс, полностью продублировав сайт. Само собой сайт качнуло, и не хило, в 200е позиции. Как то можно закрыть индексацию любых поддоменов сайта?

Спасибо

зы говорит никаких поддоменов не создавал. что за фигня не понятно.

Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#1

ну как бы как всегда - тег ноиндекс , в гугле удаление

потом роботс еще есть и канонинкал

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
P
На сайте с 06.01.2009
Offline
592
#2
xVOVAx:
ну как бы как всегда - тег ноиндекс ,

документа нет куда его впиливать.

xVOVAx:
в гугле удаление

ясно, потом опять вернется... надо что то иное.

xVOVAx:
потом роботс еще есть

понятно. это рекомендация, может и не сработать. но скажу чтобы там прописал.

xVOVAx:
и канонинкал

аналогично. это рекомендация, может и не сработать. но скажу чтобы там прописал.

не очень понятно от куда поддомен взялся, и как его выпилить по шустрому. Куча дублей в индексе )

---------- Добавлено 23.10.2019 в 10:34 ----------

Единственное могу добавить, вот он прислал - появились какие то новые записи в htaсcess (раньше говорит их не было), это что такое кто знает? Спасибо


RewriteCond %{REQUEST_URI} !^/[0-9]+\..+\.cpaneldcv$
RewriteCond %{REQUEST_URI} !^/[A-F0-9]{32}\.txt(?:\ Comodo\ DCV)?$
RewriteCond %{REQUEST_URI} !^/\.well-known/acme-challenge/[0-9a-zA-Z_-]+$
RewriteCond %{REQUEST_URI} !^/\.well-known/cpanel-dcv/[0-9a-zA-Z_-]+$
RewriteCond %{REQUEST_URI} !^/\.well-known/pki-validation/(?:\ Ballot169)?
RewriteCond %{REQUEST_URI} !^/\.well-known/pki-validation/[A-F0-9]{32}\.txt(?:\ Comodo\ DCV)?$
Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#3
postavkin:
ясно, потом опять вернется... надо что то иное.

откуда такая глупая инфа ? )))

---------- Добавлено 23.10.2019 в 10:41 ----------

postavkin:
понятно. это рекомендация, может и не сработать. но скажу чтобы там прописал.

все работает )))

---------- Добавлено 23.10.2019 в 10:41 ----------

postavkin:
аналогично. это рекомендация, может и не сработать. но скажу чтобы там прописал.

я если честно иногда сильно удивляюсь как вы вообще с сайтами дела делаете , ну не ваше это явно

P
На сайте с 06.01.2009
Offline
592
#4
xVOVAx:
я если честно иногда сильно удивляюсь как вы вообще с сайтами дела делаете , ну не ваше это явно

Вы на дороги посмотрите, кто там ездит.... ну а так вы конечно правы - сайты, это не мое.

---------- Добавлено 23.10.2019 в 12:31 ----------

А по существу, Владимир, Вы видимо не получали страницы пагинации в индексе, при том что явным образом указана каноникал.

P
На сайте с 06.01.2009
Offline
592
#5

Ребят. Ну подскажите, плз, как можно быстро выкинуть поддомен из индекса?

По одному урл можно, но может быть есть способ не забивать 100500 урлов поочереди (уходят из базы в течение суток), а как то сразу весь подомен? Спасибо

Vladimir SEO
На сайте с 19.10.2011
Offline
1708
#6
postavkin:
Ребят. Ну подскажите, плз, как можно быстро выкинуть поддомен из индекса?
По одному урл можно, но может быть есть способ не забивать 100500 урлов поочереди (уходят из базы в течение суток), а как то сразу весь подомен? Спасибо

про гугл уже сказали. - а в яндексе по одному урлу и роботс на переобход, но быстро не получится

P
На сайте с 06.01.2009
Offline
592
#7

Спасибо. В гугл этот шлак не вошел, а вот в яндексе есть. Ясно.

Месяца 2-3 предполагаемые сроки, да ведь?

W
На сайте с 14.11.2019
Offline
0
#8
xVOVAx:
откуда такая глупая инфа ? )))

Наверное эта "глупая инфа" отсюда: https://support.google.com/webmasters/answer/1663419?hl=en

A successful request lasts only about 90 days

robots.txt тоже мимо*– если Вы поставите там disallow, то гугл просто не будет заново парсить эти страницы, но в индексе они останутся. Более того, самое обидное будет когда человек добавит 301 редирект, а гугл этого не увидит потому что запись disallow в robots.txt мешает ему скачать страницу. Я пишу из опыта – похожая проблема была, только не с subdomain, а со слешер в конце ссылок.

Как мне кажется самый лучший алгоритм действий такой:

1) Проверить чтобы все ссылки на сайте были правильными и вели на нужные страницы

2) Сделать чтобы все ссылки с subdomain делали 301 редирект на site.ru (я почти уверен что это можно сделать в .htaccess)

3) Перепишите свой sitemap.xml и вставьте в него только ссылки с tratata.site.ru которые гугл проиндексировал. Он тогда быстрее по ним пройдется и увидит 301 редиректы.

Подождите пару недель. После этого заходите в search console и смотрите в ручном режиме какие старые ссылки остались в индексе. Их уже должно будет быть не очень много. Начинайте вручную просить гугл переиндексировать их.

Когда закончите весь процесс – не забудьте вернуть sitemap.xml в правильный вид :)

Витали_Ч
На сайте с 11.04.2009
Offline
132
#9
3) Перепишите свой sitemap.xml

Фуфуфу ломать основной сайтмэп. Можно наклепать отдельный sitemap_sub.xml и скормить ПС через GSC.

А ещё лучше - всё страницы субдомена - 301 редирект на основной, а sitemap поддомена - просто не трогать и пустить в переобход.

W
На сайте с 14.11.2019
Offline
0
#10
xVOVAx:
откуда такая глупая инфа ? )))

---------- Добавлено 23.10.2019 в 10:41 ----------


все работает )))

---------- Добавлено 23.10.2019 в 10:41 ----------


я если честно иногда сильно удивляюсь как вы вообще с сайтами дела делаете , ну не ваше это явно
Витали_Ч:
Фуфуфу ломать основной сайтмэп. Можно наклепать отдельный sitemap_sub.xml и скормить ПС через GSC.
А ещё лучше - всё страницы субдомена - 301 редирект на основной, а sitemap поддомена - просто не трогать и пустить в переобход.

Да, согласен, метод спорный :) Но в некоторых случаях допустим:

1) Страницы из старой сайтмапы уже наверняка все в индексе. Так что их временное исключение не приведет к колоссальным потерям

2) Когда гугл решит пройтись по страницам из сайтмапа – если там 100% страниц по которым мы хотим чтобы он увидел редирект, то он будет подхватывать ридирект на каждом просмотре страницы из сайтмапа. Если же в нашей сайтмапе 50% нормальных страниц и 50% с 301 редиректом – частота попадания гугла на страницу с редиректом будет меньше)

Возможно моя логика на счет пункта 2 неверная. Но я так когда-то делал и не увидел никакой катастрофы – все старые страницы и так остались в индексе, поэтому мне кажется что как временная мера она допустима.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий