Максимально быстро удалить страницы с индекса Google

12
Дмитрий
На сайте с 02.04.2020
Offline
50
529

Проблема

По ошибке - в Sitemap.xml попало большое количество страниц (к примеру посадки - "услуга" в Воронеже, " услуга" в Самаре)

Добавили noindex, nofollow  на данные страницы + убрали их  Sitemap.xml. Но Google успел проиндексировать около 7000 страниц (+ 15000 страниц отображается в обнаружено, но не проиндексировано)



Задача - поспособствовать ускоренной деиндексации этих 7000 страниц в Google.

Есть какие-либо варианты? (к примеру выгрузить эти 7000 страниц и добавить в sitemap.xml, чтобы робот быстрее их переобошел. По моему Мюллер об этом говорил как-то)

BrickLayer
На сайте с 13.06.2020
Offline
93
#1
Dmitruy :

Проблема

По ошибке - в Sitemap.xml попало большое количество страниц (к примеру посадки - "услуга" в Воронеже, " услуга" в Самаре)

Добавили noindex, nofollow  на данные страницы + убрали их  Sitemap.xml. Но Google успел проиндексировать около 7000 страниц (+ 15000 страниц отображается в обнаружено, но не проиндексировано)

Задача - поспособствовать ускоренной деиндексации этих 7000 страниц в Google.

Есть какие-либо варианты? (к примеру выгрузить эти 7000 страниц и добавить в sitemap.xml, чтобы робот быстрее их переобошел. По моему Мюллер об этом говорил как-то)

Мюллер - дебил и старый маразматик.
А ускоренной деиндексации не существует.

P.S. Без шуток и сарказма

Дмитрий
На сайте с 02.04.2020
Offline
50
#2
BrickLayer #:

Мюллер - дебил и старый маразматик.
А ускоренной деиндексации не существует.

P.S. Без шуток и сарказма

Понял

Vladimir SEO
На сайте с 19.10.2011
Online
1702
#3
Dmitruy :

Проблема

По ошибке - в Sitemap.xml попало большое количество страниц (к примеру посадки - "услуга" в Воронеже, " услуга" в Самаре)

Добавили noindex, nofollow  на данные страницы + убрали их  Sitemap.xml. Но Google успел проиндексировать около 7000 страниц (+ 15000 страниц отображается в обнаружено, но не проиндексировано)



Задача - поспособствовать ускоренной деиндексации этих 7000 страниц в Google.

Есть какие-либо варианты? (к примеру выгрузить эти 7000 страниц и добавить в sitemap.xml, чтобы робот быстрее их переобошел. По моему Мюллер об этом говорил как-то)

есть удаление страниц из индекса в консоли, там же и каталоги и папки
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
L
На сайте с 10.02.2015
Offline
220
#4

У меня попали в индекс страницы с мусором в адресе
Запретил через robots, и прописал canonical
В выдаче встречаются чуть чаще чем никогда

Vladimir SEO
На сайте с 19.10.2011
Online
1702
#5
livetv #:
Запретил через robots, и прописал canonical

можно еще ноиндекс поставить и дать 404 ответ ))

если запрещаете сканирование - то все что внутри уже по барабану и каноникалы бесполезны , открывать надо

C
На сайте с 04.02.2005
Offline
277
#6
livetv #:

У меня попали в индекс страницы с мусором в адресе
Запретил через robots, и прописал canonical
В выдаче встречаются чуть чаще чем никогда

И как теперь бот узнает что страницы нет(запрещена для индекса) если вы ему запретили)

можно послать сигнал на удаление через google ondexing api или из консоли

Дмитрий
На сайте с 02.04.2020
Offline
50
#7
Vladimir SEO #:
есть удаление страниц из индекса в консоли, там же и каталоги и папки

В Урле не к чему зацепиться, к сожалению


И что вы имеете ввиду?  Это -  "Параметры URL"


Дмитрий
На сайте с 02.04.2020
Offline
50
#8
Vladimir SEO #:

можно еще ноиндекс поставить и дать 404 ответ ))

если запрещаете сканирование - то все что внутри уже по барабану и каноникалы бесполезны , открывать надо

Да, конкретно в моем случае - проблема в сканировании. Точнее в том, что, когда прописали noindex + убрали с сайтмапа - приоритет на сканирование данных страниц значительно упал; стал минимальным. И сколь ждать пока робот ее переобойдет - неизвестно. Тем более это не 7 страниц, а 7000

И если их подсунуть в карте сайта xml гуглу - какой негативный эффект может быть. По факту мы же просто ускоряем процесс (даем пул страниц - которые мы хотим убрать с индекса).  Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.

Или я ошибаюсь? Или как?)

_
На сайте с 20.01.2014
Offline
105
#9
Dmitruy #:

Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.

Или я ошибаюсь? Или как?)

Что самое смешное, сейчас гугл очень хреново индексирует.

Мы в роботс запрещаем - там вообще по-барабану, гугл игнорирует и индексирует дальше.

Выделите бюджет какой-то для студента, дайте 7к урл и пускай добавляет поштучно в консоле на удаление (чтобы перестраховаться). На 2 дня работы или даже на один.

Vladimir SEO
На сайте с 19.10.2011
Online
1702
#10
Dmitruy #:

В Урле не к чему зацепиться, к сожалению


И что вы имеете ввиду?  Это -  "Параметры URL"


нет именно удаление - но не урла а папки ( папок )

Dmitruy #:

Да, конкретно в моем случае - проблема в сканировании. Точнее в том, что, когда прописали noindex + убрали с сайтмапа - приоритет на сканирование данных страниц значительно упал; стал минимальным. И сколь ждать пока робот ее переобойдет - неизвестно. Тем более это не 7 страниц, а 7000

И если их подсунуть в карте сайта xml гуглу - какой негативный эффект может быть. По факту мы же просто ускоряем процесс (даем пул страниц - которые мы хотим убрать с индекса).  Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.

Или я ошибаюсь? Или как?)

это был сарказм на связку роботс + канон


Но если надо переобход - то убирать из карты - не верное решение


а вообще есть гугл апи - 7000 это неделя две

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий