Не удаляет страницы из индекса запрещенные в robots

123 4
G2
На сайте с 31.10.2012
Offline
1
2321

Приветствую!

Поменял ссылки на сайте, привел их к ЧПУ виду. На тот момент практически все страницы были в индексе. После того, как сделал ЧПУ ссылки, старые запретил к индексации в robots. И вот уже месяц Гугл никак не выбросит из индексации старые страницы. Сейчас они все выдают 404 ошибку. Бот на сайт приходит, новые страницы индексирует.

Как долго можно прождать, пока выкинет из индекса?

Я уже подумываю, может в robots снять запрет, чтобы быстрее понял, что страницы не существуют и так быстрее удалит из индекса?

Подскажите, продолжать ждать или что-то делать?

Интересует гэблинговый контент...
Vladimir SEO
На сайте с 19.10.2011
Offline
1981
#1

кто вам сказал такое делать вообще? про 301 не слышали??

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
G2
На сайте с 31.10.2012
Offline
1
#2

Много нехорошего про 301 редирект на главную пишут.

Vladimir SEO
На сайте с 19.10.2011
Offline
1981
#3

при чем тут на главную???? надо старые на новые редиректом делать

G2
На сайте с 31.10.2012
Offline
1
#4
надо старые на новые редиректом делать

Их в районе 500 штук.

Так Гугл их сам удалит удалит когда-нибудь?

DE6
На сайте с 06.10.2011
Offline
22
DE6
#5

Да хоть миллион человек тебе говорит старые на новые ))) и все тут)) со всех старых редирект на новые

301 Редирект динамических страниц

При модернизации динамического сайта и создании ЧПУ-адресов часто возникает необходимость перенаправить старые страницы с параметрами ID на новые с ЧПУ. Например, чтобы переадресовать страницу вида http://site.com.ua/page.php?id=13 на новую страницу http://site.com.ua/newname.html, используется следующая конструкция:

RewriteCond %{QUERY_STRING} ^id=13$

RewriteRule ^/page.php$ http://site.com.ua/newname.html [L,R=301]

Денис Лунгул
На сайте с 08.07.2009
Offline
82
#6

Похожая ситуация, нужно удалить из индекса страницы профилей. Прописал в robots.txt сайт уже просканировал, а те страницы оставил(. Сейчас попробую удалить их из Гугл Вебмастер.

E
На сайте с 21.09.2009
Offline
283
#7
Go2Berlin:
старые запретил к индексации в robots

Кто Вам сказал, что роботс запрешает индексацию? Он запрещает сканирование, а индексацию у гугла запрещает тег noindex.

G2
На сайте с 31.10.2012
Offline
1
#8

Так какие должны быть правильные действия, чтобы быть уверенным, что Гугл таки выведет эти адреса из индекса? Напомню, сейчас все эти адреса выдают 404 ошибку и закрыты от скана в роботе.

E
На сайте с 21.09.2009
Offline
283
#9

Go2Berlin, самое лучшее действие Вам подсказал xVOVAx у Вас всего 500 страниц :) Самое наверно простое открыть в роботс бот увидит 404 удалит из индекса и после переиндексации новых пойдет выдача.

DE6
На сайте с 06.10.2011
Offline
22
DE6
#10
easywind:
Кто Вам сказал, что роботс запрешает индексацию? Он запрещает сканирование, а индексацию у гугла запрещает тег noindex.

И даже тег noindex не всегда спасает , гугл может проигнорировать его и загнать в индекс то что не нужно , редко конечно бывает но бывает....

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий