Как убрать с индекса ненужные страницы?

SU
На сайте с 09.02.2008
Offline
93
1118

В общем ситуация в следующем, где то полгода назад, вместо карточек(сайт доска объявлений) в индекс полезли все редиректные ссылки на сайты указанные в объявлениях.

И в придачу в выдаче к этой ссылке подтягивает тайтлы сайта на который идет ссылка.

проверил роботс заметил, что нет запрета на индексацию этих ссылок(потому как до этого менял сам шаблон этих ссылок) - добавил запрет, проверил в вебмастерс все работает.

Но вот с индекса до сих пор страницы не ушли.

Как это исправить?

callidus
На сайте с 18.07.2011
Offline
334
#1

еще немного подождать, если конечно правильно все в robots закрыли :)

Надоело самостоятельно собирать семантическое ядро ( http://goo.gl/rekQL9 )? Отдай на аутсорс.
SU
На сайте с 09.02.2008
Offline
93
#2
callidus:
еще немного подождать, если конечно правильно все в robots закрыли :)

закрыл точно правильно - проверил в вебмастерсе. Просто времени уже не мало прошло, а вот реакции пока никакой...

MW
На сайте с 28.05.2010
Offline
136
#3

Webmaster Google - нужный вам сайт - пункт меню - Индекс Google - удалить URL-адреса, удаляет обычно в течение нескольких дней.

SU
На сайте с 09.02.2008
Offline
93
#4
MxWhite:
Webmaster Google - нужный вам сайт - пункт меню - Индекс Google - удалить URL-адреса, удаляет обычно в течение нескольких дней.

запрос постранично нужно добавлять, а у меня их не мало (

MW
На сайте с 28.05.2010
Offline
136
#5

Можно указать как категорию /категория* - удалит все страницы категории, вроде как-то удалял именно таким способом, т.е. по определенной маске что ли, давно было( или /категория/* - точно не помню.

OsirisUA
На сайте с 24.05.2013
Offline
33
#6

Гугл не сразу удаляет с индекса, но удаляет. Попробуйте заново дать на пересмотр роботс.тхт. У меня была страница выпала с индекса, после изменил роботс.тхт, дал на пересмотр. Ждал неделю, вернулась. Все еще зависит от ресурса, думаю, что популярные он быстрее обходит

Проводим водолазные работы (http://diving-ms.com.ua/ru/articles/100-diving-operations) в Украине
OsirisUA
На сайте с 24.05.2013
Offline
33
#7

Чтобы не создавать темы левые, подскажите, пжл.

Заблокировал в роботс.тхт ссылку типу:

\article\odin-dwa-

а теперь гугл заблокировал ссылку \article\odin-dwa-tri-chet

Описание недоступно, причина в роботс.тхт.

Почему заблокирована ссылка, которую не запрещял. причина в частичном совпадении адреса? Но не использовал *.

C
На сайте с 05.12.2014
Offline
27
#8

Вы попробуйте canonical прописать еще. Думаю ,что поможет.

vanred79
На сайте с 12.01.2013
Offline
42
#9
SergUA:
В общем ситуация в следующем, где то полгода назад, вместо карточек(сайт доска объявлений) в индекс полезли все редиректные ссылки на сайты указанные в объявлениях.
И в придачу в выдаче к этой ссылке подтягивает тайтлы сайта на который идет ссылка.

проверил роботс заметил, что нет запрета на индексацию этих ссылок(потому как до этого менял сам шаблон этих ссылок) - добавил запрет, проверил в вебмастерс все работает.

Но вот с индекса до сих пор страницы не ушли.

Как это исправить?

Через метатеги попробуйте закрыть ссылки и тайтлы http://google.utk.edu/ut-help/googleongoogleoff/. На моем сайте это работает.

Большой выбор квартир в Алматы посуточно найдете на нашем сайте (https://nedvizhimostpro.kz/page/47)
Forza!
На сайте с 22.09.2008
Offline
107
#10
SergUA:
проверил роботс заметил, что нет запрета на индексацию этих ссылок(потому как до этого менял сам шаблон этих ссылок) - добавил запрет, проверил в вебмастерс все работает.

Сколько уже было таких тем. Файл robots.txt запрещает сканирование, а не индексирование. Если все так, как написано, то они возможно никогда и не уйдут из индекса, т.к. они в индексе, а робот уже просто их не видит, ему запрещено. Тут 2 варианта:

1) Оставить запрет в robots.txt и в WMT вручную сделать запрос на удаление. За сутки должно все почистить.

2) Убрать запрет в файле, и прописать теги noindex.

OsirisUA:
Заблокировал в роботс.тхт ссылку типу:
\article\odin-dwa-

По умолчанию директива Disallow: /page равнозначна директиве Disallow: /page*, поэтому нужно как-то думать в сторону allow. Не помню, кстати, Google воспринимает в роботсе $ как окончание строки?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий