Удаление соплей из индекса Гугл

A
На сайте с 27.06.2014
Offline
45
1266

Испольовали фреймворк "симфони", но не закрыли его в роботсе. Получилось, что в индекс залетели дубликаты урлов со вставкой /app.dev.php/

Теперь уже закрыли это дело в роботсе.

Мы склеили 301-м редиректом дубликаты и сверху.

И тут меня мучает вопрос:

После склейки 301-м нужно ведь открыть обратно, чтобы робот просканировал, правильно ведь?

N
На сайте с 22.05.2014
Offline
2
#1

Страница выпала из индекса?

---------- Добавлено 15.08.2014 в 17:15 ----------

зайди в вебмастер в индекс ссылок найди ссылку там если она есть в индексе и пройди по ней будет понятно все

A
На сайте с 27.06.2014
Offline
45
#2
neeil:
Страница выпала из индекса?

---------- Добавлено 15.08.2014 в 17:15 ----------

зайди в вебмастер в индекс ссылок найди ссылку там если она есть в индексе и пройди по ней будет понятно все

Что будет понятно? Странице и те и те что мы скелели еще в индексе. Вот я и хочу узнать, когда вылетят с индекса дубли

A
На сайте с 27.06.2014
Offline
45
#3

Ну что, никто мне ничего не посоветует?

W
На сайте с 04.04.2006
Offline
276
#4

Посоветую. Вообще откройте в роботсе.

ТОП3 Яндекса за 1-2 дня - это реально. Без роботности.
M0
На сайте с 24.07.2009
Offline
192
#5

почему не удалить мешающие урлы в Гугл.Вебмастере?

S1
На сайте с 09.03.2013
Offline
11
#6

Да, нужно открыть страницы для индексации в robots.txt, иначе они будут висеть в соплях.

Чтобы ускорить процесс склейки можно:

- создать sitemap.xml со списком дублей

- отправить sitemap.xml и страницы дублей на принудительную индексацию в GWT

A
На сайте с 27.06.2014
Offline
45
#7
Mvk09:
почему не удалить мешающие урлы в Гугл.Вебмастере?

Удалял, туговато дело идет, очень медленно удаляются, а некоторые и вообще не удаляются. Кроме того, я читал в гугл справке, что удалять такмо бразом можно только конфиденциальную инфу, которая случайно попала в индекс.

---------- Добавлено 19.08.2014 в 12:22 ----------

sanek199010:
Да, нужно открыть страницы для индексации в robots.txt, иначе они будут висеть в соплях.
Чтобы ускорить процесс склейки можно:
- создать sitemap.xml со списком дублей
- отправить sitemap.xml и страницы дублей на принудительную индексацию в GWT

Та да, уже дубликаты все склеили, а они висят и повторяющиеся тайтлы в GWT только увеличиваются. Буду открывать.

За карту сайта, да, идея хорошая, но на данный момент нереализуемая по ряду причин.

А что если добавлять такие урлы в аддурилку? Это же своего рода ускоряет индексацию в принципе.

---------- Добавлено 19.08.2014 в 12:36 ----------

Или даже те все сопли прогнать по твиттеру, быстрее переиндексируется, я же думаю в правильном направлении??

A
На сайте с 27.06.2014
Offline
45
#8

В общем открыл я заблоченные в роботсе урлы с которых мы редирект поставили. Буду смотреть, правильно ли я предположил. Думаю а недельку-две будут результаты.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий