Бермудский триугольник в выдаче

M
На сайте с 18.05.2014
Offline
24
998

Приветствую. Наблюдаю мистику, прошу совета:

1. Добавляю страницы в индекс, через инструмент "Посмотреть как гуглбот".

2. Она моментально добавляется в индекс. Копирую ее URL - вставляю в поиск - находит страницу.

3. В выдаче мета тег дескрипшн - обновленный, но заголовок (title) старый.

4. в robots.txt закрыл от индексирования все url, в которых есть знак вопроса "?"

5. Ввожу команду в поиске - site:mysite.com

6. Находит 6 страниц результатов.

7. Жму на 4 - и 6 страниц пропадает, остается только 3, бросает меня на третью.

8. В поиске есть страницы со знаком вопроса, хотя я запретил. Но зато в их дескрипшене пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."

8. Клацаю на каждую страницу в выдаче - дубли и 404 ошибки - вручную закрываю их url в robots.txt

9. Прошу удалить их через гугл вебмастер. Гугл одобряет удаление, пишет статус "ожидание", следующий день - "удалено".

Но в индексе они все равно висят. Что я делаю не так?

Игорь Родной
На сайте с 05.07.2008
Offline
369
#1
milkikilki:
Что я делаю не так?

Сильно заморачиваетесь. :)

milkikilki:
Но в индексе они все равно висят

В основной или дополнительной выдаче?

Комплексный маркетинг в буржунете (http://burzhu.net/showthread.php?t=39)
K
На сайте с 22.08.2012
Offline
44
#2
milkikilki:
Но в индексе они все равно висят. Что я делаю не так?

и будут висеть возможно. тут правильно подметили, что не заморачивайтесь настолько сильно. роботс - рекомендательный файл и ПС может игнорировать директивы из него. что конкретно за страницы удаляете? стоят ли на них линки? идет ли трафик?

M
На сайте с 18.05.2014
Offline
24
#3
kinoukraine:
и будут висеть возможно. тут правильно подметили, что не заморачивайтесь настолько сильно. роботс - рекомендательный файл и ПС может игнорировать директивы из него. что конкретно за страницы удаляете? стоят ли на них линки? идет ли трафик?

Например ссылка, которая меняет валюту: <a href="/?currency_id=1">доллары</a>

Гугл ее хавает, и создает в выдаче страницу с тайтлом "доллары". Я от индекса ее закрыл - а она все равно есть в основной выдаче. Линки на нее не стоят.

E
На сайте с 21.09.2009
Offline
283
#4
milkikilki:
Я от индекса ее закрыл - а она все равно есть в основной выдаче.

Вы ее только от сканирования закрыли. Если она раньше была в индексе, то там и останется. Используйте метатег ноиндекс для удаления из индекса. Или "удаление урл".

K
На сайте с 22.08.2012
Offline
44
#5

если страниц немного удалите их в GWT через пункт в "индексе" - "удалить урл", но не факт, что гугл не "сьест" при повторной заходе на сайт их. Попробуйте, как описали выше проставить ноиндекс.

AM
На сайте с 13.03.2013
Offline
20
#6

Что бы удалить стр из индекса сначала нужно убрать запрет ее сканированияя из роботс. А так она будет висеть вечно.

Mik Foxi
На сайте с 02.03.2011
Offline
1215
#7

На запрет в роботсе ему пофиг, в индексе будет с "описание заблокировано в роботсе бла бла".

Вместо 404 можно отдавать "доступ запрещен, вариант тупой но работает.

Самый красивый вариант - дубли скрывать через мета рел каноникал.

Антибот, антиспам, веб фаервол, защита от накрутки поведенческих: https://antibot.cloud/ (Зеркало: https://антибот.рф/ ) Форум на замену серчу: https://foxi.biz/

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий