Задолбался удалять из индекса гугла закрытые в robots страницы

123 4
terrell
На сайте с 19.09.2008
Offline
76
3910

Смысл в том, что гугл их вносит в индекс, я их сношу через инструменты для вебмастеров, но эта фигня действует всего 90 дней, в итоге срок проходит и они опять в индекс попадают. Роботсом они закрыты и тег закрывающий индексацию стоит. Есть ли способ удалить, чтобы они не на 90 дней, а совсем удалились. С яшей подобной проблемы нет, все ОК, а вот гуля аже задолбал в этом плане...

Таггу x_x
На сайте с 31.10.2005
Offline
445
#1

terrell, пропиши в меты. Убери ссылки. Отдавай 404.

☠️☠️☠️
terrell
На сайте с 19.09.2008
Offline
76
#2

Ну в метах там давно прописано <meta name="robots" content="noindex">, не помогает, все равно индексит через 90 дней... Единственное может попробовать вариант оставить меты, а в роботсе открыть при этом?

Garik666
На сайте с 20.09.2008
Offline
66
#3

покажи как ты их в robots закрываешь???

Уверен что правильно???

)
A
На сайте с 07.06.2009
Offline
63
#4

+1 - неверно что то прописано в роботах.

Создание сайтов ПГТ (https://ufosites.ru)
terrell
На сайте с 19.09.2008
Offline
76
#5

Garik666, Ну чекалкой от яши проверяю - показывает, что страницы запрещены к индексации, ну и с яшей проблем не возникает таких, т.е. проблема исключительно только с гуглом... Поэтому думаю, что в роботсе все же правильно закрыл...

E
На сайте с 17.03.2011
Offline
13
#6

Яндекс поддерживает расширенный синтаксис роботс.тхт, про гугл не уверена.

В гугл вебмастер тоже есть проверка закрытости в роботс. Проверьте ей.

Конфигурация сайта - доступ для сканера.

Напишите пример закрытия страниц в роботс.

Zyukoff
На сайте с 26.11.2010
Offline
33
#7

так покажите robots, станет яснее. Может у вас запрет к индексации общий, а попробуйте непосредственно для гугла закрыть

Nick Sneer
На сайте с 06.11.2007
Offline
33
#8

Ставим Google Webmaster Tools -> Diagnostics -> Fetch as GoogleBot

Проверяем нужный "закрытый урл". Если показывается, правим robots.txt. Если закрыт правильно, оно говорит "Denied by robots.txt"

I like to movе it)
StaroverovMax
На сайте с 31.05.2006
Offline
174
#9
terrell:
Garik666, Ну чекалкой от яши проверяю - показывает, что страницы запрещены к индексации, ну и с яшей проблем не возникает таких, т.е. проблема исключительно только с гуглом... Поэтому думаю, что в роботсе все же правильно закрыл...

Есть такая проблема, у гугла периодически выдаёт страницы закрытые в роботс, потом пачками их выкидывает (с периодичностью 2-3 месяца).

Дело доходило даже до платных закрытых архивов, которые можно было открыть бесплатно в гугле))) (там ещё и админ часть, но гугле не помеха))

Сила есть - ума еще больше надо.. Фитнес, бодибилдинг (http://sportmashina.com), а форум - закачаешься! (http://forum.sportmashina.com/index.php)
dma84
На сайте с 21.04.2009
Offline
168
#10
terrell:
Garik666, Ну чекалкой от яши проверяю - показывает, что страницы запрещены к индексации, ну и с яшей проблем не возникает таких, т.е. проблема исключительно только с гуглом... Поэтому думаю, что в роботсе все же правильно закрыл...

Возможно правила в robots.txt только Яндекса

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий