Кэширует ли страницы ПС, если в robots прописан disallow?

[Удален]
536

Ситуация следуяющая:

Есть несколько сайтов, закрытых от индексации полностью, в них прописано в robots.txt :

User-Agent: *

Disallow: /

User-Agent: Googlebot

Disallow: /

Сооветственно сайты в ПС вообще не появляется.

Сделал частичный дубль закрытого от индексации сайта, прогнал по соц закладкам. Сайт сперва быстро проиндексировался, гугл съел 30 страниц. Но потом резко выкинул их из индекса, оставив только 1 страницу. Потом в течение 2-х недель сайт немного стал расти, по 1 странице в 2-3 дня, пока не вырос до 6 страниц. И сейчас страницы опять выпали. Осталось 2 страницы.

Повторил эксперимент - таже хрень.

Повторил эксперимент без прогона по соц закладкам, лишь поставил ссылки с других проиндексированных ресурсов - не хочет индексировать, или индексирует очень вяло и выбрасывает страницы.

Собственно вопрос: может гугл и яндекс кэширует страницы, но т.к. в robots.txt прописан disallow он не выдает их в выдачу, но при проверке на уникальность контента, учитывает кэшированные страницы и поэтому выбрасывает не закрытый от индекса дубль?

Timichlm
На сайте с 02.03.2007
Offline
74
#1

Не знаю как яшка, но гугл ИМХО кэширует.

[Удален]
#2

Вот и у меня такое ощущение, что гугл кэширует их, потому что обычно на других проектах так выбрасывало страницы только тогда, когда контент был неуникальным.

Timichlm
На сайте с 02.03.2007
Offline
74
#3

Недавно заметил, что гугл так же иногда выдаёт страницы, закрытые в роботсе в списке проиндексированных, но без титулов и сниппетов, а просто одни урлы. Типо "чуваки, я знаю об этих страницах, просто в выдаче не показываю"))))

[Удален]
#4

Спасибо, видимо действительно дело в том, что кэширует.

Теперь вопрос остался с Яшей, как с ним дела обстоят?

Timichlm
На сайте с 02.03.2007
Offline
74
#5

хз, никогда не возникало подобных сомнений как с гуглей

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий