Индексирует закрытую инфу.

A
На сайте с 23.02.2012
Offline
10
749

В общем не пойму одну вещь. Закрыл ненужные страницы через robot.txt.

Ввел site:xxx.ru

Нашел страницы. Нажал результаты на "Показать скрытые результаты."

Нашел вот это:

Описание веб-страницы недоступно из-за ограничений в файле robots.txt.

И таких несколько.

Удалил страницы через вебмастера. На следующий день еще одна.

Что делать? Может я robot.txt криво настроил?

http://dikoobras.com/ (http://dikoobras.com/) Веб-студия. Создание сайтов
S3
На сайте с 18.04.2011
Offline
109
#1

пользуй это

<meta name="robots" content="noindex">
только доступ к странице в роботсе открой, а то бот метатег не считает
A
На сайте с 23.02.2012
Offline
10
#2

А по другому никак? Это вообще какой-то кривой файл, сгенерированный CMS

S3
На сайте с 18.04.2011
Offline
109
#3

роботс запрещает (у гугла) доступ к -\\- боту, а метатег, я уже написал выше, запрещает индексирование - тут читайте начало выделенное и далее со слов "обратите внимание"

iren K
На сайте с 28.12.2008
Offline
222
#4
aalebedev:
А по другому никак?

вот здесь еще почитайте, особенно обратите внимание на это:

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс.
c уважением Iren
G8
На сайте с 28.08.2012
Offline
44
#5

У меня та же ситуация. Сайт новый. Один месяц. Сначала google индексировал именно те страницы которые были запрещены в robots.txt. А потом остальные. И теперь продолжает индексировать запрещенные страницы. Не знаю что делать.

moneyboy
На сайте с 07.03.2012
Offline
43
#6

Господи, ну когда же вы все запомните, что ПС индексируют те страницы, которые считают нужными. И им пофиг на ваши файлы robots. Подобные "сопли" и дальше будут выползать в поиске. Успокойтесь уже и смиритесь с этим фактом. Дубли страниц можно только минимизировать. Полному исключению из выдачи это дело не подлежит. Единственное, если вы вместе с ними и целевые страницы запретите индексировать, но это дело уже идет в ущерб трафику.

Блог Антона Машнина (http://blog-mashnin.ru/)
[Удален]
#7
moneyboy:
Успокойтесь уже и смиритесь с этим фактом.

С чем мириться то? Что руки кривые? или что восстание машин началось с бездумно бродящих по нэту ботов, махающих рукой на robots.txt и идущих дальше по запрещенным маршрутам... Дорвейщики в ужасе!!!!

Forza!
На сайте с 22.09.2008
Offline
107
#8
iren K:
вот здесь еще почитайте

Объясните мне такую штуку, в данном мануале черным по белому написано:

Чтобы просмотреть список URL, которые Google не удалось просканировать, перейдите на страницу Заблокированные URL в разделе Состояние в Инструментах для веб-мастеров.

Сколько не искал, не нашел списка, только количество заблокированных url. Но в мануале написано список. Это напрягает больше всего, как и то, что такие страницы, как и у ТС держит в индексе годами.

aalebedev:
А по другому никак?

Тоже присоединяюсь, ТС четко указал, что это за страницы. Там прописать мета-теги не получится. Пока для меня единственный вариант - это каноникал линк, но такие страницы, как правило, пустые, а каноникал указывает главную, что не совсем верно. Какие еще есть варианты решения по исключению мусора из индекса?

fivefinger
На сайте с 27.01.2011
Offline
87
#9
aalebedev:
Удалил страницы через вебмастера. На следующий день еще одна.

не парьтесь - это нормально, в основном индексе их нет, у меня гугл также отреагировал на запреты в роботсе. Он их выплюнет, но чуть позже.

EvilMinds - пока другие делают вид, мы работаем на результат. (/ru/forum/936293)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий