Почему гугл индексирует закрытые страницы

123
r27
На сайте с 11.06.2012
Offline
105
r27
#11
Raensul:
но это кажись к текущей теме не относится

Хотел сказать, что сейчас, возможно google пересмотрел свое отношение к роботс и уже не индексирует все подряд, как раньше.

Никого не консультирую и ничего не оптимизирую.
R
На сайте с 03.05.2013
Offline
26
#12
r27:
Хотел сказать, что сейчас, возможно google пересмотрел свое отношение к роботс и уже не индексирует все подряд, как раньше.

ну есть мнение от уважаемого мною человека, облеченного познаниями, что гугл индексирует все, что ему хочется, не смотря на наши роботс и ноиндекс. просто он при выдаче их учитывает. т.е. если в роботс есть запрет, то и страницы в выдаче не будет, хотя в базе гугла эта страница будет вечно

A
На сайте с 25.10.2014
Offline
99
#13
т.е. если уж так случилось, то нужно поставить ноиндекс а в роботсе открыть доступ к таким страницам?

Да, если хочется, чтобы такие страницы ушли из индекса.

Хотел сказать, что сейчас, возможно google пересмотрел свое отношение к роботс и уже не индексирует все подряд, как раньше.

Google работает с robots.txt точно так же, как и 3 года назад.

Недавно google у одного сайта не правильно показывал адаптивную версию. Оказалось, что css и скрипты были закрыты в robots. И выдавал ошибку, что googlebot не может получить доступ к таким то ресурсам. После их открытия в роботсе, все стало нормально.

Это естественно. Краулер не смог прочитать стили и поэтому не обновлял информацию о сайте. Открыть всё, иначе кукиш.

Есть хорошая статья о генерации плохих и хороших ссылок.

ну есть мнение от уважаемого мною человека, облеченного познаниями, что гугл индексирует все...

Уважаемые люди из компании написали достаточно документации, просто надо читать вдумчиво. Лучше на родном (англ). Шаманство - это конечно хорошо, но когда на кону стоит чужой коммерческий проект, фантазиями и экспериментами увлекаться не стоит.

R
На сайте с 03.05.2013
Offline
26
#14

а как проверить страницу на наличие в индексе гугла? помню у гугла был такой инструмент, но не могу его найти

и правльно ли я понимаю, что в роботсе уже и не нужно закрывать ненужные страницы, попавшие в индекс? ведь хз когда они из индекса уйдут, и уйдут ли вообще...

A
На сайте с 25.10.2014
Offline
99
#15
в роботсе уже и не нужно закрывать ненужные страницы, попавшие в индекс

Как бы... если закрыть, то эти ссылки потеряют сниппет (появится заглушка) и уйдут в задницу ссылочной базы сайта. Если не закрыть, пс будет обновлять по ним информацию, а дальше всё решит случай.

а как проверить страницу на наличие в индексе гугла

Оператором или просто вбить url.

Насчёт инструмента, есть статистика, но она неточная (данные всё время опаздывают).

С дублями борются метатегом, x-robots, 404 (просто удаление страницы), настраивают параметры url, понижают приоритет, ставят канонические ссылки.

ведь хз когда они из индекса уйдут, и уйдут ли вообще

Страницы никогда не уходят, если отдают 200ОК. Опять же мусор, хоть и в индексе, в выдаче тоже не участвует.

Сейчас экспериментально Google делает группы дублей и не индексирует триллион страниц, выбирая только нужные. Но это не у всех.

И3
На сайте с 23.03.2011
Offline
223
#16

Удаляю в вебмастере не существующие страницы, через пару дней они снова вылазят в ошибках сканирования и так по кругу. Как их удалить то?

A
На сайте с 10.03.2011
Offline
75
#17

Иван34, просканируйте сайт xenu или seo sсreaming frog, найдите все внутренние ссылки на эти страницы и искорените их. Если не помогло, то скорее всего какие то внешние ссылки ссылаются на эти страницы, рекомендую проставить редирект 301 тогда на главную или похожую страницу. Хотя если сайт и не большой, можно и для внутренних ссылок проставлять редиректы.

По вере нашей да прибудет нам!
A
На сайте с 25.10.2014
Offline
99
#18
Удаляю в вебмастере не существующие страницы, через пару дней они снова вылазят в ошибках сканирования и так по кругу. Как их удалить то?

Вот что бывает, когда люди не читают справочные материалы.

https://support.google.com/webmasters/answer/1269119?hl=ru

Удалённая страница должна отдавать 404 и всё. Больше от сайта ничего не требуется.

Но если удалённый в ГСК url редиректните на главную, то имеете шанс получить головную боль в виде исчезнувшей главной страницы.

AR
На сайте с 01.04.2012
Offline
78
#19
aldous:
...
Удалённая страница должна отдавать 404 и всё. Больше от сайта ничего не требуется.
...

О каких удалённых страницах, тут у вас речь?

Есть в индексе страницы, которые нужно только из ПС удалить. С этим у самого проблема. А на сайте они существуют "в природе" и будут всегда существовать: пагинация, сортировка, результаты поиска, варианты/комбинации страниц с параметрами от фильтра в конце урл. Тут по-неволе приходится их блокировать в robots. Надо ли такие страницы на 404 error направлять?

Если через x-robots tag блокировать - так Яндекс не поддерживает этот способ. Или поддерживает уже?

A
На сайте с 25.10.2014
Offline
99
#20
О каких удалённых страницах, тут у вас речь?
Есть в индексе страницы, которые нужно только из ПС удалить. С этим у самого проблема

Он написал:

Удаляю в вебмастере не существующие страницы

Я так понимаю, что "несуществующие" - это удалённые? Или что?

Если через x-robots tag блокировать - так Яндекс не поддерживает этот способ. Или поддерживает уже?

В тестовом режиме поддерживал для блогов на Blogger. Сейчас как с этим - хз.

А на сайте они существуют "в природе" и будут всегда существовать: пагинация, сортировка, результаты поиска, варианты/комбинации страниц с параметрами от фильтра в конце урл. Тут по-неволе приходится их блокировать в robots.

Для пагинации есть свои параметры. См. Справку.

Для мусора метатег роботс ноиндекс.

Про роботс.тхт и прочее написано выше.

Редиректить никуда ничего не нужно.

Удалённый url должен отдавать 404. Для Google этого достаточно.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий