Удалить ненужные страницы из индекса.

4ip
На сайте с 09.01.2009
Offline
110
4ip
911

В общем наблюдаю такое явления, у одного сайта при поиске site:site.ru Гугл выдает

About 1,540 results

Хотя на сайте только 30 страницы.

На второй странице поиска

Page 2 of about 1,540 results

На третей странице

Page 3 of 26 results

Получается Гугл нашел много страниц на моем сайте, но что это за страницы сказать не может.

И число страниц скачает, то 1,5к до 1к страниц.

В роботсе закрыл все что мог, что число страниц не уменьшается.

На это сайте когда-то был каталог статей но щас его нет, по идее те страницы уже должны были давно выпасть из индекса.

В обще подскажите как избавиться от этих страниц-призраков? Удалял бы вручную, через ВМ панель, так я даже не знаю урлов этих страниц.

Почему хочу избавиться от тех страниц, - некачественные страницы тянут сайт в низ и я хочу от них избавиться.

Еще вопросик:

Как сказываются подобные страницы на продвижении сайта? Вот двигаю сейчас этот сайт, так что-то туговато он идет в Топ. После покупки качественных ссылок идет прирост в Гугле, но потом сразу откаты до прежних позиций.

Жизнь это то, что происходит с нами, пока мы строим планы на жизнь. Самая быстрая wordpress тема (http://anokalintik.ru/root.html).
fagot_seo
На сайте с 06.05.2011
Offline
65
#1

Вообще не на то обращаешь внимание!

Обращай лучше внимание на правильный robots.txt правильный sitemap.xml. Удалять страницы нужно только если они дубликаты! Так как у тебя дубликатов нет, а есть только страницы-призраки, забей на них и занимайся лучше хорошей внутренней оптимизацией, думай о кликабельности по сниппету, думай о хороших тайтлах на страницах, проставляй качественные ссылки и все получится!

Эти старые страницы иногда могут отображаться в разделе ошибок в "Инструментах для веб мастеров" и отображаться как "не найдено" Если их и там нет - вообще забей!

Автор курса Python для SEO специалиста (http://py4you.com/courses/python-for-seo/) Разработка ПО py4you.com (http://py4you.com/development/)
T
На сайте с 19.01.2012
Offline
15
#2

Для профилактики- закройте эти страницы в robots.txt. Причем не только от Googlebot, но и от Adsbot-Google.

Но особо волноваться не о чем, судя по прыгающему количеству "призначных страниц" в индексе - они сами скоро выпадут.

David Blaine
На сайте с 23.05.2010
Offline
51
#3

Апну топик так как актуально.

На сайте много некачетсвенного контента (около 70%). Сайт стоял в топе, а теперь под фильтром. Гугля написал письмо, чтоб я удалил всё ненужное и отправил запрос на пересмотр. Удалить конечно недолго, но вот как быть с тем, что эти некачественные страницы в индексе? Надо как-то удалять их из индекса (закрывать в роботсе) или они сами потом пропадут? Если я удалю всё, потом дождусь пока в WMT гугля выдаст список пропавших страниц, потом этот список прописать в роботс, так нормально будет? Спасибо!

B
На сайте с 31.01.2007
Offline
166
#4

Отдавайте гуглу правильную 404 ошибку и он сам все выкинет, роботс тхт не залог не индексации, есть примеры где с запрещенными страницами в роботс, он продолжает их индексить.

А вот с 404 удаляет на раз два.

David Blaine
На сайте с 23.05.2010
Offline
51
#5
bisnesua:
Отдавайте гуглу правильную 404 ошибку и он сам все выкинет, роботс тхт не залог не индексации, есть примеры где с запрещенными страницами в роботс, он продолжает их индексить.
А вот с 404 удаляет на раз два.

а если 301 сделать на морду, чтобы со всех удаленных страниц вес передать? Есть смысл?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий