Не удаляет страницы из индекса запрещенные в robots

123 4
E
На сайте с 21.09.2009
Offline
283
#11

DE6, вчера была видеовстреча с гуглерами они просили дать конкретный пример. Можете?

G2
На сайте с 31.10.2012
Offline
1
#12
Самое наверно простое открыть в роботс бот увидит 404 удалит из индекса и после переиндексации новых пойдет выдача.

Для меня, если честно, это откровение. Всегда был уверен, что робот панацея от найденных дублей страниц, и там их можно постфактум закрыть от индексации. Получается, что если страницы уже в индексе, то дисалоу в роботе уже бесполезен?

Go2Berlin, самое лучшее действие Вам подсказал xVOVAx у Вас всего 500 страниц

Ну да, всего пару дней рабского труда🤪

---------- Добавлено 14.12.2012 в 18:31 ----------

Для информации: Яндекс, все старые уже вывел из индекса.

Интересует гэблинговый контент...
E
На сайте с 21.09.2009
Offline
283
#13
Go2Berlin:
что если страницы уже в индексе, то дисалоу в роботе уже бесполезен?

Да. Я же писал Вам, что роботс.тхт запрещяет сканирование, а не индексирование. Не пойму страницы физически еще существуют на сайте?

Willie
На сайте с 08.10.2008
Offline
200
#14
easywind:
... роботс.тхт запрещяет сканирование, а не индексирование.

Абсолютно верно!

Если вы сначала закрыли уже проиндексированную страницу от заходов поискового робота Гугла, а затем ее удалили - то пройдет очень много времени, пока она исчезнет из поиска. Потому, что Гугол просто НЕ БУДЕТ заходить по этому адресу и, соответственно, не узнает, что страницы больше не существует. А когда узнает - то будет некоторое время (до 90 дней, в зависимости от важности) держать ее в индексе. И это правильно, иначе бы единичные сбои в работе хостера рушили бы сайты мгновенно.

Верные способы:

- если страница отдает код 404 или 410, то не закрывать ее в ROBOTS'е. Это долго, но гораздо быстрее, чем при ее закрытии;

- быстрый способ: закрыть в ROBOTS'е и удалить вручную в WMT. Работает в течении суток.

Что интересно: если страницы вообще нет и никогда не было на сайте, но на нее ведут внешние или внутренние ссылки - то Гугол может показать ее в индексе. Конечно, не по ВЧ-запросам, но по супер-НЧ, которые присутствуют в анкорах - запросто.

Попробовать мобильные прокси бесплатно: clck.ru/3EKDyC
богоносец
На сайте с 30.01.2007
Offline
774
#15

Пример возник.

Неделю назад ещё не было роботса, в индексе было около 63 000 страниц.

Потом появился роботс Last-Modified: Mon, 10 Dec 2012 14:43:59 GMT

Результатов: примерно 57 600, отвечают 200.

Какими будут прогнозы?

G2
На сайте с 31.10.2012
Offline
1
#16
Не пойму страницы физически еще существуют на сайте?

Они существуют, но по новым адресам и с обновленным контентом. По старым адресам материал отсутствует и выдает 404.

Верные способы:
- если страница отдает код 404 или 410, то не закрывать ее в ROBOTS'е. Это долго, но гораздо быстрее, чем при ее закрытии;
- быстрый способ: закрыть в ROBOTS'е и удалить вручную в WMT. Работает в течении суток.

Если открыть robot, то боюсь Яндекс их обратно в индекс затащит. А так хоть он дисалоу "по-моему" отработал.

Видимо придется ручками...

Евгений Дмитриевич
На сайте с 26.10.2007
Offline
97
#17

Запрет индексации в robots.txt не панацея.

Более надежней использовать мета тег: <meta name="robots" content="NOINDEX">

If you are a web designer either web developer you always should know what to expect in next year - Web Design Trends 2018 (http://merehead.com/blog/web-design-trends-2018/). I wish I knew this earlier, it'd save me some money. Merehead (http://merehead.com/)
G2
На сайте с 31.10.2012
Offline
1
#18
Более надежней использовать мета тег: <meta name="robots" content="NOINDEX">

Как его использовать, если материал отсутствует? Или, к примеру, CMS просто дублирует страницы?

Vladimir SEO
На сайте с 19.10.2011
Offline
2046
#19

цмс обычно имеет возможность массово ( например в джумле) редиректить старые адреса на новые

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
E
На сайте с 21.09.2009
Offline
283
#20

богоносец, интересный пример :) Их всего 55к могли попасть до команды не индексировать :)

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий