Go2Berlin

Рейтинг
1
Регистрация
31.10.2012
Более надежней использовать мета тег: <meta name="robots" content="NOINDEX">

Как его использовать, если материал отсутствует? Или, к примеру, CMS просто дублирует страницы?

Не пойму страницы физически еще существуют на сайте?

Они существуют, но по новым адресам и с обновленным контентом. По старым адресам материал отсутствует и выдает 404.

Верные способы:
- если страница отдает код 404 или 410, то не закрывать ее в ROBOTS'е. Это долго, но гораздо быстрее, чем при ее закрытии;
- быстрый способ: закрыть в ROBOTS'е и удалить вручную в WMT. Работает в течении суток.

Если открыть robot, то боюсь Яндекс их обратно в индекс затащит. А так хоть он дисалоу "по-моему" отработал.

Видимо придется ручками...

Самое наверно простое открыть в роботс бот увидит 404 удалит из индекса и после переиндексации новых пойдет выдача.

Для меня, если честно, это откровение. Всегда был уверен, что робот панацея от найденных дублей страниц, и там их можно постфактум закрыть от индексации. Получается, что если страницы уже в индексе, то дисалоу в роботе уже бесполезен?

Go2Berlin, самое лучшее действие Вам подсказал xVOVAx у Вас всего 500 страниц

Ну да, всего пару дней рабского труда🤪

---------- Добавлено 14.12.2012 в 18:31 ----------

Для информации: Яндекс, все старые уже вывел из индекса.

Так какие должны быть правильные действия, чтобы быть уверенным, что Гугл таки выведет эти адреса из индекса? Напомню, сейчас все эти адреса выдают 404 ошибку и закрыты от скана в роботе.

надо старые на новые редиректом делать

Их в районе 500 штук.

Так Гугл их сам удалит удалит когда-нибудь?

Много нехорошего про 301 редирект на главную пишут.

Скажите, на GoGetlinks запрещены сайты с покерной тематикой? А то компанию прикрыли.