Как его использовать, если материал отсутствует? Или, к примеру, CMS просто дублирует страницы?
Они существуют, но по новым адресам и с обновленным контентом. По старым адресам материал отсутствует и выдает 404.
Если открыть robot, то боюсь Яндекс их обратно в индекс затащит. А так хоть он дисалоу "по-моему" отработал.
Видимо придется ручками...
Для меня, если честно, это откровение. Всегда был уверен, что робот панацея от найденных дублей страниц, и там их можно постфактум закрыть от индексации. Получается, что если страницы уже в индексе, то дисалоу в роботе уже бесполезен?
Ну да, всего пару дней рабского труда🤪---------- Добавлено 14.12.2012 в 18:31 ----------Для информации: Яндекс, все старые уже вывел из индекса.
Так какие должны быть правильные действия, чтобы быть уверенным, что Гугл таки выведет эти адреса из индекса? Напомню, сейчас все эти адреса выдают 404 ошибку и закрыты от скана в роботе.
Их в районе 500 штук.
Так Гугл их сам удалит удалит когда-нибудь?
Много нехорошего про 301 редирект на главную пишут.
Скажите, на GoGetlinks запрещены сайты с покерной тематикой? А то компанию прикрыли.