Страницы будут в индексе если оставить их перечисление только в сайтмапе. Но думаю, что не стоит убирать ссылки на эти страницы на самом сайте.
Долго ждете? Я месяц уже сижу жду.. вот думаю, это нормально?
Мне тоже кажется, что отдавать 410 это плохое решение. Гугл может еще и переварит, а вот за Яндекс я переживаю =(
410 Яндекс понимает?
В любом случае, имея возможность установить требуемый метатег и отдавать 404, если хотите выкинуть страницу не правильно. Так как поисковик не сразу принимает решение о исключении из индекса страницы. которая раньше была 200 а теперь вдруг стала 404. Уверен, что бот еще не один раз сделает к такой странице запрос (на это потребуется время, для яши наверное знаете сколько 🤣) прежде чем принять такое решение. На мой взгляд, более правильно отдать роботу четкую инструкцию через метатег.---------- Добавлено 23.04.2013 в 15:21 ----------
Если цель убрать страницы с индекса, какие проблемы могут возникнуть с Яндексом если отрыть в robots.txt требуемые страницы и поставить на них метатег ноиндекс? Не представляю.
Лапшу на уши не вешайте. Представьте себе, не одно и тоже. Нет гарантии того, что ранее проиндексированная страница вылетит, если в роботсе указать disallow.
Просвещайтесь: http://siteclinic.ru/blog/tehnicheskie-aspekty/soveti-ot-google/
Тема 2
Подозреваю, что Яндекс поступает точно также. Если покапаться в мануалах Яши или спросить у них, думаю последует аналогичный ответ.
http://robotstxt.org.ru/robotsexclusion/meta
В роботсе пишутся инструкции для бота. Для того, чтобы страницы удалились из индекса необходимо наоборот убрать все запреты из роботса и проставить на всех страницах метатег, noindex. В таком случае, поисковой бот загрузит страницы и обработает вышеупомянутый метатег. После этого можно спокойно ждать, когда из поиска исчезнут все страницы.
Остальное хз... Сам сейчас стою перед выбором, переносить на новый домен сайт или нет.
дада)) тоже закралась такая мысль 😂
Интересно ваше мнение. Почему?