- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
забыл прикрыть ненужные Гугла страницы (20-30к), он их съел, сейчас они в индексе находятся. как их удалить из Гугла окончательно?
я удалил все ссылки внутренние, которые вели на эти страницы, добавил правило в роботс.тхт, добавил метатэг, но толку нет.
удалил сами ненужные страницы.
насколько я понял:
Директива Disallow в роботс.тхт вроде как говорит боту индексировать страницы, но если они уже в индексе? т.е. он просто перестает них не заходит, но в базе держит.
если добавить метатэг noindex - то боту же надо зайти на страницу, чтобы ее сожрать. поэтому смысла нет.
ссылки удалил внутренние на страницы - но сами-то страницы уже в индексе.
удалять через панель вебмастера гугла - такое кол-во фиг удалишь, плюс не получается удалить как каталог, у страниц урлы кривые, без слэша, а гугл обязательно его добавляет.
подскажите, что делать? вернуть ссылки на эти страницы, чтобы робот по ним прошелся и выкинул из индекса? или есть другой какой-то путь.
Другого пути нет. Только удалять в ВМТ или ждать.
Повесьте 404, через время выкинет.
Повесьте 404, через время выкинет.
+ 1
При 404 страницы удаляются из индекса намного быстрее, чем просто при наличии disallow в роботсе или noindex в хедере.
Варианты:
1) закрыть в robots.txt, запросить удаление в WMT;
2) не закрывать в robots.txt, на страницах прописать noindex;
3) если страницы не нужны, удалить их, не закрывать в robots.txt и возвращать 404, а ещё лучше 410 для ускорения процесса. Вариант не исключает параллельного запроса на удаление в WMT.
Для вариантов 2 и 3 ссылки, судя по моему опыту, не обязательны, хотя, по идее, можно ускорить процесс, организовав временные ссылки на удаляемые страницы.
При 404 страницы удаляются из индекса намного быстрее, чем просто при наличии disallow в роботсе или noindex в хедере.
Насчёт noindex — не факт, но 410 срабатывает ещё быстрее, чем 404.