- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проблема
По ошибке - в Sitemap.xml попало большое количество страниц (к примеру посадки - "услуга" в Воронеже, " услуга" в Самаре)
Добавили noindex, nofollow на данные страницы + убрали их Sitemap.xml. Но Google успел проиндексировать около 7000 страниц (+ 15000 страниц отображается в обнаружено, но не проиндексировано)
Задача - поспособствовать ускоренной деиндексации этих 7000 страниц в Google.
Есть какие-либо варианты? (к примеру выгрузить эти 7000 страниц и добавить в sitemap.xml, чтобы робот быстрее их переобошел. По моему Мюллер об этом говорил как-то)
Проблема
По ошибке - в Sitemap.xml попало большое количество страниц (к примеру посадки - "услуга" в Воронеже, " услуга" в Самаре)
Добавили noindex, nofollow на данные страницы + убрали их Sitemap.xml. Но Google успел проиндексировать около 7000 страниц (+ 15000 страниц отображается в обнаружено, но не проиндексировано)
Задача - поспособствовать ускоренной деиндексации этих 7000 страниц в Google.
Есть какие-либо варианты? (к примеру выгрузить эти 7000 страниц и добавить в sitemap.xml, чтобы робот быстрее их переобошел. По моему Мюллер об этом говорил как-то)
Мюллер - дебил и старый маразматик.
А ускоренной деиндексации не существует.
P.S. Без шуток и сарказма
Мюллер - дебил и старый маразматик.
А ускоренной деиндексации не существует.
P.S. Без шуток и сарказма
Понял
Проблема
По ошибке - в Sitemap.xml попало большое количество страниц (к примеру посадки - "услуга" в Воронеже, " услуга" в Самаре)
Добавили noindex, nofollow на данные страницы + убрали их Sitemap.xml. Но Google успел проиндексировать около 7000 страниц (+ 15000 страниц отображается в обнаружено, но не проиндексировано)
Задача - поспособствовать ускоренной деиндексации этих 7000 страниц в Google.
Есть какие-либо варианты? (к примеру выгрузить эти 7000 страниц и добавить в sitemap.xml, чтобы робот быстрее их переобошел. По моему Мюллер об этом говорил как-то)
У меня попали в индекс страницы с мусором в адресе
Запретил через robots, и прописал canonical
В выдаче встречаются чуть чаще чем никогда
Запретил через robots, и прописал canonical
можно еще ноиндекс поставить и дать 404 ответ ))
если запрещаете сканирование - то все что внутри уже по барабану и каноникалы бесполезны , открывать надо
У меня попали в индекс страницы с мусором в адресе
Запретил через robots, и прописал canonical
В выдаче встречаются чуть чаще чем никогда
И как теперь бот узнает что страницы нет(запрещена для индекса) если вы ему запретили)
можно послать сигнал на удаление через google ondexing api или из консоли
есть удаление страниц из индекса в консоли, там же и каталоги и папки
В Урле не к чему зацепиться, к сожалению
И что вы имеете ввиду? Это - "Параметры URL"
можно еще ноиндекс поставить и дать 404 ответ ))
если запрещаете сканирование - то все что внутри уже по барабану и каноникалы бесполезны , открывать надо
Да, конкретно в моем случае - проблема в сканировании. Точнее в том, что, когда прописали noindex + убрали с сайтмапа - приоритет на сканирование данных страниц значительно упал; стал минимальным. И сколь ждать пока робот ее переобойдет - неизвестно. Тем более это не 7 страниц, а 7000
И если их подсунуть в карте сайта xml гуглу - какой негативный эффект может быть. По факту мы же просто ускоряем процесс (даем пул страниц - которые мы хотим убрать с индекса). Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.
Или я ошибаюсь? Или как?)
Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.
Или я ошибаюсь? Или как?)
Что самое смешное, сейчас гугл очень хреново индексирует.
Мы в роботс запрещаем - там вообще по-барабану, гугл игнорирует и индексирует дальше.
Выделите бюджет какой-то для студента, дайте 7к урл и пускай добавляет поштучно в консоле на удаление (чтобы перестраховаться). На 2 дня работы или даже на один.
В Урле не к чему зацепиться, к сожалению
И что вы имеете ввиду? Это - "Параметры URL"
нет именно удаление - но не урла а папки ( папок )
Да, конкретно в моем случае - проблема в сканировании. Точнее в том, что, когда прописали noindex + убрали с сайтмапа - приоритет на сканирование данных страниц значительно упал; стал минимальным. И сколь ждать пока робот ее переобойдет - неизвестно. Тем более это не 7 страниц, а 7000
И если их подсунуть в карте сайта xml гуглу - какой негативный эффект может быть. По факту мы же просто ускоряем процесс (даем пул страниц - которые мы хотим убрать с индекса). Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.
Или я ошибаюсь? Или как?)
это был сарказм на связку роботс + канон
Но если надо переобход - то убирать из карты - не верное решение
а вообще есть гугл апи - 7000 это неделя две