А если переехать с site.pl на site.com и сформировать мультиязычный сайт?
Большие риски в данном случае потерять позиции в pl? И будут ли плюсы для продвижения в Чехии?
Вообще вроде он описан в доках и для индексного файла (добавить http://www.sitemaps.org/schemas/sitemap/0.9/siteindex.xsd), для отдельных карт, боле менее стандартный. По крайней мере в плагинах для wp всё так.
А во вложенных картах сайта все норм? https://finscanner.ua/ru_pages_sitemap.xml
У гугла все написано довольно подробно
https://developers.google.com/search/apis/indexing-api/v3/quota-pricing
+
Ну так по 1000 и выгружать и в апи слать , смотреть далее
Владимир, подскажите
1. Я так понимаю с каждым днём лимиты будут увеличиваться? И где эти лимиты указаны?
(после попытка зилить 200+ - указало превышение квот; скрин; ориентировать на это?)
2. Залил на удаление первую партию - 200. Пока не понятно - все ли корректно отработало. Через какое время страницы должны вылететь из индекса, ориентировочно? Помню когда задивал урлы на индексирование и проверял через консольку - мгновенно залетали. А при деиндексировании?
расширьте для индексной карты пространство имен, у вас же она не проходит.
👍 Спасибо
А откуда брали синтаксис?
Тогда вопрос) Как выгрузить этот список URL-адресов, который попал в индекс, чтобы с ним уже работать.
1. Возможно как-то через site: - если есть сервисы? (типа a-parser.com, наверное. Но он платный, как я понял )
2. Либо с отчета Страница проиндексирована, но ее нет в файле Sitemap? - но там больше 1000 не выгружает (в т.ч. через плашки Гугл Щит)
нет именно удаление - но не урла а папки ( папок )
это был сарказм на связку роботс + канон
Но если надо переобход - то убирать из карты - не верное решение
а вообще есть гугл апи - 7000 это неделя две
Там 200 в день сейчас предел? (в апи)
можно еще ноиндекс поставить и дать 404 ответ ))
если запрещаете сканирование - то все что внутри уже по барабану и каноникалы бесполезны , открывать надо
Да, конкретно в моем случае - проблема в сканировании. Точнее в том, что, когда прописали noindex + убрали с сайтмапа - приоритет на сканирование данных страниц значительно упал; стал минимальным. И сколь ждать пока робот ее переобойдет - неизвестно. Тем более это не 7 страниц, а 7000
И если их подсунуть в карте сайта xml гуглу - какой негативный эффект может быть. По факту мы же просто ускоряем процесс (даем пул страниц - которые мы хотим убрать с индекса). Гугл, в теории должен ее проглатить за 3-5 дней. Будет всплеск в отчете сканирования, как был и при ошибочном добавлении этих городов. Главное, чтобы хост не нагнулся, но с этим все норм.
Или я ошибаюсь? Или как?)
В Урле не к чему зацепиться, к сожалению
И что вы имеете ввиду? Это - "Параметры URL"
Его сообщение, естественно.
Хмм, что же там было то)