вам не повезло.
судя по всему с такой причиной сайт отключают при ручной модерации
быстрее структурного программирования ничего нет
ООП для мега масштабируемых проектов и крутого железа
нет такой нейронки.
нужно разрабатывать соответствующий комплекс скриптов (программ), который бы делал вашу задачу
спецификация формата файла sitemap допускает 50 тыс. урлов в одном файле..
потому не гоните...
у меня везде так сделано... по 50 тыс. ссылок в файле.. использую индексный sitemap
все кушает
но с глюками и в гугле и в яндексе...
возможно из за CloudFlare
хотя я добавил расширение файл .xml для файлов сайтов в Skip
CloudFlare конечно
прекрасное бесплатное решение!
ну, почему американцы не всегда могут быть такими красавчиками как с CloudFlare?
гадят и гадят всем и по всему миру...
а вы проверяли?
церквей много, людей много, все люди разные....
кто вам сказал, что ссылочное ранжирование в Яндексе как фактор отменен на 100 % ?
clck . ru
возможно, кто-то не знает про директиву sitemap в robots.txt
а пользоваться я.вебмастер умеет..
вот для таких ручная подача сайтмапов.....
а так.. у меня и так и так сделано конечно..
в надежде что типа быстрее индексация будет по сайтмапам.. но это МИФ...
в robots.txt
можно прописывать в конце файла директивы
sitemap: https:// site.ru /sitemaps/sitemap_index.xml
sitemap: https:// site.ru /sitemaps/sitemap_index2.xml
sitemap: https:// site.ru /sitemaps/sitemap_base.xml
sitemap: https:// site.ru /sitemaps/sitemap_index3.xml
sitemap: https:// site.ru /sitemaps/sitemap_index4.xml
и т.д.
и вообще ничего никуда не добавлять больше
роботы поисковых систем сами все поймут