Так у него приняло карту после разбивки же
все работает, расходимся=)) разбил по 500 получилось штук 40 сайтмапов https://disk.yandex.ru/i/K8tI6A_XD-zerw , потихоньку стали залезать в индекс
Касаемо fx-sitemap, то жмем мультисайт и ставим ограничение по 500, получаем толпу урлов, грузим толпу урлов в серч консоль - профит!
Всем спасибо за помощь!
Как ваши успехи? Удалось воспользоваться моими рекомендациями?
кстати, я ваш метод пробовал уже... https://tempo-air.ru/sitemap12.xml - это просто тупо xml файл закинул... не сожрал его гугл...
Добрый день, спасибо за помощь.
Чуть выше написал...
Карту сайта принял гугл, fx-sitemap, но пока 1000 штук всего, снял ограничения, сижу жду... https://disk.yandex.ru/d/HFZswcD9V2af5g - если за неделю не пересчитает снова, буду плясать с бубном как написано выше.
не делайте 2 карты, удалите обе, из фх карты удалите все опции и разбейте как я сказал выше и подайте, ждите сутки, ее отлично жрет Гугл ( у меня не разбита но оптимизирована )
а не в курсе фх сайтмеп не дает сделать несколько сайтмэпов по 500 урлов скажем?
Хммм... а вы и правда разбираетесь, поставил по 500 и убрал все лишнее и фх сайт мэп срузу сожрал гугл... https://disk.yandex.ru/d/8EAVNzSiYeuLjQ , попровал снять лимит, но не получилось, не сожрал во второй раз, завтра попробую снять ограничения и еще раз попробовать с большим количеством, не сожрет если, то буду в тхт файл просто урлы по 500 закидывать и так в него грузить
Спасибо за помощь... это прям первый раз когда мне на форуме кто-то действительно помог... обычно пространственные ответы либо нетривиально и никто не сталкивался с этим...
Весьма признателен.
1. Попробовать разбить карту на части по 500 урлов и скормить
2. И/или перевести карту в тхт формат из xml
3 Проверить нету ли проблем с доступностью гугл бота к карте
Хммм, в тхт, попробую...
Вообще не лучший вариант, можно неприятности получить, так как редирект, есть редирект и страницы поменяются в выдачи и другие проблемы. Даже если пропускать известных ботов, поступят другие сигналы, в теории, и не всех ботов пс можно охватить.
Как вариант, просто писать все прямые отдельно, потом тупо банить по Asn. Конечно банить конкретно ботов, что не сложно вычислить по сеткам, странам и тд.
понятно, в клаудфлаер лежит путь...
Я не знаю, какой смысл вы вкладываете в определение "похожий". Когда я смотрю на запросы, то понимаю, эти запросы относятся к одному интенту или к разным. Учитывая, что запросы, с которыми вы не знаете как поступить, встречаются на одной странице у пяти сайтов из топа, я посоветовал также продвигать на одной странице. Но вы не обязаны так делать, если у вас есть причины разместить их на разных страницах. То, что у пяти сайтах из топа эти запросы на одной странице говорит лишь о том, что ПС ничего не имеет против этого.
Тут все +/- понятно, я хотел уточнить какую частотность брать на группу ключей для того чтобы яндекс тебя не выкатил тебе некачественную страницу. Еще я слышал такое, что если наделать страниц на которые не будет семантики, то поисковик тебя за дорвей может принять.