Ну вы же в роботсе закрыли от индексации страницы этого формата:
Вот он и ругается, что вы их пытаетесь через сайтмап ему скормить.
У гугла в справке написано, что если страницы нужно запретить для индексации, то robots.txt не поможет, обязательно нужен мета-тег noindex. А индексировать он их может из-за наличия в sitemap.xml, например.
Ну и какие страницы у вас исключаются?
Dimon1976, у вас какой-то косяк с кодировкой при редиректе - https://bertal.ru/index.php?a4998854/XN--90ABKTTT.COM/фото/14603-фото-майка-тайсона/#h
Видимо, браузеры его обрабатывают нормально, а яша и вышеуказанный сервис спотыкаются и попадают в бесконечный цикл.
Стикеры можно в noindex загнать - это абсолютно нормально. Или вообще ничего не делать (в тикерах же не будет продвигаемых запросов). По остальным моментам - вроде вы все правильно делаете, но при смене движка всегда будут подводные камни, так что гарантий, что позиции не просядут, нет.
Лучше переделать, но это не принципиально.
Если вы под окончаниями подразумеваете вот это:
- кровельное покрытие из профилированного листа
- кровельные покрытия рулонные
- кровельное покрытие пленка
- и т. д.
Тогда все правильно. Если же вы имеете ввиду что-нибудь такое:
- стоимость кровельных покрытий
- купить кровельное покрытие
- кровельные покрытия цена
Тогда их надо на одной странице продвигать.
Страница в индексе - https://www.google.ru/search?hl=en&q=info%3Ahttp%3A%2F%2Fhiking.ru%2Fgo%2F
Чтобы позиции были, надо ссылочную массу наращивать.
Только если у вас было прописано что-то вроде этого:
User-agent: *
Disallow: /
User-agent: Yandex
Allow: /
Надо смотреть, какого вида адреса у вас исключены и найти в роботсе директиву, которая блокирует эти адреса.
Вот тут смотрите, что у вас за страницы исключены - https://search.google.com/search-console/index
И смотрите в роботсе, какое правило их исключает.