Плохо... смените фронтендера, который не умеет адаптив, на нормального. Потому что "мобильная версия" - зло
Стоит в любом, но hreflang
Или повлияет или нет. Через CTR, изменение которого смогут предсказать только местные телепаты и шаманы (как из школки придут)
Баден - нет. Таки будете смеяться, но вот буквально пару дней как видел пациента с Баденом (свежим). Вот Минусинска - да, года как с 4 не слышно-не видно: новые фильтры практически 100% приводят к тому, что старые больше не ходят
Которые предварительно увидеть надо. А нейронка Яндекса занята несколько другим, так что - стук и только стук: даже в Справочнике такие аффилиаты (некоторое время) могут жить рядом спокойно
Да даже если одна, был же тут пример недавно с возмущением - "чавой-то хозяин не маскируется и его не аффилиатят, при московском и новосибском сайтах?"
Не такъ. Поскольку аффилиат-фильтр есть, накладывается он "по стуку" и с применением то ли ассессоров, то ли каких еще биороботов, но факт в том, что при наличии потенциальных аффилиатов под фильтр улетает более молодой сайт-клон.
Так что как метод конкурентной черной борьбы подходит "не очень" - не конкурент будет выбит, а попытка показаться им
Сам у себя (исключительно по лени) такое видел. Возникает если
- сайт в Вебмастере заведен с http
- на сайте сделан принудительный редирект с http на https
Резюме - или "переезд" в Вебмастере на https (если нужна старая статистика), или завести новый сайт с правильным протоколом (как сделал я, т.к. исторических данных нет)
А прочитать документацию - это для лохов, да?
https://yandex.ru/support/webmaster/search-results/favicon.html#requirments
https://yandex.ru/support/webmaster/search-results/create-favicon.html#create-favicon
Всех-то трудов - сделать три разных иконки, выложить их правильно и посмотреть, какая подхватится. Хотя народ не геморроится такой хренью, и просто делает одинаковые разноразмерные (тут еще и гугель со своим желанием видеть фавиконы x48px)
1. Убрать все ненужное и бесполезное (так будет проще отлаживать маленький файл)
* Host не работает уже несколько лет (да и нужен был только для яндекс-бота)
* директивы Allow после Disallow нужны только в том случае, если нужно открыть для индексации часть внутренних страниц, закрытых перед этим более короткой маской (а этого сейчас не наблюдается: /hostcmsfiles/css/ /hostcmsfiles/js/ /hostcmsfiles/jquery не закрыты ничем)
А потом, как уже правильно подсказали, проверять урлы в вебмастере через "Анализ robots.txt" в Инструментах
То по анализу конкурентов будет видно, что это - 3 разных отдельных сайта.
Но вы можете бежать по своим граблям самостоятельно... только не надо потом сюда с "почему не продвигается?" прибегать
"Множество" - это сколько. В цифрах, а не гуманитарных эмоциях - 10 тыщ, 50, 100? десятку-две Опенкарт даже возьмет, на 100 я бы сказал "CS-Cart" (если есть бюджет на нормального разработчика)