ну такой по типу "веб-студия", "адвокатское агентство", - услуги, которые могут оказывать и онлайн, и в принципе геопривязка играет роль, но не самую существенную.
Ну вот ручника-то нету. По хорошему ВЧ сайт болтался в топ-15-20 с динамикой вверх, сегодня рухнул до 40+. Ну и в целом плавно так съезжает всё время с некоторым ускорением в последнюю пару недель по всему пулу запросов.Есть небольшие косяки с мобильной версией (на планшетах отдаётся десктопная вёрстка в японском стиле "шире хари", но всё прочее - ОК.Нюанс. По ВЧ его более сильные конкуренты вообще не видны, запрос по сути агрегаторный. То есть, скорее всего, дело всё же не в ссылках. Вот жеж
Главная плохо структурирована и не добирает по текстовой релевантности? Как минимум, вывести на неё подкатегории (взять кредит безналом, взять кредит быстро, взять кредит без поручителя, блаблабла).Но если речь о Гугл - у него своя логика. Возможно, "взять кредит наличными" ему кажется более важной - он учитывает пачку сигналов, в том числе - и пользовательскую активность. Не моя тема, но какие ещё бывают кредиты в тематике? Если все прутся за наликом - дело может быть в этом.
Я не спец, но начерта прививка, если и так есть антитела?Тем более, что вакцинка у них всё равно от уханьского штамма, а воюют с индийским.
Карточки-то в любом случае должны проиндексироваться - через листинг, sitemap, блоки похожих товаров, того же производителя, рекомендуемых, в том же ценовом сегменте, популярных и т.п. Толку от внутренних ссылок не очень много с моей точки зрения, если линковать механически, не ориентируясь на пользовательские маршруты по сайту. Иной раз зайдёшь на сайт со смартфона, глянешь с точки зрения потенциального покупателя - а куда я пойду после того, как (чаще всего) методом тыка посмотрел на какой-то товарец - ан выбора-то реального и нету, ничего мне карточка не предлагает, кроме как взять и сразу купить. Проще закрыть сайт и уйти на другой.
Почему?
Потому что есть большая разница между сканированием и индексацией. Если закрывать в роботс - робот не будет сканировать тонны мусора. Тегом вы запрещаете индексацию, не сканирование. А урлов фильтратор генерит тонны.
Ну, и это намного проще и удобнее, чем ковырять отдельно каждую страницу.
Скрипт в логах отмечает. Но та же фигня - в "Топвизоре", например. Можно тупо сидеть и вручную обновлять позиции, вылавливая интересующую. То есть что реальная выдача, что XML - одни трэш и угар.
За минувшую неделю ко мне с вопросами по кластеризации вот в этом ключе пачка добрых людей обращалась с вопросами. Сравнивают ключи по топу - а там вот такое вот. Состав сайтов по запросам меняется практически всё время, и непонятно, что с ключами - одна это группа или нет. Выдача - не только Москва, в регионах то же самое.То ли у Яндекса припадок очередной? В Гугле есть, конечно, некоторая вариативность, но в основном даже медиану отлавливать не надо - всё в пределах плюс-минус 2 позиции. Но не три десятка амплитуда же
речь о ботах, там регион - москва, разные фингеры и профили.