Крауд и прогон - это взаимоисключающие понятия.
Выше вам правильно указали. Прогон - это спам по открытым источникам или в лучшем случае автоматическая/полуавтоматическая регистрация в тематических справочниках. Здесь есть свои специалисты.
Крауд или крауд маркетинг - это перманентное присутствие и информационные посевы в соц. сетях, в сообществах, на форумах и порталах с целью продвижения бизнес интересов через профессиональную экспертизу. Это специалисты совершенно другого уровня и бюджеты там не в разы, а на порядок.
Есть конечно и более мелкие спецификации типа внедряться на форумы, прикидываться новичком, задавать вопросы и через диалог выполнять посевы. Это действительно работает.
ПФ состоят не только из этого показателя, но в настоящий момент он главный.
Если вы не готовы на какие-то глобальные модернизации и емкие стратегические решения, которые гипотетически могут привести к улучшению ПФ, то - да, легальными методами увеличить CTR в выдаче скорее всего не получится.
Смотрите. Я никогда не ставил себе принципиально-амбициозных задач сместить конкретного единичного конкурента. Т.е. не прорабатывал рабочую стратегию так и только так, что прям в отдельный запрос и для отдельного конкурента. Я этого не делал, потому что всегда было множество других точек роста, достижение которых были более ясными и отчётливо прогнозируемыми.
Вопрос - сколько конкретно ссылок, для конкретной топовой позиции - всё это определяется внутренними факторами ПС, расчёт которого никому не доступен, поэтому здесь сугубо практическим путём.
Что-то решается ссылками, что-то решается только возрастом, накоплением контента и ростом аудитории.
В любом случае и то, и другое вам надо делать. В какой момент мы сможете приблизиться и сместить - всё в практической динамике, никто вам не даст конкретных цифр и сроков.
Это всё равно, что дожить до 35 и вдруг озадачится вопросом - на каком году жизни у вас начнут заметно проявляться возрастные изменения. Некоторые процессы недоступны для привычного и детализированного расчёта, вы просто стараетесь сохранять позитивные рабочие тенденции и формируете гипотезы на основе более коротких оперативных данных.
Если только картинки (при условии, что тексты, описания, UI/UX разное), то таким образом шансы вы увеличиваете, но лишь гипотетически.
Как уже сказали выше, аффилиат-фильтр сейчас в Яндексе не работает, но это не значит, что дальше так и будет продолжаться, поэтому лучше делать стратегические расчёт не на ближайшие месяцы, а годы.
Пробуйте. Но если конкуренты будут упорствовать и докажут, что второй сайт лишь имитация и Яндексу будет надо убрать его из выдачи - уберут, несмотря на различия.
Ключевое здесь - "будет надо убрать".
Возможно, мой совет окажется вам полезен - укажите оплату почасового труда (это будет гораздо нагляднее и на мой взгляд более конкретно).
Проверять насколько корректно решены все технические вопросы по оптимизации индексирования которые влияют на краулинговый бюджет, а именно:
1) Корректная генерация XML карты сайта с правильными датами обновления и передачи данных в <lastmod>
2) Закрыть для индексации всё служебно-ненужное, проверить возможные дубли движка (удалить, убрать лишние выводы, закрыть индексацию)
3) При вашем объёме актуальна поддержка Last-Modified и Last-Modified-Since - разобраться что это такое и также внедрить
4) Физически пройтись программным краулером по сайту (например, Screaming Frog) на предмет возможных циклических адресаций, битых ссылок и т.д.
5) Использовать Indexing API (в том числе и не постоянной основе) для удаления/обновления требуемых URL (в Консоле возьмёте конкретику по URL адресам)
6) Уже факультативно - проверьте/внедрите (если её нет) - перелинковку.
7) В особых случаях надо смотреть по логам куда долбиться Гугл. Если он постоянно долбиться на какие-то отдельные страницы, тоже надо разбираться по ситуации, почему это происходит - тут по обстоятельствам.
8) Проверить разницу межу содержанием отрендеренной страницы и неотрендеренной (Screaming Frog позволяет это сделать).
По хорошему, надо проводить техническую ревизию вашего сайта, наверняка есть проблемы, которые могут быть для вас в слепой зоне.
Всё вышеуказанное влияет на поисковую квоту (на краулинговый бюджет). Поищите материалы на эту тему, у Шакина с Dr.Max-ом точно был видео выпуск (и не один) на эту тему, погружайтесь, определённые детали оттуда почерпнуть будет весьма полезно.
Это значит не хватает поведенческих сигналов, связанных с данным ключом.
Лучше по каким критериям?
В Яндексе, очевидно, нужно делать упор на поведенческие, но для высокочастотных ключей и главным образом однословников принципиальное значение имеет возраст и траст, поэтому здесь комплексно заниматься развитием.
Как доп. мера - можно, но если в вашем запросном индексе мало сигналов по поведенческим, то увеличение кол-ва статей и перелинковка значимой роли не сыграет.
Принципиальный момент не в этом.
Когда изменение релевантности имеет место быть, то оно может этапно раскатываться в XML выдаче, а потом появляться в пользовательской выдаче.
Поэтому здесь надо выждать несколько дней и проверить результаты. Устоявшийся результат должен совпадать. Следовательно, когда релевантность действительность изменилась и результаты закрепились, то спустя время вы их увидите и там, и там.
Яндекс - упор на поведенческие, Гугл - на ссылки
Насколько я понял, Яндекс вообще проигнорировал судебное заседание, вследствие чего судом было принято, что конкретных лиц, написавших все эти отзывы установить невозможно, а следовательно Яндексу отправили предписание удалить все эти отзывы, что Яндекс (насколько я понял) и сделал.
Игорь, релевантность страниц может меняться вследствие перерасчёта факторов релевантности внутри страницы.
Если у вас это происходит не разово, а систематически, значит нужно проверять:
а) ключевую плотность
б) рабочую перелинковку
в) смотреть поведенческие по конкретному проблемному документу
В идеале вы и именно вы заранее должны чётко знать, какая страница у вас является целевой (т.е. посадочной) для релевантности по конкретным запросам и прицельно работать по вышеуказанным пунктам.
Если есть недоработки, перекосы или вообще нет чётко представления, какие страницы у вас являются целевыми по конкретным запросам, то - да, будут возникать ситуации, когда одна страница по релевантности будет перекрывать другую.
Различные SE сервисы могут хранить и показывать устаревшую информацию, более того, чаще всего они работают через XML запросы, а вот их результаты действительно могут расходиться с теми, которые вы можете видеть при обычном пользовательском запросе.
Да, в разных регионах результаты могут отличаться до тех пор пока значения не устоятся.