Предлагаю склеивать такие дубли поддоменов в разном регистре
Да ладно, а траст уже не рассматриваем в качестве фактора?
Форум - НЧ-шный вид проекта, и траст основного сайта может здорово подстегнуть позиции запросов болтающихся в топ-10-30
Ну, если страницы однотипные - оптимизируйте Title, Description, H1: "Отзывы о компании %name%". В принципе, должно хватить для НК.
А дальше работайте над количеством отзывов (объемом текста) по ВК и СК запросам. Тут, судя по выдаче таких запросов просто объем текста - основной фактор (ну и траст). Вхождения не суть - это же user-generated контент.
у спайвордса база запросов поболее будет
https://vk.com/exchange ?
Этому сервису 100 лет в обед, какая бета?
Что за тематика сайта? Мож сезонность какая (хотя очень странная)
У гугла и яндекса алгоритмы ранжирования и веса факторов немного разные. У яши, например, факторы ПФ выше учитываются, у гугла (судя по всему) - соц.сигналы.
Плюс гугел чаще реиндексирует веб (ссылки, например, быстрее начинают учитываться).
Да и в целом, много отличий у этих 2 пс.
Ну что за бред вы несете?
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
Дешевый? Интересный и уникальный контент априори не может быть дешевым. Хоть вы сами его пишете (тратится куча времени), хоть отдаете на аутсорс (куча денег).
Плюс поисковикам надо дать понять, что данный контент интересный. Для этого нужно, чтобы по этому контенту накопилась какая-то апостериорная (поведенческая) информация, для этого нужен трафик. Что также влияет на бюджет некисло.
Да и фиг поймешь, учитывает ли тот же самый гугл ПФ, или не учитывает.
prodvigator/spywords
Пробегитесь по конкурентам и соберите семантику по статьям в топе.
Я вообще делаю так:
собираю основные ключи для статей (верхушки, так сказать), а хвост добираю таким образом - собираю спайвордсом урлы из топ-5 и из этих урлов выцепляю ключи, которые в топ-20 болтаются. Получается вполне сносные постраничные ядра (нужно чистить, конечно, от дублей и мусора, зато не пропадают "хвосты" и синонимичные запросы + нет проблем с омонимией). Что-то вроде обратной кластеризации, т.е. я не готовый набор запросов раскидываю по группам, а, наоборот, по исходным запросам собираю группы.
Но это оптимальный вариант в случае статейника (когда ключей туева куча и на кластеризацию разориться можно). Если ключей немного, возможно, лучше кластеризовать уже собранную базу