Запрос-то - витальник, пожалуй. И вот такая математика: 16 визитов в день условно, CTR с первой позиции может быть много выше, чем 60%, поскольку это витальник.Вот, собственно, и всё.
Что касается теории - да с чего бы ПСам чьи-то акки рассматривать как серьёзные узлы графа? Взять любой поисковик - там соцсети и в выдачу-то залетают крайне редко, разве что ВК в Яндексе по неконкурентным темам, да Пинтерест в Гугле в картинках (всё реже и реже).
На практике же - я работал с проектами, так или иначе работавшими и с соцсетями. ФБ, Инста, Пинтерест, ВК. Траф оттуда на сайт - до 2-4 тысяч визитов в день. Орды подписоты. Уникальный контент, не в рамках сеошки сделанный, в том числе - и графика.Сказывалось ли это на позициях? - Нет. Разве что до 2015, пока жил G+.И как по мне - выводы однозначны. Я лучше ссылок прикуплю с пристойных хостов, там результат предсказуемый и достаточно стабильный хотя бы в Гугл.
Плюсану.Субдомены - отдельные сайты, и robots.txt домена второго уровня ими не управляет. Их надо закрывать собственными robots.txt.И к слову, robots.txt - это лишь рекомендация. Если их и впрямь надо от ПСов подальше держать - нужны всё же другие средства.
Вопрос в том, с какой скоростью эти ссылоньки в индекс заходят. Кмк, все траблы последнего времени связаны именно с тем, что ПСы всё реже и ленивее обходят сайты, всё чаще игнорируют новые страницы, не говоря о том, чтобы просчитывать ссылочное.Хостовые раньше за сколько обновлялись? С полгода? Сейчас, похоже, когда интернет растёт как не в себя, сроки всурьёз увеличились.В социалки в этом смысле я не верю, но интересно было бы понаблюдать за экспериментом.
Поддержу топик ключевыми словами.метамотыконтекстные векторыдистрибутивная семантикаword2vecблаблабла
У меня была возможность проверить. Два сайта, по сути - одной конторы, просто одним товаром барыжили разные менеджеры-конкуренты. Сайт конкурентов продвигали именно вот так: ссылками с прогонов и вообще разным мусором. Я ссылки не брал, занимался структурой и техничкой в основном - клиент не выделял бюджетов на ссылки, а сайт был очень кривой. Со старта конкуренты рванули очень недурно и по видимости по запросам обходили нас раза в полтора. Через год мы их обошли - примерно так же.Упомянутые "шершни с норами" - это про многоуровневые ссылочные профили, которые в условиях реально работающих фильтров за дурное ссылочное показывают высокую эффективность. Грубо говоря, под бурж. В рунете Гугл за такое сейчас не наказывает - просто не учтёт. Но я бы не рассчитывал на то, что так будет всегда. UPD Надо понимать, что "не учтёт" - просто потому, что сканирует рунет очень лениво, и на мусорные сайты ресурсы предпочитает не тратить.
В регионе спрос-то на такое есть? Если нету - то удивляться вообще нечему.И что я вижу в целом пока в коммерческой выдаче - так это дичайшее обобщение ключей. Вот скрин московской выдачи, худо-бедно на "дешевые" похож дорвей-маркет. Остальное - вообще вплоть до "шашки-шахматы-нарды", какие уж там "дешевые шахматы".
Инфо-контент проверять на переспам - такое себе. Тут на самом деле стоит в том же "тургеневе" на читабельность прочекать. Ну, или толковому редактору отдать.Но важнее другое. Вы должны понимать, что именно должно быть раскрыто в статье, какие темы и сущности должны присутствовать обязательно. А это пока напрямую ни один имеющийся сервис не покажет - разве что очень косвенно, и без распределения "весов" таких ключей.Простой пример: у вас статья про экскурсии в какой-нибудь музей. И ни слова, можно ли там с детьми, есть ли туалет, что там с буфетом, не лох ли экскурсовод. Если нету - юзверь пойдёт искать, где есть, если вообще есть альтернативы на эту тему.
Если запрос уже подклеен к посадке и по нему есть тонна ПФ, а после этого добавляются подкатегории с практически аналогичным контентом - с чего бы переклеиваться ключам? Не всё решается текстовыми, это только первый, самый грубый фильтр.