Им пофигу на другие ПС, за 5 лет негативной реакции замечено не было.
Робота Yahoo придётся банить по диапазону IP и ЮзерАгенту - он слишком любопытен и "кладёт" на robots.txt. Индексирует много и часто, трафа даёт - 0(в Рунете).
PS: Весь вопрос - как грамотно отделить роботов от посетителей. Но это - тема уже не для паблика, придётся думать самому.
Вот страница http://shopbags.ru/product/muzhskaja-kozhanaja-sumka-zbaraski/,
а вот - поиск по куску текста с неё.
Если на других страницах - та же картина: АГС закономерен. 80 аналогичных сайтов Яндекс знает, Ваш в выдаче - уже лишний.
Прежде, чем накручивать этот фактор, надо знать, как ПС отслеживают(в принципе могут отслеживать) переходы по ссылкам.
Без этого бот будет работать в пустую, ПС даже не заметят его переходов.
Только самому обобщить свои и чужие "поверхностные наблюдения" и думать :)
У меня вообще есть ощущение, что этими url занимается специальный робот Яндекса со специфическим Юзер-агентом в логах.
И, как в случае "быстрых ссылок", нужно превысить определённый порог трафика на сайт/страницы, чтобы Яндекс озаботился формированием таких url.
А тему просто так палить никто не будет - кликабельность таких "русских url" позволяет собрать трафика с 4-5 места ТОПа больше, чем с 1-2.
А вот не всё делается методом "в лоб".
Сильные внешние ссылки могут стоять на страницы с ВЧ, а уже с них - идти внутренняя перелинковка по ключам на страницы с НЧ.
А ТС пытается делать выводы только по сравнению "% вхождений", причём, на сайтах из ТОПа, где ссылочное стопудово задействовано.
Для понимания текстового ранжирования лучше анализировать успешные дорвеи - там оно в чистом виде.
На Ваших сайтах нет никаких фильтров Яндекса, они ранжируются в "штатном режиме" - по случайным микроНЧ.
obuspehe.ru - трафика с Яндекса никогда не было.
zarulemvaz.ru - был всплеск до ~600 посетителей(в основном с Яндекса) - по сезонным запросам "закон о новой тонировке". Новость перестала быть интересной - трафик закончился.
Тематика "авто" - средне-конкурентная, без внешних ссылок много трафика по ВЧ/СЧ не получить, а других ключевиков у Вас практически и нет.
PS: У Вас же стоит метрика на 3-х сайтах(кстати, на 2-х - открытая), почему Вы её не смотрите?
PPS: Имхо, сайты - слабые в плане СДЛ, если их начать продвигать - будет ручной АГС, ибо ручную проверку модераторов они не выдержат:
- сайты: просто набор статей, хоть и уник-копирайт, но полезность их - 0.
- пропалят массовые ссылки с 2-х аккаунтов Google+ и твиттера(на oskolblog.ru).
- сразу бросается в глаза неформатированный текст, читать людям неудобно. Есть опечатки и ошибки.
Это - не отвертка, это - штатный инструмент работы с картами.
API 2.0 Яндекс-карт предусматривают передачу геокодеру гео-координат вместе с адресом. Если геокодер не распознает адрес - он будет показан по переданным гео-координатам.
+ штат. В России тоже надо область региона указывать.
PS: Вообще это не баг, у Яндекса просто не прорисована карта этого места, поэтому он выдаёт - народную.
На страницу конкурента могут стоять внешние ссылки.
1. Сервис меряет % не от того, от чего надо.
2. Алгоритмы Яндекса не пользуются этим сервисом, ни "% вхождений".
А как ПС определит, какие слова из 1000, написанных на странице, - ключевые?
Там только поверхностные наблюдения - тема не раскрыта.
Согласитесь, есть большая разница между сайтом, продающим реальные услуги/товары, и трафосборщиком, работающим на партнёрку или РРС.
"Вторых" - будут АГСить и прессовать по-полной, если они мешают работать "первым".
Яндекс будет периодически чистить поле для реального бизнеса в коммерческих тематиках.