Не вижу смысла писать статьи под запросы с частотой 5к-20к. В топ от этого вы всё равно не выйдете. А релевантность страницы по ВЧ запросу и так повысится, если статья будет написана под СЧ и НЧ, полученных путём уточнения соответствующего ВЧ.
Стоит использовать, если такие запросы есть у вас в семантическом ядре и вы хотите по ним продвигаться.
Региональность не при чём
2 сайта абсолютно одинаковых но с разным контентом. Аффилиат фильтр мог вмешаться.
Можно зацепиться за доменные имена сайтов, контакты на сайте, структуру страниц, контент на сайте.
Если ПС посчитает эти данные достаточно схожими, то может выписать вам такой подзатыльник и оставить в индексе только один сайт из двух.
Хороший пост на эту тему
http://habrasorium.ru/php/565-perenapravlyaim-mobilnye-ustrojstva-na-mobversiyu-sajta-php.html
пхп код там есть, вам останется только сверстать кнопку)
Если ругается сервер mysql то либо вы передаёте/принимаете большие объёмы данных за один запрос к БД или же отправляете запросы слишком часто.
Нужно проанализировать sql запросы Webasyst и оптимизировать их
Большинство кликает по первой строке, но не все. Даже если вы будете на первом месте по запросу, то все абсолютно все клики вашими не будут.
"!купить !коня !в !москве" = 1000 показов, это частотность точных вхождений в данном случае, а о каких смежных запросах идёт речь?
В коде нет тега <a>. Без него вес никуда не уйдёт
Можно поменять. Всё зависит от ситуации. Методы разные - вложенное меню, двойной пагинатор, некоторые даже создают блоки популярных товаров для этого.
Всё реализуемо
По-моему оборачивать ссылки в noindex сейчас никакого смысла нет. Если текстовый контент оборачивать, то смысл есть. А ссылки он не прячет
Есть статья на хабре. Тут похожий таймер описывается.
http://habrahabr.ru/post/138928/
Всё стандартно jquery, ничего сложного. Исходники под статьёй - перенести на сайт труда не составляет