А что удивительного, если в то время сайтов было значительно меньше, а сейчас все кому не лень - клепают сайты тысячами. Конечно теперь в ворохе этого всего и ранжировать стало сложнее, и искать.
Нет и не было единого ценника. От вашего шаблона многое зависит. Но в целом любой шаблон средствами CSS можно относительно безболезненно переписать в адаптив. Просто в некоторых случаях придется писать довольно жесткие правила для разных размеров устройств.
Ну а по поводу адаптивности и вообще мобилопригодности - это дело очень хорошее и полезное. Рынок смартов, планшетов и прочих мобильных устройств реально огромен и не учитывать его уже давно нельзя.
По-моему бесполезно прятать, ну, по крайней мере у меня не получалось. Как бы не маскировал - все равно видят. JS/AJAX они считывают и понимают, я даже добавлял сессии php, редиректы и юзерагенты, в общем много вариантов, что бы бот не прочел, а пользователь прочел. Не помогло, как у клиента они видели все ссылки так и видели.
Кроме того, даже если прятать от самого бота - палят через браузеры. С IP - где-то у них же читал, что при подозрениях они могут сделать запрос полностью имитируя обычный браузер пользователя, с обычным, не маркированным собственными сетями IP. Понятно, что они не будут это делать постоянно, но достаточно один раз клоакинг им спалить и будет не очень.
В вопросе ТС не было ни слова про ранжирование. Вопрос был задан про индексацию. Соответственно ответ. А про ранжирование, те кто не знают - не подскажут толком, а те кто знают - секреты в могилу унесут )) Дураков нынче нет.
Пробовал на одном своем сайте, где мобильный вид был изначально, но в силу того, что там на сессиях основано было - гугл его просто не видел много лет. Было не актуально, потому забивал.
Месяца 2 назад озадачился и таки отремонтировал, что бы гугл видел мобильную версию как полагается.
Прошло как и написал - уже месяца 2, через ВМТ гугла он показал, что все видит, ошибок с мобильными версиями осталось процентов 5, от всего количества, скоро придет к 0 постепенно. Но, трафик как давал в 20-30% от общего трафа ПС - так и осталось.
Никакого плюса от того, что он увидел mobile frienldy - 0.---------- Добавлено 13.11.2015 в 16:28 ----------
Адаптивный дизайн - не есть задавать колонки в %.
Для этого есть в CSS @media.
Изучайте. Там совсем несложно.
Ну так если проблемы с индексацией и так уже есть, то ничего страшного в том, что бы попробовать, как мне кажется. Поменять в движке вывод, а для старых материалов через Rewrite указать изменившиеся урл.
Вы на каком форуме находитесь? А домен какой у него? 4х буквенный новый? А как с его индексацией дела обстоят? Нормально? ) Зачем задавать такие странные вопросы? ))
Редиректов на основании User-Agent, IP нет?
В Маркере заметил, что берется страница не "по факту", а из кэша гугла. Я сам менял страницы, подгружаю маркер - а там старые. Пару раз попадались совсем древние, в которых еще были запрещены css/js. Так что маркер не показатель. Он как раз показывает из "индекса" страницы. А они у вас и были неверные.
Посмотреть как гугл-бот - это правильное отображение. Как вариант - гугл натянул старых, и если их много, и они показывались с ошибками - ждать, когда он теперь нормально их переиндексирует. Возможно создать sitemap c новыми и загрузить.
Есть еще хороший способ, если его не выбрали полностью - отправить в индекс не постранично, а сразу разделами, выбрав "индексировать эту и связанные прямые страницы", тогда в индекс быстрее пойдет то, что нужно. Уже не раз использовал - очень хороший инструмент, хоть и ограниченный.
Я так понимаю, что все что за знаком "#" - относится к самой странице, в вашем случае обе динамических закладки будут привязаны к "domain.com/ru/" адресу.
На сколько мне помнится, то ПС берут первую строку для определенного урл. Почему у вас Disallow и Allow в обратном порядке? Allow не будет так работать, ибо глобально /engine/ уже запретили.
В остальном - не видя ресурса, и что именно он говорит, что запрещено - подсказывать сложно.
К какому именно "URL заблокирован в файле robots.txt" ?