Прикольно. Если пользователи счастливы от того что им не показывают полную версию, может ее и не показывать дальше?
У вас абстрактный вопрос. Непонятно чем отличается полная от неполной. То ли контент другой, то ли контент тот же но из-за какого-то бага на мобильниках он прячется.
Очевидно одно - js для подгрузки CSS в зависимости от размеров не нужен, media queries выполняет те же самые функции.
Надо ваш пост кверху приколотить.
Каждый раз когда будут спрашивать про мобильную версию тыкать в ваш пример.
Из-за 1% юзеров перекроить сайт чтобы потом выяснять, почему суммарный трафик упал на 50%. А потом еще и выяснить что люди с мобильниками намного реже покупают покупают ваш товар. Т.е. грохнули сайт только потому что адаптивно = круто.
При условии что неряшливость в верстке не является показателем неряшливости во всем остальном. А если топикстартер прав и падение произошло именно из-за переверстки? Там - забыл тег закрыть, там - Title правильный подставить, где-то ссылки не прикрыть, а где-то наборот.
бегущая строка - зло
Пока можно сказать что Яндекс не умеет выполнять js.
Но если вы хотите спрятать ссылки, то переходы могут отслеживаться например Яндекс-броузерами, яндекс-директами и т.п. Возможно что наличие спрятаннных ссылок будет как-то учтено.
И про Гуугл и про Яндекс. Любой хак будет работать недолго.
Определить что страницу читает страницу бот можно по поведению. Он не скролит экран, не водит по нему мышкой, не тыкает пальцами в тачскрин и клавиатуру. Если эти события все же происходят - есть гарантия что все это делает человек.
Бот вряд ли он задерживается на странице больше нескольких секунд после получения Ajax-контента. Если происходит переход по ссылке где-то в тексте, должно пройти несколько секунд от конца загрузки страницы. Если он происходит моментально, вероятнее всего что это бот. Ну и т.д.
https://www.google.ru/search?q=minimal+css+adaptive+framework
Гарантированно - никак. Без гарантий - привязываться к поведенческим факторам, к каким-то хитрым параметрам гуглобота - например попытаться вытащить информацию из флеш-плагина. Но вряд ли надолго хватит.
То что его нет в выдаче не значит что бот его не проиндексировал. Про то что боты таскают контент закрытый в robots писали много раз.
Вообще вы правы. Надо поставить эксперимент - использует ли бот информацию из закрытой части страницы
Однозначно. В примерах между временем индексации статики и подгружаемого контента прошло почти две недели.
От Google вы вряд ли что-то спрячете. Для парсинга и индексации страницы он использует тот же (или похожий) движок что и в Хроме. Любой JS и CSS он разбирает так же как обычный броузер. Хоть до посинения обфусцируйтесь. У него там даже Flash установлен непонятно зачем.
В принципе вы можете извратиться с тонкими настройками под его бот, или попробовать поиграть с HTML5 прибабахами типа SSE или WebSocke, но маловероятно что это что-то даст.
http://erum.ru/116.htm
http://erum.ru/118.htm
Присоединяюсь к вопросы.
Легко если это кому-то нужно взломать защиту конкретного форума или широко распространенного плагина. И практически невозможно это сделать если речь идет о массовом спаме. Не имеет никакого смысла возиться с одним нестандартным если можно загадить сотни тысяч стандартных.
Этот тег так же как и другие теги HTML5 придуман только для того чтобы вы запутались окончательно. Забудьте как страшный сон и верстайте как сверстали бы в HTML4.
Если вам сильно хочется - посмотрите все здесь: http://www.w3schools.com/html/html5_semantic_elements.asp