Что nofollow, что robots, являются рекомендациями. В том или ином случае, вес может не передаваться целевой странице (передается в никуда), страница может не отображаться в выдаче, но скрыть что-то от поисковика не удастся и я считаю это правильным ходом. Хотите запретить индексирование страницы на 100% - добавляйте авторизацию либо применяйте клоакинг, хотите скрыть ссылку, опять таки, применяйте клоакинг. Но это считается черным методом, и к счастью, других белых способов (кроме рекомендаций) нету.
serforall, там обычная навигация через пагинацию, а ТС нужна автоподзагрузка новостей при прокрутке.
TF-Studio, огромное спасибо. Именно то что интересует. Автоматически перебрасывать не буду, только региональные домены-зеркала зарегистрирую + перевод URL.
Geers, какой сайт? Принадлежность пользователя, а не сайта... Перечитайте.
http://www.dailymotion.com/video/xy76a5_change-the-name-servers-to-another-host-with-bigrock_tech#.UXgJxbV62So .
Cthulchu, дело не в "короче", а в использовании RAM DOM элементами и в прорисовке.
angr, дело даже не только в весе. Вы думаете class="jhfjf fjfjf fjhfjf fjfjjf fjfjfjd fjfjf fjfjfj" прорисовывается так само как class="footer" ?
Все хорошо уже. Спасибо.
Cthulchu, именно идеалист. У меня изображения даже под разные устройства генерируются, а CSS твики для определенных браузеров выводятся только определенным браузерам соответственно. 20мс на генерацию, 100мс на загрузка + рендинг для страницы с виду главной яндекса. Согласитесь неплохо. Сейчас хочу ввести микроформаты или микродейту (посмотрю еще). Как-то рука не тянется поганить код. :( Чертов перфекционизм, чертовы обсесии...
Но не вижу ничего плохого в таком "клоакинге". Хотя, конечно ясно за что могут дать санкции. Жаль.
Решил использовать. Конечно же, на свой страх и риск.
Смысл в том, чтобы отдавать пользователю более легкую страницу без лишнего кода. Зачем пользователю микроформаты?