Да? И что было бы тогда?
Ограничивать пользователя в его законных, богом данных возможностях пользоваться полным функционалом мыши - это моветон и вообще от лукавого. От парсеров это не убережёт, а лояльность посетителей будет стремиться к нулю.
Воровство контента это бич многих сайтов. Но с этим можно спокойно жить - СМИ же живут.
Если припекает - пишите абузы.
User-agent: *
Disallow: /robots.txt
😂
А если по существу - так какой роботс показывается при открытии site.com/robots.txt? Этот непонятный? Значит он там и залит, залейте правильный роботс.
Попробуйте Google Reader - весьма удобно, пользуюсь с удовольствием.
Этого мало, хоть это тоже есть.
Дело в HTML5 и семантической разметке (микроформатах).
Так радоваться же надо!
Пользуйтесь RSS-ридером - удобно и функционал побогаче настроек форума.
Вытаскивать вбиванием в поиск соответствующих запросов.
Это не Гугл попутал, а тот кто сочинил такой тайтл точно что-то попутал.
На странице контента ноль, тайтл совпадает с дескрипшном (см. кэшированную версию), а сейчас в тайтле вообще ересь километр в длину без знаков препинания.
По каким критериям принимается решение, что на странице недостаток/переизбыток контента?