Не контента, а сайта.
И не через AJAX (фактически JS), а через возможности клиента, вообще говоря. Например Яндекс.Почта пару лет использовала xslt на клиенте, памятник сему.
И показанные в теме примеры являются скорее образцом экстремизма (ну типа легко убрать всё повторяющееся, значит убираем всё). Может быть правильнее было бы не везде все менюшки от бота скрывать, а только часть... я бы на морде всё оставил.
А что значит «в индекс не попадет»?
Легко проверить можно поиск текста. Со ссылками всё уже не так легко... нахождение акцептора по тексту JS-ссылки — это только часть того, что нужно проверять про ссылки (но спамерюгам даже это лень).
Ну можете и так попробовать (в примерах с первой страницы темы такого нету. Скрипты, располагавшиеся в HTML-коде выполнялись. Смысл именно в выносе их в отдельный файл, прикрытый в роботсе).
И помните, что вы в любом случае лишь экспериментируете... поэтому не стесняйтесь проверять через несколько недель после индексации — что ищется, а что нет.
Надо провести эксперименты в разных браузерах: насколько дольше они рисуют неправильный код... им же приходится как-то интерпретировать явную неправильность (FF когда-то уже уведомлял об чём-то таком).
Экономить надо на количестве HTTP-обращений, а не на мелочах в пределах каждого из них.
И сохраните файлы с кавычками, а то потом у вас может возникнуть проблема: как вернуть кавычки?
Если ПС понимает только некоторую часть того, что понимает браузер, то это называется экономией ресурсов, необходимых для и так слишком затратного поиска. А отдаётся и ПС, и юзеру одно и то же.
Тема вообще была о другом, об использовании возможностей клиента. Типа есть на фрихостах 237 доров по 456 HTML-страниц каждый. И надо быстро сменить их дизайн... не заставляя ПС это всё переиндексить.
Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS
И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...
Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.
Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).
А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго.
Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.
Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...
Подразумевались клиентские скрипты (JS. А серверных ПС увидеть не может).
В плясках с бубном есть <script src="js/alljs.js"
Disallow: /js/ # Гугл умеет выполнять JS, если его не попросить в роботсе в это всё не заглядывать.
Если будете списывать ссылочную структуру с donative, то добавьте в адрес &filter=0 при просмотре списка проиндексированных Гуглём.
/ru/forum/215449
но можно это же делать не так... чтобы и Гугл этого всего не видел.
Ссылки <noindex> не закрывает, только их текст.
А это зависит от того, как вы сверстаете... т.е. блок с основным контентом можно стилями... сделать так, чтобы он не дёргался в процессе загрузки меню/шапки/футера.
... если закроете скрипты в robots.txt
В том, что не увидит повторяющийся текст ссылок... минуса нет. Но никто не запрещает вам в HTML-коде добавлять некоторые ссылки из меню в <div id="menu"></div> (выборочная перелинковка, и на donative.ru такое есть), а скриптом в этот div вставится меню, и покажутся все сцылки (включая и те, что видны боту).
А это бесполезно... оно изменится завтра же. Но оперировать ПС будут чем-то на ступеньку проще логики создателей сайтов... типа так http://blog.rajtsin.com/2008/11/27/poiskovye-klastery-i-novye-filtry-ot-yandeksa/ но конкретно этому тексту уже столько лет, что не следует считать его истиной. Это именно пример различия в логике вебмастера и программера ПС (и не путайте структуру сайта со структурой урлов).
По приведённым на первой странице ссылкам... покажите здесь конкретно что могут поисковики. Могут ли они искать дублирующийся там по сайту контент, рисуемый скриптом? Если бурундуковских примеров мало, то вот ещё совсем пустой документ для поисковиков. Может они ещё и валидность проиндексированного различают?
Им просто не надо тратить ресурсы на исполнение всего того, во что верует паства. В надёжно прозомбированной массе мозгов создателей сайтов нет почти ничего окромя Content-Type: text/html
http://erum.ru/ Content-Type: text/xml;
Ну покажите хотя бы сайтег, на котором нельзя создать дубля... не говоря уж об избавлении ПС от частичного дублирования. Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
Вы это всё тоже успешно вызубрили? И если тоже дескрипшном продвигаете :) то почему бы не посчитать его повнимательнее? И что такое анкорная связка?.. ТС собрался это продавать, а ему тут никто не объяснил — что это такое.
Вернёмся к проблеме ТС:
Как подопечному быть хорошо видимым по списку очень похожих запросов?.. и не попасться под:
Ну вы поняли, чтобы эти дебилы что-то делали, их надо громко обсерать. Возможность есть не только тут.
Яндекс козёл (выкинул бы ещё свою почту, с похожей посещалкой), теперь пиарит свой копипаст: