Эй!.. все такие вебмастеры, вот вам примеры в индексе:
Как использовать JS для удобства ПС // ссылки, дубли, повторы прятать. А Cell пусть злится.
Как использовать XSLT на клиенте для разруливания примитивных проблем. Но перед этим почитайте введение в XSLT
Проссылкоспамить надо бы.
Службы антиспама больше нет!
Ресурсов-то уже хватает, но... чем позже начнут, тем бессмысленнее будет результат — трата ресурсов на вытаскивание всего лишнего. Поэтому скажут: не хотите индексации — закрывайте ваши JS/XSL в robots.txt // так уже и говорят.
Вон Аяврик лет 5 ждёт выполнения XSLT и http://erum.ru/robots.txt не заводит, дабы не спугнуть. G уже даже файлы.xsl индексит, но выполнения XSLT не замечено. Отставание на 6 лет от браузеров и на 10 от W3C
Только это не HTML, а Content-Type: text/xml // и отношение ПС к этому всему не нормировано.
Введение в XSLT
Тупые примеры в индексе. По идеям 2006 года © Ayavryk
К неизбежной переделке ПС // и они сразу найдут много мусора, попрятанного от них же.
А что такое «все»? Только подумайте.
А как эти самые ожидания могут быть известны софту?.. коим и является ПС. Хотя понятно, что слово «известны» — надумано... попытка говорить про бота как про человека.
Придётся вникать в JS
/ru/forum/comment/10060008
Но могут напомнить, что описание должно быть честным... и про эту конкретную страницу.
там JS /ru/forum/comment/10298012
есть другие варианты: боты HTML индексят, но до счётчика не добираются.
Это не тупость, а реалии. Вот стата.
Браузеры уже несколько лет умнее HTML-я.
Адекватную чему/кому? Каким именно тенденциям? Вы являетесь участником тех же тенденций?