Как спрятать ссылку от роботов, xml-код и пример.
Автор идеи сделал страницу, на которой слишком много сцылок про CSS и пр... но для бота не все они внешние.
Это все Content-Type: text/xml;
/ru/forum/694257
Можно же посмотреть что творится в ТОПах... и с валидностью, и с контентом в начале.
Вспоминайте ихний автоответ типа:
Ну я этих фильтров не писал...
Но, вот, как ПС смотрят на href в любых тегах, кроме сцылок, и на src...
... наводит на подозрение, что и фильтровалки могут писаться простенько. Ну типа эффективность от этого не снижается... зачем усложнять? Наспамил школьник, кроме анкоров, ещё и во всплывающих посказках ...
А вы в его примере разберётесь? Там и повторяющиеся блоки текста в JS, и сцылки меню.
javascript закрыть вывод модуля
неИндексация слов
Закрыть ссылку скриптом
Ну и XML ещё можно...
Вот, если чего долго не индексируется, то писать им точно бесполезно, если не вредно — просто нервотрёпка и всё.
Пока ждать ответа.
Ну у меня было:
3.04 вылет белого пушистого.
6.04 такой же ответ, как выше. И возвращение двух страниц.
13.04 наши олгоритмы приняли решение... продолжайте, развивайте... санкции не накладываются навсегда...
Ну и через пару писем на переписку просто забил. Она, даже видно, ведётся теми, кто не может чего-то по делу сказать.
Хотя пару лет назал я смеялся над подобными проблемами... но тогда был опыт возвращения по письму. А потом его не стало...
Т.е. чтобы это можно было посчитать, скрипту нужен ешё один клик/переход...
Для фильтра это может быть и не важно.
Не удивлюсь, если окажется, что фильтровалки смотрят и в то, что на ранжирование не влияет. А чего там разбираться...
А как ПС его считает? Откуда инфа о поведении появится у бота?
Урл ищется... типа как слово.