Выполнения XSLT ими тоже пока не замечено.
Без JS вполне возможно сделать одни ссылки видимыми ПС, другие нет.
1. Удобно ли это будет простому посетителю?
2. При этом для поиска страница останется без контента. Что боту показать? И как? Вам прятаться или показываться?
Любой Сегалович подтвердит, что: современные искалки не умеют воспринимать человеческие факты (правила и интересы), зато умеют быстро просеивать кучу документов, выделяя самые примитивные признаки, доступные алгоритмам. Реальную релевантность вычислить они не могут, только вероятность релевантности.
И фильтры определяют не факт, а вероятность... чего-то вредного. Поэтому, когда человек читает фразу
— не следует думать о состоявшихся конфликтах, речь только об их вероятности... с т.з. алгоритмов, обученных как уж получилось.
В ситуациях реальной неопределённости — принимается решение против сайта (факт помню). А точный подсчёт неопределённости (ошибки величины вероятности) скорее всего не делается (это дороже подсчёта самой величины).
Не получится написать какие-то реальные «правила» в человеческих терминах, поскольку действуют-то алгоритмы, в которые программеры/асессоры только пытаются вложить некое отражение «их представлений о качественном сайте» + могут быть и непредвиденные последствия машинного обучения, завязанного на простые признаки.
Факт монетизации не проверяется, а параноидально предполагается чистильщиками.
Уже убрал ссылки.js на сайты с метрикой. Стояли несколько лет просто так.
Постеснялся назвать реальный % ... и как определяют про «незаслуженно»... пишут алгоритмы, проверяющие деятельность фильтров? Или руками: сколько из 1000 проверенных?..
Но ощущается и некоторое облегчение... не придётся больше уточнять и править давно уже надоевшие тексты... бросал несколько раз, но опять возвращался, их же много читали.
Не знаю. Ссылками компенсировать можно.
Но а что вам ещё остаётся заполнять, если текста нету?
Это более подходит для альтов тех картинок... хотя это же можно упомянуть и в более длинном тайтле документа.
Скорее будет проблема с индексацией нескольких страниц... если тайтлы различаются минимально. Урлы страниц попробуйте сделать максимально различающимися... типа не сваливайте в одну папку.
Нефиг портить оптимизаторщиной такой диз!
ps самому стало интересно, как сейчас с необходимостью контента для индексации. Слеплен абсолютно пустой документ для поисковиков
<?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet href="user-empty.xsl" type="text/xsl"?> <html></html>
Появится ли он кода-нибудь в индексе?.. урл тупо собран из http://translit.ru/ и http://translate.google.com/
Недавно состоялся аналогичный случай с сайтом, которому более 5 лет, бОльшую часть которых ощущалась Я.любовь.
И это же логика ГСтроя.
Если есть уникальный и интересный материал, то, по хорошему, желательно владельцу/автору решать — где ему оказаться.
В долговременном плане этот пустяк означает наличие или отсутствие мотива: создавать новый интересный контент. Если этого мотива почти не останется, то яшке придётся кормить своих ползателей уникализированным дерьмецом.
... и пришлось вводить карточки на всё.
Если не самоподдерживается минимальный порядок, то производство прекращается... даже если ПС не желает адекватно исполнять роль судьи и цензора, как они говорят... им же самим скоро контекст не начем будет крутить.
Да, ГС с соблюдением всех формальностей я.лицензии будет в индексе и в топе, а первоисточнику будут слать отписки.
Да может попасть в индекс и долго там быть. А в тайтл можете слов 30-50 написать, только не перечисление запросов, а человеческие фразы со словами запросов. Трафф будет именно какой-нибудь.
Да, отдельная. Даже кэш RSS умеет показывать.
inurl:rss.xml > http://help.yandex.ru/school/rss.xml редиректит, наверное давно уже, а вот и кэш.
В роботсе закрывайте /index.php?format=feed или как там они начинаются, и несите в http://webmaster.yandex.ru/delurl.xml каждый урл... и смотрите что ответит.
... и что можно сказать о деятельности этих алгоритмов, если им в любом скрипте видится webmaster.ya.ru/replies.xml?item_no=3772
Писали простые ребята? Или такая параноидальная забота о пользователе?
А смотрят ли они на это доказательство?
Ваш сайт может даже догнать копипастеров и рерайтеров!
А если вы беспокоитесь о видимости в поисковике — это значит вы делали сайт для ботов?
Хотя такие их соображения как бы вдохновляют на развитие в сторону: яндексоиды *****
Вот как раз их светить и не страшно, сам же Яндекс это делает в своей выдаче, и редко чего им грозит. А то, что убиваются сайты, на контент которых когда-то ушло много времени — в долговременном плане выйдет Яндексу боком.
А не важно сколько сцылок, проданы они или на свои сайты... для ихнего алгоритма — один из признаков типа есть.
В прошлом году выкинули из индекса сайтик за появление в разметке по нескольку onClick на страницу... и прислали в ответе webmaster.ya.ru/replies.xml?item_no=3772 webmaster.ya.ru/replies.xml?item_no=325 т.е. вылет был за совокупность подозрений. Тогда после всего лишь трёх писем вернули.
Лучше всего держатся в индексе сайты для роботов — с любым переспамом, любыми тегами.
Там проблема в количестве таких случаев. Их фильтровалка спама не может различать спам с ошибкой менее 3%, судя по % явного спама в выдаче по ашмановскому анализатору. Так что сопоставимый % белых и пушистых попадает под каток. Сколько человеко-времени понадобилось бы для разбора этих ошибок? Им проще не считать это ошибками, да они и не обещали индексировать всех. А вообще, у них несколько другие задачи, и свои фильтры они настраивают не для того, чтобы результат соответствовал их же лицензии — это типа интерфейса с вебмастерами, которым доверять ну никак нельзя.
технофашизм в головах ИТ-либералов
Формулировку полезнее сделать так, чтобы посетителю сразу было понятно, куда он попал / об чём эта конкретная страница.