Не зачешутся... пока не увидят, что их искатели (или даже кликатели по директу) от них уходят к конкурентам и не первый месяц (а на это больше влияет не качество поиска).
Они по своим т.н. метрикам видят только общее улучшение, а отдельные нежелательные частности считают допустимыми и якобы проверяют потом:
и на всякий случай никакого конкретного % не названо.
Есть МФА-ТОПы...
... они не рассматривают выдачу отдельно от Директа.
Эт всё игры.XML ... боту одно, посетителю другое... и при этом никакого клоакинга: бот имеет возможность взять тот же контент/шаблоны и выполнить XSLT, но его создателям лень.
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D0%BF%D1%83%D1%81%D1%82%D0%BE%D0%B9
Урл — тоже контент:
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D1%82%D1%80%D0%B0%D1%84%D0%B8%D0%BA
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81&filter=0
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D1%82%D0%B5%D0%BA%D1%81%D1%82&filter=0
осталось только выяснить максимальную длину такого сочинения в урле почти пустой страницы. Может кто уже знает?
Было свободное время, решил поулучшать сайтик, на котором почти художественный текст, и не может быть более 50 уников ... в HTML-коде страниц уже давно было заметное количество document.write /* тогда Гугль туда не лез */ и ссылка на внешний файл.js
Изменил много <h3> на <h3 title="ссылка" class="anwe" id="zagolovok" onClick="wo('#zagolovok')"> и чего-то подобного, вполне безобидного.
спецсимволов много добавил... именились почти все страницы.
через пару месяцев:
в поиске страниц 0
в их ответе — сцылки на их отношение к сео-сцылкам и кликандерам
(с сайта была единственная сцылка во вне, но к тому времени уже вела на «домен продаётся»)
Вот и что они анализируют? Тупо наличие внешних и чего-нибуть.JS в сочетании с обновлением заметной доли страниц? Или это бот обучился как мог на маленькой обучающей выборке?
Сейчас они не всегда присылают ссылки-намёки на «в чём именно подозревается».
когда стал это вспоминать после недавнего вылета более ценного сайта, по прошлогоднему вылету, переписке и возвращению... стало понятно, что:
Это косвенно подтверждено, как бы:
при этом действует не человек, а бот, которому люди лишь задали тенденции... и если вместе с 18-ю дорами попадётся один не-дор, ну ... что ж бывает, им отписку: Если будете развивать и улучшать, мудрые алгоритмы это заметят и со временем...
ВМ и программеры ПС (и их боты) разговаривают на очень разных языках. Пессимизация — не за умысел и не за факт, доступный человеку, а по причине наличия признаков, доступных арифмометру.
А задайте им этот вопрос и запостите ответ. (это оне кагбе намекают, что проверяют не так, как человек/браузер)
Тогда не по наведению, а по загрузке страницы, например.
А потом посмотришь на 100 KB HTTP-заголовков после простейших манипуляций в Я.почте ... ну и чего же наэкономили?
Это как минимум ещё одно HTTP обращение. И ожидание первой загрузки мегаскрипта.
То хотите через Аякс, можно и без JS, пример — http://seo-xslt.narod.ru/DEMO/perelinkovka-gavno.xml
покажет и при выключенном в браузере выполнении скриптов, но не с плагином NoScript… если не залезть в его изначальные настройки.
Зачем?
Это опровергает сам же Сегалович:
Интересно, 3% или 7?
Или 0.1%, но по их же всегда правильному 🙅 автоматическому определению?
А про то, что такое «хороший авторский контент», дал понять, что ... его распознавание не является их реальной целью, ну не считают они это выполнимым:
Им надо (без лишних затрат) быть популярными, а это не синоним качества. Так что у ГСтроя большие перспективы, и это почти во всём мире так.
Выполнения XSLT ими тоже пока не замечено.
Без JS вполне возможно сделать одни ссылки видимыми ПС, другие нет.
1. Удобно ли это будет простому посетителю?
2. При этом для поиска страница останется без контента. Что боту показать? И как? Вам прятаться или показываться?
Любой Сегалович подтвердит, что: современные искалки не умеют воспринимать человеческие факты (правила и интересы), зато умеют быстро просеивать кучу документов, выделяя самые примитивные признаки, доступные алгоритмам. Реальную релевантность вычислить они не могут, только вероятность релевантности.
И фильтры определяют не факт, а вероятность... чего-то вредного. Поэтому, когда человек читает фразу
— не следует думать о состоявшихся конфликтах, речь только об их вероятности... с т.з. алгоритмов, обученных как уж получилось.
В ситуациях реальной неопределённости — принимается решение против сайта (факт помню). А точный подсчёт неопределённости (ошибки величины вероятности) скорее всего не делается (это дороже подсчёта самой величины).
Не получится написать какие-то реальные «правила» в человеческих терминах, поскольку действуют-то алгоритмы, в которые программеры/асессоры только пытаются вложить некое отражение «их представлений о качественном сайте» + могут быть и непредвиденные последствия машинного обучения, завязанного на простые признаки.
Факт монетизации не проверяется, а параноидально предполагается чистильщиками.
Уже убрал ссылки.js на сайты с метрикой. Стояли несколько лет просто так.
Постеснялся назвать реальный % ... и как определяют про «незаслуженно»... пишут алгоритмы, проверяющие деятельность фильтров? Или руками: сколько из 1000 проверенных?..
Но ощущается и некоторое облегчение... не придётся больше уточнять и править давно уже надоевшие тексты... бросал несколько раз, но опять возвращался, их же много читали.
Не знаю. Ссылками компенсировать можно.
Но а что вам ещё остаётся заполнять, если текста нету?
Это более подходит для альтов тех картинок... хотя это же можно упомянуть и в более длинном тайтле документа.
Скорее будет проблема с индексацией нескольких страниц... если тайтлы различаются минимально. Урлы страниц попробуйте сделать максимально различающимися... типа не сваливайте в одну папку.
Нефиг портить оптимизаторщиной такой диз!
ps самому стало интересно, как сейчас с необходимостью контента для индексации. Слеплен абсолютно пустой документ для поисковиков
<?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet href="user-empty.xsl" type="text/xsl"?> <html></html>
Появится ли он кода-нибудь в индексе?.. урл тупо собран из http://translit.ru/ и http://translate.google.com/
Недавно состоялся аналогичный случай с сайтом, которому более 5 лет, бОльшую часть которых ощущалась Я.любовь.
И это же логика ГСтроя.
Если есть уникальный и интересный материал, то, по хорошему, желательно владельцу/автору решать — где ему оказаться.
В долговременном плане этот пустяк означает наличие или отсутствие мотива: создавать новый интересный контент. Если этого мотива почти не останется, то яшке придётся кормить своих ползателей уникализированным дерьмецом.
... и пришлось вводить карточки на всё.
Если не самоподдерживается минимальный порядок, то производство прекращается... даже если ПС не желает адекватно исполнять роль судьи и цензора, как они говорят... им же самим скоро контекст не начем будет крутить.