Тётка, даже не разбираясь в теме, может легко отличить некачественный контент... а программер так говорит, что становится понятно, что и отдалённой задачи такой перед собой не ставит.
У массового сервиса есть предрасположенность в сторону всего популярного... не требующего существенных вложений. Это обстоятельство и побеждает.
Это слишком человеческий язык.
Определяющим окажется НЕ ваша деятельность... а то, как она увидится простецким таким алгоритмам. Уже два примера имею без продажных сцылок, и на незначительных сайтах пробую повторить ту же последовательность действий, протоколируя их...
... раньше (на человеческом языке) померещилось:
Врёт. Запрос тег h1 h1-h1-h1-h1-h1.narod.ru › H1/h1.xml на грани топа10, демка для бредотем. Посчитайте количество повторов в тайтле, 7 слов h1, + всё это завуалированный список поисковых запросов, + в браузере видно не тот тайтл, что видит бот, + <h1> заменяется на <p> но текст почти человеческий.
Вывод: ихние алгоритмы действуют не так, как вещают платоны... и придётся их изучать, хотя яндексоиды этого и не хотели бы.
У матрикснето-образных фильтровалок местами может быть доля ошибок, которую заранее подсчитать не получится, и потом не получится — по причине слишком большого их количества. Зато всем можно автоответить про несоответствие вашего говна божественно правильным представлениям ихних алгоритмов.
По ашмановскому анализатору в выдаче до 4% явного спама (по очень консервативному списку признаков), в действительности больше, если считать ещё и всякую псевдо-инфу. Угадайте: какой % правильных сайтов яндексоиды согласны ошибочно счесть спамом?.. пока борятся с тем, что надо было побороть ещё лет 10 назад. Современного спама в упор не видят.
Не всё равно.
Скажите простому программисту: как это выразить в коде?
А то, когда им простые журналюги указывают на очевидную для нормальных людей проблему, они отвечают, что её решить трудно:
Так что хватит тут рассуждать как люди... ботов делают иначе.
ps и про умение «хорошо отличать спам от не-спама» в % ошибок следовало бы, а не в «хорошо». Кто же скажет, что делает это плохо. А уж про неумение распознавать современные виды почти-спама... ещё лет несколько будут молчать.
Когда-то давно... нормальные люди научились одевать т.н. богов в человеческие представления. Оптимизаторы так же поступают с API... чему создатели не мешают, преследуя, однако, несколько другие цели.
Может быть ещё скажите, что они и ранжируют по релевантности запросам ползателей?
Это автоответчик. И далее будет он же.
А если после этого появляется 10% страниц в индексе, тогда что это было?
Есть же пределы, в которых сколько-то помещается. И выглядит приемлемо и в гугле как-то, и может быть НК.
Хоть иногда заглядывайте в html показываемых примеров...
Это надо проверять на реальных искателях... они не всегда действуют так, как кажется.
Не обязательно.
У всяких матрикснетов типа образное восприятие... «хороший» от «плохого» различают не только по количеству чего-то в документе, а по некоторой комбинации признаков, остающихся неизвестными. И эта комбинация может быть как у «хорошего» ответа и при почти спаме в тайтле, и как у «плохого» — при отсутствии спама в любой части документа.
Поэтому уже давно бессмысленны крики типа: «У конкурентов ещё больше!»
Вы значит и есть копирайтер, который пишет слова... вот вам бы не смысл, а аргументы... и они остались пустыми. Чем кончилось-то всё?
Любимые предрассудки не надоедают.
http://yandex.ru/yandsearch?text=%D0%BC%D0%B0%D0%BB%D0%B5%D0%BD%D1%8C%D0%BA%D0%B8%D0%B9+%D1%88%D1%80%D0%B8%D1%84%D1%82+%D1%81%D1%80%D0%B5%D0%B4%D1%81%D1%82%D0%B2%D0%B0%D0%BC%D0%B8+XSLT+CSS+%D0%B2+%D1%82%D0%B5%D0%B3%D0%B5+h1
зы кому интересно, посмотрите по запросу =тег h1=
7 повторов в тайтле — не спам.
Я.зомби — не читатель... кликабельность != читабельность. Честно.
Есть доказательство их вредности????????