Я бы еще добавил в структуру пункт скажем после пункта III
Задачи, решаемые поисковыми системами.
Задачи, решаемые оптимизаторами.
Чтобы Кодекс показывал различие и общность целей SE и SEO.
И в разделе методы после каждого метода "оставлять место" для комментариев данного метода представителями SE.
После написания данного Кодекса (если таковой будет написан :) ) разослать в SE за комментариями. Если они соизволят их написать включить в окончательный вариант Кодекса. По моему только если в Кодексе будет отражено отношение SE к тем или иным методам - документ приобретет настоящую ценность.
Да но ни один из нас не может ответить почему один сайт со спамом забанили а почти такой-же спокойно себе болтается в выдаче.
Грань между тем что можно, что нельзя, на что могут посмотреть сквозь пальцы, а за что могут и прибить, могут провести только представители поисковиков. Мы можем судить только на нескольких примерах, которые у нас в пределах досягаемости (личных, услышанных от знакомых часто с субъективной оценкой). Целостной картины мы не видим. То что мы считаем как причину для бана на самом деле таковой может не являться. SE свои действия не комментируют. Только люди, которые видят целостную картину того, как тот или иной вид спама влияет на качество выдачи, могут очертить круг правил,регламентирующих применение тех или иных методов оптимизации.
В принципе с существованием такого документа я согласен. И 6 пунктов мы уже наскребли :)
Еще чего-то дописать о самоограничениях в продвижении плохих сайтов и можно публиковать как "Кодекс юного оптимизатора" :)
Но самую важную часть правил могут написать только представители SE
Вот если б они эту часть документов написали а не только обсуждали.
Это кстати облегчило бы и им жизнь и нам.
Да. Представители поисковиков, которые заносят сайты в бан лист :)
Только они могут написать хоть приблизительный список правил, по которым они банят сайты.
Наверняка у них есть робот, который выносит странички на рассмотрение модератора. Не все же сайты банятся по стуку.
Вместе не получится. Уж слишком разные задачи стоят у оптимизаторов и поисковиков. Оптимизаторы стремятся поднять в выдаче сайт за который платят (и не всегда этот сайт имеет самый лучший контент с точки зрения пользователя). Поисковики стремятся выдать пользователю на его запрос самый лучший контент. Тоесть интересы расходятся. И те и другие можно сказать "ведут борьбу". И эта борьба проходит на поле поисковиков и по ихним же правилам.
Но большинство жалоб на этом форуме относится к отсутствию правил по которым с поля удаляют или штрафуют. Без знания этих правил люди их нарушают часто и непреднамерено.
Игра была и будет продолжаться. И секреты успешной игры (способы успешной оптимизации и алгоритмы ранжирования выдачи поисковиков) никто как не открывал так и не будет открывать. Но общие критерии для удаления с поля написать нужно уже давно. И вывесить на всеобщее обозрение трупы убитых на поле тоже не помешало бы для острастки других и примера как делать нельзя.
Так что я думаю здесь должен не кодекс оптимитзатора писаться а правила за которые можно быть удаленным с поля. И сделать это могут только представители поисковиков. И подчеркиваю здесь не будут раскрываться алгоритмы выдачи, которые они так ревностно охраняют, а список правил "чего делать нельзя"( с достаточной степенью конкретизации)
А полный никто и не просит. Всем и так понятно, что полного в природе не существует. И вообще сейчас этот список зависит от настроения модератора банлиста :)
Но не все-же сайты к Вам в банлист через spamreport@... приходят.
И есть у Вас какой-нить робот, который выдает кандидатов на рассмотрение по каким-то критериям.
Напишите свод правил для того чтобы очертить грань за которую переступать опасно/ смертельно.
Почему нельзя?
Если сформировать набор правил, которые с определенной степенью точности описывают критериии алгоритма определения спама - это облегчит жизнь не только спамерам, но и нормальным людям :)
Например если частота встречания "слова" находится в таких-то пределах - то сайт становится кандидатом в бан лист.
За использование невидимых шрифтов - смерть на месте.
и т.д.
Даже если сотня сайтов будет иметь по 98 "слов" . Какая разница от этого поисковику? Все сайты будут приблизительно релевантны этому "слову".
Но если сформулировать правило так: от 60 до 99 "слов" -является поводом для рассмотрения в бан лист. В таком случае 98 "слов" уже не будет у всех.А из тех кто осмелится впихнуть 98 слов забанить спамерские сайты с чистой совестью можно :-)
Зачем нужны эти правила? Все тут так пекутся о их отсутствии.
Правила нужны чтобы знать где та грань за которой ты можешь залететь/ точно залетишь в бан лист. Делая нормальный сайт, я естественно хочу чтоб он был на высоких позициях в поисковике и не хочу чтоб его забанили из-за того что я не зная рамок дозволенного перегнул палку.
И потом доказывай что ты не верблюд и три горба нарисовал потому что думал что верблюды такие тоже бывают.
Это кстати облегчит жизнь и поисковикам. Меньше сайтов будет нарушать правила от их незнания.
Я думаю симбиоз поисковика и каталога должен давать наилучшую выдачу.
Каталог не может охватить все а поисковик разделить по тематикам.
По всем только со второго раза :)
Когда я делаю первый запрос система не знает что я хочу найти.
Может я набрав "работа" ищу работы карельских фотохудожников :)
А вот предоставив несколько альтернатив (тем) и сделав затем релевантную выборку с учетом тИЦ можно более полно удовлетворить пользователя.
Сейчас напротив сайта в яндексе есть ссылка по которой тупо перекидывается пользователь в раздел каталога. Нужно ( и я думаю это не очень сложно реализовать) сделать ссылку "еще по теме [название раздела каталога]". Если там будет нормальная выдача ( не по описаловам из каталога) но с учетом тИЦа - то такой сервис приживется.
Ну и сейчас есть каталоги, которые живут своей жизнью. Яндекс в последнее время пытался каталог в выдачу поиска подпихнуть - но по моему это у него не сильно удачно получилось :(
По моему поиск должен быть только поиском а не описаниями из каталога.
По моему добиваться от автомата нахождения смысловой нагрузки страницы относительно запроса и отнесение её к той или иной категории это утопия. Можно посадить людей и разбить самые популярные запросы на тематики аналогично тому как мы проделали выше относительно зимнего сада. Но я сомневаюсь в компетентности работников это проделывающих абсолютно во всех областях популярных запросов. И при этом встает еще одна проблема. Как определить какая из категорий ответов больше интересует пользователя, сделавшего запрос. И при ручном разбиении мы опять возвращаемся к каталогу.
Решение частично найдено yahoo
При запросе "winter garden" над выдачей поиска выдаются пути по каталогу, где встречаюся зимние сады (Глызина там правда нет :-)
И половины из найденных нами значений зимнего сада тоже.
По моему выдача должна строиться по релевантности с указанием тематики сайта по каталогу и рядышком должна быть кнопочка, нажав на которую пользователь получит релевантную выдачу с учетом тИЦ. При этом выдача должна быть действительно релевантной запросу а не по каталожным описаниям. А повышение роли тИЦ во вторичной выдаче будет гарантией того,что тематика сайтов будет более относиться к интересам пользователя.
Никто и не спорит что этот сайт не имеет право на существование.
Но когда я ищу в поисковой машине - я обычно, кликнув по ссылке, ищу на открывшейся странице слова из запроса. Или хоть что-то относящееся к теме запроса. Если там такого нету - я закрываю сайт а не начинаю методично обходить все страницы в поиске "бензопил".
Речь идет о подмешивании в результаты поиска страниц с релевантностью запросу равной 0. Я понимаю если сайт в каталоге и проверен цензором - вероятность того что он нормальный и содержательный выше.
Но! Должна же у него хоть какая-то релевантность запросу!
Да если страничка хоть немного релевантна и умножить это на повышающий коэффициент крутости сайта от присутствия в каталоге, от высокого ИЦ и проч. Но совершенно нерелевантные страницы вытягивать в выдачу на высокие места за счет присутствия в каталоге - это продажа услуг каталога :-)
Если я захочу поискать информацию по описаниям в каталоге - я пойду "искать в каталоге". А много нормальной и нужной информации опускается на последующие страницы за счет продвижения услуг каталога :-(
В мире есть куча полезной и интересной информации на сайтах не присутствующих там. И люди выложившие эту инфу никогда не будут платить деньги за прием в каталог. А тот кто ищет будет натыкаться на сайты далекие от темы, но присутствующие в каталоге.И вкусы ищущих не всегда совпадают со вкусами "описывателей" из каталога.
Пару тройку месяцев такой "качественной" выдачи и народ повалит на другие поисковые системы.
Потом насчет склейки доменов.
Как то тут все поутихло. Если я ищу информацию локального значения и ввожу название города. Все сайты находящиеся на общественных доменах склеены в кучу и прикрыты сверху каким-нить сайтом из каталога.
Почему бы не расклеить домены общественного пользования как хостинги.
Они имеют право на свое место под солнцем :-) При существующем положении просто так,написав релевантную страничку по не сильно конкурентному запросу (не всем же коммерция нужна),в выдачу всеравно высоко подняться трудно.
К чему это я все? Как не декларируют товариши из Яндекса независимость выдачи поиска от влияния коммерческого отдела - влияние просматривается явно.При нынешнем положении вещей поисковик выдает не действительно искомую информацию - а на первых позициях сайты владельцев заплативших за добавление в каталог.