FrogTail

FrogTail
Рейтинг
127
Регистрация
05.06.2006

Никаких собственных правил Яндекс не нарушил, а если вдруг нарушит - просто изменит эти правила. Оптимизаторам бодаться с ним практически бесполезно, так что берегите нервы ;)

ЗЫ "Хороший, Плохой... Главное - у кого ружье!"

Бгг, в 5 лет написал такую вот "записку" печатными буквами справа налево: "заказывате падарки патамушта я буду валшибиком". Записку принес дедушке с бабушкой))

ЗЫ никто не знает курсов для начинающих волшебников? ))

kbv79:
Эта и все остальные статьи написаны компьютером?
Информации - ноль, методика не раскрыта, написание "анхоры" во всех случаях.

Ткните пальцем, где сейчас раскрывают какие-либо ноу-хау по SEO нахаляву :P

99% того, что сейчас в открытом доступе - либо вода, либо прописные истины...

Вопрос номер один:

Признаки СДЛ для кого? Для пользователя или для поисковика? ИМХО, надо рассматривать именно с точки зрения поисковика - все-таки оптимизаторский форум :P

А то в топике приводят некоторые параметры, которые поисковику практически нереально определить, или которые элементарно накручиваются...

Вопрос номер два:

Что такое СДЛ? Сайт Для Людей? Считаются ли оптимизаторы покупающие ссылки на говносайтах и те, кто эти говносайты делают - людьми? Неужели нет? :)

Может все-таки стоит сформулировать как-нибудь так:

СДЛ - сайт, основной целью создания которого не является влияние на выдачу поисковых систем.

То есть Вы можете сделать сайт для пользователей, для себя, просто по приколу и тд и тп - это и будет СДЛ.

При этом Вы совершенно спокойно можете размещать на нем рекламу, ссылки и так далее - и сайт все равно останется СДЛ.

Так что грань между СДЛ и сайтами "для целей оптимизаторов" очень нечеткая. Например, у моего друга копеечный саттелит приняли в ДМОЗ просто так без заявки, просто сайт модератору понравился.

Если пробежаться по пунктам, которые тут предлагали:

1. Нормальный домен. Не покатит, полно хороших сайтов на поддоменах и саттелитов с красивыми доменными именами.

2. Посещаемость. Как поисковик отследит посещаемость сайта? Даже если отследит - накрутить вообще не проблема (вспомните времена каталогов-рейтингов). Так что переходы с закладок - тоже не покатят.

3. Уникальный контент. Не пойдет. Если я сделаю красиво структурированный сайт для того, что бы можно было легко искать информацию, которая так же есть на других сайтах, но не структурирована, и, например, без картинок - это уже не будет СДЛ? А если у меня с сайта скопипастят инфу? Или вообще, например, сопрут и выложат мою диссертацию до того, как я вывешу её на свой сайт?

4. Обновляемый контент. Во-первых, не во всех темах часто обновляется информация. Во-вторых, не у всех есть время, желание и возможность обновлять когда-то завершенные сайты.

5. Отсутствие нетематических ссылок. Хм, ссылка с сайта о рыбалке на сайт о рецептах является тематической? Или с сайта о дорогих автомобилях на сайт ювелирного магазина? + я могу поставить ссылку на сайт своего лучшего друга, который вообще к теме моего сайта и близко не лежал - это уже будет значить, что мой сайт не СДЛ?

6. Отсутствие рекламы. Почему? Я сделал сайт, выложил какую-то полезную инфу, может даже сервисы интересные. Я хочу развивать сайт дальше, но для этого нужны деньги, почему бы мне не начать размещать рекламу. Или Вы думаете, что, например, футбол только для того, что бы люди смотрели рекламу спонсоров? ;)

7. Дизайн, удобство. Как поисковик это вообще может определить? Никак... + к этому полно сайтов энтузиастов, которые в верстке и вебдизайне вообще ни-бум-бум. Кстати, один из любимых сайтов, которые я посещаю почти каждый день, имеет отвратительное юзабилити...

Уж если человеку порой сложно определить, где СДЛ, а где сайт для продажи ссылок или другой рекламы - то про поисковик и говорить нечего.

ЗЫ может быть вопрос стоило сформулировать более практично?

Например: "по каким признакам Яша пытается отфильтровать говносайты?" ;)

G00DMAN, прочитал Вашу статью, большое спасибо. Не согласен с одним моментом.

Если объяснять совсем "на пальцах", с самого начала:

-----------------------------

Алгоритм работы:

1. Яндексоиды (люди) вручную делают подборку пар "запрос - документ", и сами (ВАЖНО КАК!) присваивают этим парам значение релевантности.

2. Загружают в программу большое количество жутких математических формул, не имеющих никакого отношения к релевантности. В этих формулах участвуют как стандартные параметры типа "вхождение запроса в текст страницы", так и всякие совершенно левые коэфиценты.

3. Потом говорят программе: используя эти формулы и коэфиценты получи результат максимально близкий к "истинному".

4. так как параметров огромное количество, машине придется подбирать такой алгоритм, что бы при учете всех этих параметров во всех контрольных случаях результат выдавался близкий к "истинному".

То есть машина методом тыка и подбора рано или поздно выведет ПРИМЕРНУЮ и более-менее рабочую формулу рассчета релевантности.

------------------------------

Но это только в том случае, если машина не будет чесать левое ухо правой пяткой: ведь к одному и тому же результату можно прийти совершенно различными методами, и алгоритм, который далнормальный результат во всех контрольных случаях может выдать совершенно нелепый результат в каком-то другом случае.

Теоретически, как только яндексоиды заметят, что их механизм чешет ухо не той конечностью, они скажут "ты делаешь неправильно". После чего программе придется искать новые варианты.

Вопрос в том - как быстро они будут замечать подобные вещи и не будет ли вообще глючить сама машина... это все-таки Яндекс...

Оптимизаторам это грозит в первую очередь постоянными глюками недоучившиейся программы...

На тему того, что мы не будем знать, какие именно факторы как влияют:

Да, это несколько усложнит работу, но поисковик всего-лишь посредник между кучей сайтов и человеком. Поисковики сараются выдавать пользователю то, что он ищет, то есть стараются думать как он.

В данном случае контрольную выборку опять-таки делает человек, и для того, что бы примерно понять, как именно теперь продвигать сайты, нужно будет просто задать себе вопрос, "а если бы я выбирал наиболее релвантный из этих сайтов, на какие параметры я бы ориентировался?" - и работать над этими параметрами. Так что глобально ничего не изменится...

ИМХО, самой большой проблемой будут именно глюки и сам процесс обучния поисковика...

Может я неправильно понял, но в голову пришла такая аналогия:

Яндексоиды берут мозайку, сами её складывают в красивую картинку и показывают машине.

Потом дают машине банку, насыпают в неё кучу фрагментов мозайки и говорят "тряси, пока у тебя не соберется картинка, похожая на ту, что мы тебе показали"...

Вспоминается цитата с башорга:

"Мне недавно рассказали как делают корабли в бутылках. В бутылку засыпают силикатного клея, говна и трясут. Получаются разные странные штуки, иногда корабли"

AXS:
Понимаю ваш сарказм, но тем не менее каждый считает своим долгом сказануть "ап хороший" или "ап дерьмовенький".
Хотя правильнее было говорить "Вот я молодец" или "Вот я тупанул"

ИМХО, Вы все-таки не правы... Тема не лишена смысла, просто надо уметь вытаскивать полезную информацию из кучи шлака...

Если новички пишут, что у них попадали позиции - пропускаем, а вот если множество зубров начинает подвывать от неожиданных падений собственных проектов - это уже интересная информация. Если был ап, но все пишут, что подвижек почти нет - тоже интересно... Да много чего можно интересного узнать... Про сообщения о всевозможных глюках и новых подарках от Яндекса я уже вообще молчу... :P

petruxa:
Ну... вы видимо относитесь к тем, кто считает что поисковые системы (в их нынешней модели, с "релевантностью" и прочим) будут существовать всегда, а значит и СЕО будет вечно=)
Я просто так не думаю, потому и точки зрения у меня другая. Не сочтите за оскорбление, это исключительно моё ИМХО.

Отнюдь. Я тоже вкурсе, что ничто не вечно под Луной. Но ориентируюсь я не на сегодняшние поисковики, а на людскую природу ;)

У людей есть алгоритмы мышления, выбора и тп - и под них тоже можно оптимизироваться (что с успехом и делалось последние эдак 40 тысяч лет;))

petruxa:
Да в том и дело, что при нынешних масштабах линкоторговли - далеко не вечная. Ссылочное ранжирование как идея с каждым днем все больше трещит по швам=)

Вечная... они придумывают новые алгоритмы\фильтры, мы под них подстраиваемся\обходим... и так до бесконечности, просто и алгоритмы ранжирования и методы подстраивания под них будут становиться все сложнее и сложнее. Вспомните историю seo ;)

petruxa:
А что касается владельцев "серьезных" ресурсов, тут самый тонкий момент в том что в большинстве случаев "владелец" и человек размещающий внешние ссылки - разные люди. И в большинстве случаев владелец может и не подозревать о том, что вообще происходит с его сайтом и для чего, ибо о ссылочном ранжировании имеет очень смутное представление.
Или, повторяю, человек ответственный за сайт меняется. И новый человек оказыается не просто жадным, но еще и имеющим представление о трасте и ссылочном ранжировании. И он начинает...не просто размещать ссылки, а еще и нехило ломить цены.

А Вы думаете, что те кто придумал траст, этого не понимают?

Понятное дело, что оптимизацию не искоренить. Если есть алгоритм - можно его понять и под него подстроиться. Ввод трастранка просто лишнее препятствие, которое усложнит и удорожит оптимизацию. Хотя бы то, что множество оптимизаторов на серче спрашивают друг у друга "а как определить траст?", показывает что трастранк уже приносит пользу поисковым системам ;)

Даже если (когда) будет возможность покупать трастовые ссылки - это будет уже не так массово и просто, как сейчас, например, закупка ссылок через сапу.

Всего: 914