Старожилы! И что Яндекс правда банит за каталоги ссылок на сайте? Разве это не бред?

Polite Moose
На сайте с 22.04.2002
Offline
85
#101
-=Илья=-:
Так если сайты подходят под запрос, причём подходят примерно одинаково, то как может помешать поисковику то, что наверху будет наиболее продвинутый сайт?

Поисковику мешает грязный шлейф оставляемый продвигаемым сайтом. Горы ссылкопомоек, покупка морд, спам на форумах и гостевых и пр. методы "любой ценой в десятку". Битвы идут не шуточные, поле брани устилают трупы... При этом, ситуация со временем только обостряется. Зачем ПС рыться на этой свалке? Не проще ли просто лишить "бойцов" цели и направить их усилия в более полезное русло (см. про чистку сараев (с) Булгаков).

Удачи, доброго пива (http://www.fifth-ocean.ru/) и настроения! Релевантность определяется не тИЦ, не ВИЦ, не количеством ссылок, не частотой ключевого слова, а соответствием запросу!
Ceres
На сайте с 28.09.2004
Offline
389
#102
Поисковику мешает грязный шлейф оставляемый продвигаемым сайтом. Горы ссылкопомоек, покупка морд, спам на форумах и гостевых и пр. методы "любой ценой в десятку".

Все это останется, даже если введут рандом.

Там чу-де-са! )
Polite Moose
На сайте с 22.04.2002
Offline
85
#103
ra_242:
...В высокочастотниках - другое дело, но их не так уж и много по сравнению с среднечастотными запросами, наверное можно сказать, что этими высокочастотниками являются только коммерческие. По остальным делать ротацию смысла нет..

Дык я про эти коммерчиские высокочастотники и говорил. Возьми любой - неконкретный навигационный запрос.

Кстати, я как-то просматривал много высокочастотных запросов и могу сказать, что выдача не везде 100% "рэлевантная" - очень часто бывает странно видеть, как на одном из первых мест по многомилионному запросу стоит сайт, который непонятно как туда попал. Думаю, многие наблюдали подобное.

Еще один плюс рандома - подобный эффект будет сглажен. Сегодня такой сайт третий, завтра - 25-й. Если "ошибочных" сайтов не много, то в среднем, в 10 они попадать будут реже, чем полноценные.

А тут еще и рандом будет.. Да даже если он будет по высокочастотникам - все начнуть работать "на низах", делать дорвеи и т.д. - "спрос рождает предложение".

Ну, если кроме дорвеев фантазии не хватает, то да. При этом, Яндекс тоже не стоит на месте и улучшает технологии борьбы с дорвеями.

Могу привести собственный пример - я собираю огромную массу низкочастотников (причем до 30% совершенно не тематических), без единого дорвея и без единой внешней ссылки. Только на грамотно организованном и уникальном контенте.

И сделать так, что-бы сайт был хоть иногда на первом месте, зато по куче высокочастотных запросов будет не так-уж сложно.. надо только будет загнать его в рамки ротации :)

Дык! Просто усилий на это потребуется меньше. Соотв. будет меньше грязи.

Да и зачем это надо? Увеличить прибыль от директа? Да ведь ее и так можно увеличить.. :)

И спецразмещения :) Про это действительно не стоит забывать, кстати.

Polite Moose
На сайте с 22.04.2002
Offline
85
#104
ra_242:
Во вторых, забой ссылок принципиально ничего не изменит - все, например, начнут делать шаровые каталоги на каких-нибудь бесплатных доменах типа com.ru (или например в .инфо за несколько баксов), и меняться не ссылками, а например, возможностями добавления в собственный каталог.

Подобные каталоги никогда не получат тематики и приличного "веса", соотв. и ссылки с них будут иметь минимальный эффект.

Или что-нибудь поумнее придумают..

Война брони и снаряда... Не без того. Вопрос в трудозатратах. Почему алгоритм PR так эффективен? (был?) Потому, что на него влиять труднее, чем на контент.

Придет время и появятся новые принципы ранжирования, так же как и методы воздействия на них...

Поэтому наоборот выгоднее, что-бы сайт нес на себе каталог ссылок - это-же элемент ответственности.

А одно другому не мешает :)

R2
На сайте с 04.06.2004
Offline
129
#105
Kostya:
Polite Moose, не пойдет Я своим путем, скорее всего пойдет по пути похожем на патент Гугла.
зачем изобретать велосипед с квадратными колесами?

Патент гугла пока тоже далеко не панацея от всех бед.. хотя в условиях рунета его внедрение, разумеется, будет иметь более чудовищные последствия, чем в гугле.. тут за бразильский фрихост уже не спрячешься. :) Ну ведь и многое из патентованного можно обойти, если захотеть, - покупать в месяц 20 - 30 доменов для дальнейшех разработок, создавая им историю, держать кучу хостинов и т.д. Т.е. все это усложнит жизнь, но принципиально не изменит ее уклад, как мне кажется. Да и посмотрите, что при этом происходит с ценами на рекламу.. а соотвественно и на нашу работу. :)

Все равно получается замкнутый круг - если накладываются жесткие санкции, то сразу начинается активная работа по их преодолению. Мне почему-то кажется наоборот нужно стремиться к некой стабилизации и определенности.. жизнь в поисковиках очень похожа на обычный социум - как только начинается революция сразу поднимается все, что было на дне. Вместо, например, работы над контентом на сайте приходится срочно заниматься разной фигней.

Я думаю, что чем меньше ситуация определена и понятна, тем больше вероятность более логичной и результативной выдачи. (Хотя слово результативной скорее употребляю с оптимизаторской точки зрения :)

Вот например, если бы через бар был доступен виц каждой страницы - ведь в результате мусорок было-бы меньше.. возможно не на много, но меньше - все-бы хотя-бы смотрели на сайт, прежде чем с ним меняться.

Ну а нет вица - есть другой параметр - количество.. от этого и пострадали.

T.R.O.N
На сайте с 18.05.2004
Offline
314
#106
Иногда вижу прямо-таки шедевры. Во вторых, забой ссылок принципиально ничего не изменит - все, например, начнут делать шаровые каталоги на каких-нибудь бесплатных доменах типа com.ru (или например в .инфо за несколько баксов), и меняться не ссылками, а например, возможностями добавления в собственный каталог. Или что-нибудь поумнее придумают..
Поэтому наоборот выгоднее, что-бы сайт нес на себе каталог ссылок - это-же элемент ответственности.

Ну к шаровым доменам у Я воще своя политика. Ведь мало создать каталог, нужно еще создать беклинки. А если это опять превратится в нетематическую помойку, так всеравно результат 0.

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
R2
На сайте с 04.06.2004
Offline
129
#107
Polite Moose:
Еще один плюс рандома - подобный эффект будет сглажен. Сегодня такой сайт третий, завтра - 25-й. Если "ошибочных" сайтов не много, то в среднем, в 10 они попадать будут реже, чем полноценные.

Ну я думаю, что так глубоко ротация все-же не будет.. Некий максимум - в пределах десятки.. Все просто будут делать больше сайтов - если сейчас их стыдливо распихивают по разным запросам :), то при рандоме будут пытаться вставить в один.

Polite Moose:
Ну, если кроме дорвеев фантазии не хватает, то да. При этом, Яндекс тоже не стоит на месте и улучшает технологии борьбы с дорвеями.

Скажу честно - я не знаю что у Яндекса с дорвеями. :) Мне тоже нравятся низкочастотники и вроде с ними нет пока проблем. Я лишь пытаюсь сказать, что рандом только увеличит количество мусора в результате.

Вместо одного сайта по запросу народ начнет продвигать 10.

Да и мало того, еще не ясно, будет ли рандом хуже.. Для меня - точно нет, я хоть спать начну спокойно..

И еще хочу сказать, что и при рандоме можно беспроблем собирать то-же количество трафика, что сейчас, а цены на продвижение, например, вырастут, вслед за директом, рост на который будет неизбежен.

Polite Moose:
Дык! Просто усилий на это потребуется меньше. Соотв. будет меньше грязи

Хм.. ну мне почему-то все-же кажется, что в результате просто количество сайтов вырастет катастрофически и уже никаких индусов не хватит.. :)

-=Илья=-
На сайте с 05.12.2003
Offline
222
#108
Polite Moose:
Поисковику мешает грязный шлейф оставляемый продвигаемым сайтом. Горы ссылкопомоек, покупка морд, спам на форумах и гостевых и пр. методы "любой ценой в десятку".

Сейчас продвигать надо от одного до десяти сайтов на тему. А придётся тридцать. Трудоёмкость возрастёт - возрастут доходы профессионала - возрастёт количество спама. А сетку из тридцати сайтов двигать не так уж сложно.

K
На сайте с 10.03.2004
Offline
254
#109

ra_242, верно говорите, на рандом найдется свой ответ ;)

от ссылок мы не уйдем, но даже сейчас понятно что не смотря на войну по высококонкурентным запросам основной трафик дают и будут давать низкочастотники и здесь оптимизатор и поисковая система - друзья и товарищи :)

я не думаю что Я будет внедрять рандом для нескольких сотен запросов. По ним все равно выдача релевантная. Давайте смотреть шире, задача ПС дать наиболее правильный ответ на запрос пользователя и эта задача не будет решана рандомом одной другой золотой сотни запросов

Белых оптимизаторов, работающих над внешними факторами, не бывает. И да, мой блог (http://blog.skobeeff.ru/).
T.R.O.N
На сайте с 18.05.2004
Offline
314
#110

-=Илья=-,

С вашим утверждением трудно не согласится. Но оно еще подтвердает и то, что вместо того, чтобы уменьшать количество мусара в сети, и копий информации, нас вынуждают плодить его, ну или не дубли, а вариации на тему.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий