Гипотеза: Как просто Яндекс определяет SapeXap-ссылки

kardens
На сайте с 09.07.2006
Offline
136
#31
kikimor:
Дык он не всех непотит и банит, а только самых жадных. Бывает правда и нормальные сайты под раздачу попадают. Но, на то и Рассея - лес рубят - щепки летят.

Так это что? Жадность яндекса?

Оно конечно понятно, если чел превратил свой сайт в помойку: понатыкал ссылок настолько, что они превышают полезный контент, да еще и не обновляет информацию (или вся его поддержка заканчивается на оплате хостинга) - тогда оно еще возможно...И то не совсем - чел может и не стремиться в топ, чтобы не забивать своей мусоркой выдачу, он просто пытается заработать на своем сайте, ссылки то покупаются с целью получить повышение ТИЦ и PR....

Если снизу посмотреть, то сверху можно подумать, что сбоку не видно...
CS
На сайте с 18.03.2007
Offline
11
#32
kardens:
Народ!
А кто может пояснить, почему, собсно яндекс банит и непотит продажные сайты? Что плохого в том, что люди зарабатывают на своих творениях? Что, сайт с продающимися ссылками портит выдачу? Или это просто неуемные амбиции яндекса? Почему не дать людям заработать?

Зарабатывают не на свох творениях, а на яндексе:)

И делается это тоже - для яндекса.

А раз так, то получается немного другой расклад:)

Хотя я вижу уже отписани по этой теме.

По сути за сапу в баню не отправят, просто не станут учитывать ваши ссылки.

Возможно только некоторые.

Теперь как определять сапу... 90% может отсеять и школьник.

Сапа стоит обычно в определенных местах, уникальных пар ссылка-анкор не так много.

Количество исходящих внешних ссылок с такого сайтов нереально, да еще и уникальные.

Динамика и характер изменений этих частей страницы - много внешних исходящих, меняются так же, на внешние исходящие. Зачастую меняются довольно динамично.

Сделав простенький анализ того, на кого эти сайты ссылаются и проанализировав беки самого пробвигаемого сайта можно почти со 100% вероятностью определить как двигается сайт и не учитывать ссылки со всех концов это сслочной звезды(*).

У уважением.

R2
На сайте с 01.02.2007
Offline
28
#33

Я, наверно, не совсем въезжаю... :(

топик называется: Как просто Яндекс определяет SapeXap-ссылки

Какие анализы, какие алгоритмы...

Яндекс регистрируется в КСАПе/САПе как рекламодатель,

заказывает все параметры ссылок - и ПОЛУЧАЕТ все (квази-все) сайты в системе, продающие ссылки.

Все.

ИМХО, для Яши это обойдется гораздо дешевле (копейки!), чем оплата программеров,

изобретающих новые схемы.

Дмитрий
На сайте с 23.08.2006
Offline
222
#34
Народ!
А кто может пояснить, почему, собсно яндекс банит и непотит продажные сайты? Что плохого в том, что люди зарабатывают на своих творениях? Что, сайт с продающимися ссылками портит выдачу? Или это просто неуемные амбиции яндекса? Почему не дать людям заработать?

Этот заработок заставляет сервера яндекса неправильно оценивать "важность страниц" для пользователя.

http://forum.yandex.ru/yandex/questions.xhtml?message_id=1398691

Raul21, +1. Я про это уже говорил, страно что никто не заметил

Разрабатываю и автоматизирую на php http://jonnyb.ru/
V
На сайте с 19.07.2005
Offline
64
#35

Вопрос ТС:

Зачем Яндексу определять и фильтровать сепы, ксапы и т.п.?

я.в.ч.с.с.а.ч.
E
На сайте с 27.08.2006
Offline
93
#36

JonnyB, Raul,

Согласен, что это наиболее простой метод. Но у него есть свои недостатки:

1. Чтобы получить все сайты с Xapa нужно заказать 20000 - 50000 ссылок и ждать около полугода (всем известна скорость размещения xap).

2. Нет гарантии что найдутся хотябы 50 процентов сайтов таким образом.

3. Метод не универсален (для будущих систем)

4. Я думаю яндекс как уважающая себя программистская контора просто не будет заниматься таким руко..., а постарается найти программные (алгоритмические) решения проблемы.

E
На сайте с 27.08.2006
Offline
93
#37
vasquez:
Вопрос ТС:
Зачем Яндексу определять и фильтровать сепы, ксапы и т.п.?

Смотри ответ JonnyB вверху

Дмитрий
На сайте с 23.08.2006
Offline
222
#38
1. Чтобы получить все сайты с Xapa нужно заказать 20000 - 50000 ссылок и ждать около полугода (всем известна скорость размещения xap).

Большое количество сайтов открыты, поэтому можно легко их собрать, воспользовавшись поиском площадок.

2. Нет гарантии что найдутся хотябы 50 процентов сайтов таким образом.

Конечно хотелось бы что бы владельцы xap и sape систем отписались тут по повуду % сайтов со скрытыми url.

3. Метод не универсален (для будущих систем)

Как и для текущих, например в сэйпе: настройка -> "Скрывать URL". Яндекс никупив ссылку уже не пропарсит.

4. Я думаю яндекс как уважающая себя программистская контора просто не будет заниматься таким руко..., а постарается найти программные (алгоритмические) решения проблемы.

Наверное..

По сути скрыть ссылки не трудно:

1. Скрытый урл.

2. Ручная модерация.

3. Правильное оформление блока (ов).

P.S. Только что понял что мы говорим про разные системы.

P.P.S. Залез на ксап, уже с месяц висит сайт, который просил удалить модераторов письмом в почту. Ксапы до сих пор капают.

P.P.P.S. Из 2-х систем мне больше приглянулась sape.

P.P.P.P.S. Яндекс - не "программистская" контора 😂

К
На сайте с 21.01.2004
Offline
147
#39

Не будет Яндекс регистрироваться в Сапе и вручную что-то отбирать. Явно не их путь это.

Убежден, что они будут решать (скорее уже решают) эту проблему алгоритмически.

V
На сайте с 19.07.2005
Offline
64
#40
egosoccer:
Смотри ответ JonnyB вверху

Я понял. Не понятно почему Яндекс должен определять конкретно сайты сейпа и ксапа? Это геморное дело. Не будет сейп будет что-то другое. И так до бесконечности.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий