Будущее поисковых алгоритмов - ваши предположения...

Mishael
На сайте с 08.11.2001
Offline
217
#91

Я уверен что пользу принесут следующие пути:

1. Поисковики значительно увеличат важность трастранка (репутации) ссылающейся Страницы, и уменьшат важность ссылочного, т.к. на 90% все равно анкоры чаще всего это либо спам, либо урл, либо незначащий текст "тута" и "здеся" :)

2. Обязательно будет учитываться посещаемость сайта в той или иной мере, т.к. по этим данным, которые весьма сложно и дорого правильно фальсифицировать, вполне можно сделать немало Очень интересных выводов. Пути получения этих данных тоже достаточно очевидны. Что именно учитывать, и как - это вопрос уже долгой и интересной дискуссии.

3. В продолжении пункта 2 будет реализована поведенческая модель и "модель вожаков", когда поисковики будут следить за поведением неких "эталонных" пользователей - "вожаков" и извлекать информацию из их поведения.

4. Будет немного модифицирована система определения дублей контента, супершинглы будут считаться(и сохраняться/закрепляться за страницей) с учетом времени их первого появления в базе, а также будут отслеживаться ссылки на оригинал.

Со стороны непоисковиков в интернете появится более развитая система Тэгов (классов информации). Теги будут сами классифицированы, чего пока нет(а это необходимо), а не выводиться мусорным "облаком". Это улучшит как поиск, так и понравится пользователям.

Со стороны СЕО биржи ссылок, зарабатывающие достаточно денег на ссылках смогут реализовать то, что не смогла Вебальта - приближенное вычисление трастранка и статвеса страниц :) Это на какое-то время снизит бюджеты на продвижение.

Мой надежный веломагазин (https://veliki.com.ua/) на CMS Melbis Shop 6 (http://www.melbis.com/)
wolf
На сайте с 13.03.2001
Offline
1183
#92
Mishael:
Со стороны СЕО биржи ссылок, зарабатывающие достаточно денег на ссылках смогут реализовать то, что не смогла Вебальта - приближенное вычисление трастранка и статвеса страниц

Угу. Только для этого им надо добыть у поисковика базу зафильтрованных им ресурсов. :) Одной информации о наличии ссылок сейчас явно недостаточно. Ссылки с доноров, весьма жирных в терминах бирж, на самом деле могут дать в конкретном поисковике эффект, сравнимый с пшиком.

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
Mishael
На сайте с 08.11.2001
Offline
217
#93
wolf:
Угу. Только для этого им надо добыть у поисковика базу зафильтрованных им ресурсов. :) Одной информации о наличии ссылок сейчас явно недостаточно. Ссылки с доноров, весьма жирных в терминах бирж, на самом деле могут дать в конкретном поисковике эффект, сравнимый с пшиком.

Ну, вообще, насколько мне известно самые распространенные фильтры Яндекса фильтровали ссылочное, а не статвес ;) Кроме того, безусловно и статвес и, тем более, трастранк, отличаться будут в такой системе и реальном поисковике весьма сильно, однако 100% нам и не нужно... экономия бюджета хотя бы на 30% это уже большие деньги :) Мы же люди, в конце концов, а вычисление трастранка руками (то что многие фактически и делают, просматривая страницы с купленными ссылками и контролируя, не ссылаются ли они на омносайты) - это позор нации 😂. Такие вещи надо автоматизировать ;)

Кстати, очень интересный вопрос. Если мы вычисляем трастранк на конечном графе G с двумя наборами исходными базами ЭталонныхБелых и ЭталонныхЧерных сайтов, и при этом наборы отличаются допустим на N процентов - то насколько будет отличаться отклонение трастранка на какой то произвольной странице? :) Думаю чем сильнее перелинкован G, тем меньше должно быть отличие(учитывая малый взнос конкретной Б или Ч страницы на совокупный трастранк рассчитываемой страницы), а учитывая что страницы в интернете перелинкованы очень плотно, исходящих ссылок обычно немало, то и придем мы в итоге почти к истинному трастранку.

wolf
На сайте с 13.03.2001
Offline
1183
#94
Mishael:
экономия бюджета хотя бы на 30% это уже большие деньги

Боюсь, тут запросто не экономию, а перерасход можно навычислять :)

Mishael
На сайте с 08.11.2001
Offline
217
#95
wolf:
Боюсь, тут запросто не экономию, а перерасход можно навычислять :)

Можно :) При желании все можно :) Есть множество притч по этому поводу. :)

На самом деле ничего сложного и опасного тут нет. Грубо говоря если сам брокер(а не оптимизатор вручную) будет определять доры и прочие овносайты и говорить об этом покупателю :) Отличный сервис... :)

Почему бы просто брокеру не повышать качество участвующих сайтов отклоняя плохие? Ведь "отклонение плохих" может идти теми же методами что и у поисковиков... ? Даже если порог определения плохости будет более лояльным чем у реального поисковика, все равно часть отстоя такой метод отфильтрует.

wolf
На сайте с 13.03.2001
Offline
1183
#96
Mishael:
Ведь "отклонение плохих" может идти теми же методами что и у поисковиков... ?

А кто знает, как именно оно у них идет? ;)

Dervish
На сайте с 11.05.2005
Offline
186
#97
wolf:
А кто знает, как именно оно у них идет?

Общие параметры известны. 100% совпадения не будет, но корреляция быть может.

Пингвин под микроскопом. (http://ac-u.ru/arts/pingvin-pod-mikroskopom/) Особенности продвижения Интернет-магазинов. (http://ac-u.ru/arts/osobennosti-prodvizhenija-internet-magazinov-bytovojj-ili-kompjuternojj-tekhniki-s-interesnymi-primerami-i-zabavnymi-kartinkami/) Копирайтинг. Качественно. (/ru/forum/725909)
Mishael
На сайте с 08.11.2001
Offline
217
#98
wolf:
А кто знает, как именно оно у них идет? ;)

Ты и KMY :p:D:

Принципы известны и заявлены самими поисковыми системами :)

wolf
На сайте с 13.03.2001
Offline
1183
#99
Mishael:
Принципы известны и заявлены самими поисковыми системами

А можно ссылочки на такие заявления Яндекса, в частности? Такие, чтоб однозначно перекладывались на язык цифр. Только не надо отсылать к Яхувской статье про Трастранк. Равно как и к гуглевской про Пейджранк :)

Mishael
На сайте с 08.11.2001
Offline
217
#100
wolf:
А можно ссылочки на такие заявления Яндекса, в частности? Такие, чтоб однозначно перекладывались на язык цифр. Только не надо отсылать к Яхувской статье про Трастранк. Равно как и к гуглевской про Пейджранк :)

Да вот с цифирками конечно не все идеально :) Но если я вас отошлю к Яндексу "Мы стараемся не индексировать или не ранжировать высоко:автоматически сгенерированный (бессмысленный) текст ... " ? Думаю "основные принципы Плохости" очевидны и так. Неочевидны граничные принципы, серые принципы, светлосерые и пр. Давайте вернемся к исходному:

-Ведь "отклонение плохих" может идти теми же методами что и у поисковиков... ?

-А кто знает, как именно оно у них идет?

Ну вот например - дубль контента. Очевидно автомату? Бессмысленный текст - очевидно модератору? В конце концов достаточно проверить сайт на БАН и какой сайт Совсем плохой - мы узнаем легко :) А дальше можно смотреть - кто активно ссылается на "Совсем плохие" сайты.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий