Домыслы на закате эпохи ссылок …

Mr_Promoter
На сайте с 06.08.2004
Offline
254
8237
Домыслы на закате эпохи ссылок …
Что-то последнее время
стал плохо спать …
тревожно, нутром чую
грядут перемены
Mr_Promoter …

А как все невинно начиналось! Каталог сайтов и поиск по нему … Сейчас уже трудно представить Яндекс, да и другие лидирующие поисковые системы в таком виде. Сейчас это настоящие поисковые монстры с огромными базами данных и сложнейшими алгоритмами ранжирования и что самое главное большими оборотами килобаксов.

Эволюция поисковых систем.

Поисковые системы в процессе своей эволюции пережили несколько этапов, которые можно выделить таким образом

• Эпоха зарождения

• Эпоха контента

• Эпоха ссылок

Эпоха зарождения

Посягательств на влияние позиций в выдаче не было, пожалуй, лишь во времена зарождения, когда относительно немногочисленные пользователи Интернета не знали что такое реклама в сети. Хорошие были времена! НО … появились баннеры, и понеслось - реферат, секс, порно … чего только не писали в столь значимом тогда метатеге keywords лишь бы завлечь на свои сайты любых посетителей. Как ответ поисковые системы стали анализировать текст сайта, этот переломный момент можно назвать переход в эпоху контента.

Эпоха контента

Интерес к Интернету рос все больше и больше, стало появляться больше сайтов, толчком тому стали бесплатные хостинги, любезно предоставившие свои услуги за показы сокровенных баннеров – двигателя эпохи контента. На баннерах было помешано все – вся сеть жила откруткой показов и поисковые системы это тоже не обошли стороной. В сети стало больше денег, а, следовательно, конкуренции. Появились первые профессиональные оптимизаторы, полностью зарабатывающие деньги на трафике, а не занимающиеся этим по совместительству с основной работой. Сначала это были просто оптимизаторы, это уже к концу эпохи контента с появлением массы дорвеев они стали окрашиваться в черных, серых и белых. Вот и прозвучало это грозное слово дорвеи причина краха эпохи контента. Вычислив формулу идеального сайта в сети стали огромными темпами разрастаться бессмысленные и бесполезные релевантные запросам сайты все более и более вытесняющие все остальные. Идея решения этой проблемы была позаимствована у уже к тому времени мирового лидера среди поисковых систем Google. Началась эпоха ссылок.

Эпоха ссылок

Впервые возникла идея спросить у народа, а что, по вашему мнению, хорошо, вернее какие сайты хорошие? Этим народом оказались вебмастеры. Ставя ссылки со своих сайтов на хорошие, увиденные и оцененные своими собственными глазами сайты сети они поднимали их вверх в выдаче. Идея была хороша, но в сети стало крутиться слишком много денег… Первую трещину эта система стала давать когда начался бум обмена ссылками. Особенно страшно это смотрелось когда менялись десятками баннеров с главной страницы, позже появились отдельные страницы куда весь этот мусор перенесли и многократно преумножили. Так или иначе народ уже протоптал «тропинки успеха» и успешно прогоняя по ним проект за проектом стал выводить их в свет. Дорвейная технология лишь в начале эпохи немного пострадала, но вскоре освоила новые методы воздействия на системы и начала развиваться, с еще большим размахом. Пришло время новой эпохи.

Технологии будущего - эпоха CTR

Что же еще можно сделать такого чего еще не сделали? Хочу изложить здесь оду идею, которая крутится у меня в голове. И так давайте посмотрим на Интернет глазами поисковой системы. Что надо поисковым системам? Как это ни странно, но то же самое что и нам всем – посетителей. Будет большой поток посетителей – будут больше продаваться рекламные площадки, будет больше прибыли от поисковика. А когда посетитель пойдет в ту или иную поисковую систему? Когда она будет находить то что ему нужно, а не всякий мусор. Так вот и мы подошли к главной части вопроса – что нужно посетителю? Поисковые системы пытаются это угадать уже долгие годы, анализируя контент, учитывая мнение вебмастеров (считай тех же разработчиков сети), а может все проще? Может об этом стоить спросить самих посетителей?

Третий кит

Сейчас практически все поисковые системы подсчитают кто когда и где кликнул на их сайтах. И что-то мне очень сильно кажется, что это не спроста. Представьте себе такую вещь, что поисковые системы наряду с коэффициентами соответствия контента и веса ссылочного ранжирования, так же при расчете веса сайта (вИЦ) будут учитывать и его CTR в поисковых системах. Будут просто подсчитывать сколько раз, был показан сайт, и на каких позициях, и сколько раз на него было совершено переходов (кликов). С точки зрения конкуренции это здоровая вещь, так как пользователю будет предложено 10 сайтов и естественно он выберет наилучший для себя путем клика на него. Собрав такую статистику и подкорректировав данные (у сайта на первой позиции больше шансы, что на него кликнут, следовательно, его CTR следует немного занизить исходя из коэффициентов кликабельности по позициям) можно получить «третьего кита», на котором будет держаться поиск. Что же будет давать этот кит? Этот кит будет давать коэффициент популярности сайта у пользователей. В результате чего пользователи будут сами корректировать выдачу – сайты которые им нравятся поднимутся вверх, а сайты которые им не нравятся упадут. Получится выдача, которая нравится пользователю – не это ли залог успеха поисковой системы?

Накрутим?

Естественно первые мысли – так это же легко накрутить! А нет – не так уж и легко. Можно сделать не всеобщий опрос всех пользователей, а в случайное время по случайным запросам в случайный промежуток времени и с условием один ip адрес голосует только один раз, скажем в неделю, месяц и т.д. То есть рандомом выбралось время и в этот промежуток времени происходит так сказать соцопрос – Вы за кого? Данной информации будет достаточно для вычисления средней статистики. И так периодически через определенное время. Вероятность накрутки ничтожно мала. Самые активные ip адреса можно поместить в черный список и больше их мнение не спрашивать. В общем предотвратить накрутку здесь вполне можно.

А как же мы?

А как это повлияет на оптимизаторов? На мой взгляд, будет еще большое расслоение между былыми методами оптимизации и черными. Те кто оптимизирует по белому – делает сайт правильным с точки зрения поисковой системы и удобным и привлекательным для пользователя только выиграет так как такие сайты нравятся пользователю и на них будут активно кликать, а вот черные или неоптимизированные сайты, без красивых заголовков и снипптов явно пострадают. Дорвеям тоже придется не сладко – красивый заголовок то можно придумать, а вот как из бредятины сделать красивый сниппет?

Исходя из логики все работает – значит скоро будет, грядут перемены, смена эпохи близка ...

http://webpromote.ru (http://webpromote.ru) - пописываю иногда ...
A
На сайте с 28.09.2004
Offline
8
#1

Можно еще анализировать цепочки кликов. Более релевантен не тот сайт, на который кликнули первым, а тот, на который кликнули последним в данной выдаче.

T
На сайте с 08.04.2004
Offline
97
#2

Рамблеру, например, (т.к. счетчик рамблера стоит у большинства) можно анализировать переходы на страницу price, или contact. Что свидетельствует о заинтересованности юзера.

Так или иначе, нужно вычислять пути по сайту, у время нахождения на нем. Одним CTR-ом сыт не будешь.

куплю СДЛ от 300 поисковых уников. не порно, по законам РФ. (/ru/forum/274655)
tyumile
На сайте с 27.07.2005
Offline
138
#3

Всё это, конечно, интересно, респект.

Но как пользователь по результатам поиска и по снипету сможет узнать, интересный или нет сайт? Это, во-первых.

Во-вторых, если этот же пользователь упорно ищет нужную для себя информацию, то скорее всего на топ10 он не остановится и пройдёт по всем ссылкам, каким сможет. Как тогда вычислять CTR? А если ещё и учесть, что для сайтов топа он будет занижаться, то CTR будет просто уравниваться и это не пиведёт, по-моему, к большим изменениям.

А вообще, "в любой программе можно найти дыру, вопрос в том, как через какое время"....

Mr_Promoter
На сайте с 06.08.2004
Offline
254
#4
Можно еще анализировать цепочки кликов. Более релевантен не тот сайт, на который кликнули первым, а тот, на который кликнули последним в данной выдаче.

Это уже из области развития этого метода - можно придумать много чего дополнительного, но суть одна.

Рамблеру, например, (т.к. счетчик рамблера стоит у большинства) можно анализировать переходы на страницу price, или contact. Что свидетельствует о заинтересованности юзера.
Так или иначе, нужно вычислять пути по сайту, у время нахождения на нем. Одним CTR-ом сыт не будешь.

Вот это уже можно накрутить, это сложнее и ресурсов требует гораздо больше.

S
На сайте с 16.03.2005
Offline
6
#5

На мой взгляд был бы разумно собирать статистику, не только сколько пользователей зашли на сайт, но и сколькоо времени ни там провели. Если сайт не оправдал ожидания с него уйдут сразу, а вот если информация нужная, человек задержится ну хотя бы минут на пять.

T
На сайте с 08.04.2004
Offline
97
#6
Mr_Promoter:
Это уже из области развития этого метода - можно придумать много чего дополнительного, но суть одна.

Вот это уже можно накрутить, это сложнее и ресурсов требует гораздо больше.

А кому сейчас легко?

strelok:
но и сколькоо времени ни там провели

Это только что было сказано:

Так или иначе, нужно вычислять пути по сайту, у время нахождения на нем

Markiz
На сайте с 18.01.2005
Offline
111
#7

исходя из написанного, можно предположить возрождение клик-клубов, только в другом качестве.

T
На сайте с 08.04.2004
Offline
97
#8

Markiz

Это не реально. Пользователей интернета стало очень много.

И тот эффект, который даст клик-клуб можно будет списать на погрешность.

Или отловить его...

Segey
На сайте с 23.08.2005
Offline
404
#9

Мда, жаль, что все так быстро закончилось....

А кто нибудь слышал от Я каких-то заявлений или намеков в этом плане?

Brexit - уже совсем рядом. (https://about-this-model.blogspot.com/2019/03/brexit.html)
Mr_Promoter
На сайте с 06.08.2004
Offline
254
#10
Но как пользователь по результатам поиска и по снипету сможет узнать, интересный или нет сайт?

Во первых у пользователя есть глаза и если в заголовке написано "похоронные тапочки", а он ищет "домашние тапочки", то он туда не пойдет и поисковик со временем этот сайт уберет вниз

Во вторых у пользователя есть память и он помнит, что вчера искал домашние тапочки и зашел вот на это сайт, а там такая лажа - сегодня его даже смотреть не буду ....

Во-вторых, если этот же пользователь упорно ищет нужную для себя информацию, то скорее всего на топ10 он не остановится и пройдёт по всем ссылкам, каким сможет. Как тогда вычислять CTR?

А это вообще находка для поисковиков - значит в первой десятке такая лажа, что пользователям приходится идти на вторую страницу и там они находят то что нужно - логично сайты со второй страницы перенести на первую.

если ещё и учесть, что для сайтов топа он будет занижаться, то CTR будет просто уравниваться и это не пиведёт, по-моему, к большим изменениям.

Это приведет к тому что из далеких страниц хорошие сайты перекочуют поближе к топу. Но учтите контент и ссылочное ранжирование ни кто не отменял и если у него нет ссылок, хоть его CTR будет 100% он далеко не поднимется!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий