Да ресурс становится менее авторитетным но незначительно, т.к. обычно ссылки идут с внутренних страниц, они передадут не так уж и много веса. И потом концепция базируется на том, суммарный вес всех страниц будет постоянен. Единственный способ увеличить, это создать новый домен. Таким образом не возникает ситуация искусственно создания весов для сайтов. Это как с деньгами в банке. Если в одном месте прибавилось, значит в другом убавилось. Но сы же судим о богатости человека по его деньгам. А если он передаст свои кровные другому тем самым он спонсирует другого. И тот станет немного богаче.
А также нужно учитывать внедрение коэффициентов. Так Можно ввести коэф. учитывающий кол-во сайтов ссылающихся на вас. продолжительность ссылок. Как Бизнесс лэвел в WM
Это тоже можно учитывать! можно же учитывать те же веса, полученные от других на основе продолжительности их установки, Чем дольше стоит тем больше значение. Т.е. ваше предложение тоже имеет место быть
Все эти опреации же можно автоматизировать, например с сезонностью - создаёте папки под каждый сезон и добавляете туда те позиции, которые актуальны в это время. А по мере изменения сезонов перераспределяете веса между этими папками.
Если не удобно папки то можно какие то доп. ключи к урл, например &sezon=zima
А потом поисковику указать как оценивать те или иные ресурсы.
Для таких людей и будет готовый стандартный движок с настройками по-умолчанию. Это же зависит от реализации типового движка, на сколько он будет удобен в настройке.
Не обязательно интегрировать прямо в движок, можно создать демонна сревере который всё будет осуществлять как бы из вне сайта но под контролем вэбмастера.
(Например как локальный Yandex.Server)
Похожую концепцию я хотел применить в третьем основании ранжирования. Т.е. учитывать мнения посетителей. Я думал, как лучше это сделать, а вот идея с тулбаром мне нравится! Я включу её в концепцию, с вашего разрешения конечно.
Ну а то что касается роботов. От них мы врядли когда то избавимся. Ещё нет пока методов точно определяющих компьютер это или человек. С этим тоже согласен
что касается индексирования я уже отмечал, если нет своих ресурсов, можно доверить это подразделению поисковой системы либо сторонним организациям, которые будут предлагать такие услуги (цену таких услуг установит рынок) Я же не говорю, что поисковик полностью откажется от индексации, нет. Он будет индексировать но не всех, это будут социальные проекты у которых нет своих возможностей, хорошие проверенные крупные ресурсы, как вы сказали "большой сайт с большой посещаемостью и постоянно обновляемой информацие (новостник)"
этот фактор я тоже рассмотрел в системе как 3-ее основание ранжирования.
Конечно же я согласен с Вами что всё это утопия, но будет надеятся что в будующем мы будем приближаться к этому.
Если он оставит только главную, тогда его будут находить только по словам имеющимся на главной. А раскрыть все темы, расмотренные на всём сайте в рамках одной страницы я думаю, будет невозможно. И потом, это же тока базовая концепция, реальная будет с открытыми коэффициентами, которые и будут все точнее регулировать.
>И плодить сайты пачками для каждого кейворда.
Учитывается не только ссылочное ранжирование, т.е не только эти 1000 баллов. Опять таки, коэфициенты, ведь можно оценивать домены и по новизне создания, по наполнению и т.д.
>Денег, сил. Битва бюджетов?
Да, этоже такой же рынок рекламы, как и теле радио, сми. Кто больше вкладывает в рекламу тот получате результат.
>Социальные сайты?
Поддержку социальных сайтов можно обеспечив созданием каталога чисто соц. проектов. А также опять таки учитываются же несколько факторов ранжирования. Сайт может проигрывать в одном, но выигрывать в другом, например в уникальности контента и специализации
Это уже рассмотрел в объяснениях выше
продолжение...
Техническая реализация метода:
Каждый сайт индексируя своё содержимое также будет проверять и наличие различных ссылок на странице и записывать их в свой индекс. По своему индексу и по своим правилам распределения веса страниц будут заданы «внутренние индексы цитирования» Эти «внутренние индексы цитирования» пригодятся сайту так же и при организации выдачи (это будет рассмотрено дальше). Помимо внутреннего ранжирования будут определены и внешние ссылки (т.е. ссылки которые находятся на нашем сайте и указывают на других). С внутренним ранжирование я думаю понятно, а вот теперь внешнее. Это самое интересное. Во –первых оценивать внешние ссылки конечно же должна система и вот как она будет это делать:
Как мы уже отметили, при индексировании сайты будет создаваться и индекс внешних ссылок. Этот индекс вместе с индексом содержимого сайта будет отправлен на сервер поисковой системы. Которая в свою очередь будет оценивать внешне ссылочное ранжирование следующим образом. Все ссылки которые ведут от одного ресурса (1) к другому (2) будут ссумироваться и представлять из себя процент от веса всего сайта (который был 1000). Таким же образом будут суммированы ссылки полученные обратно от (2) к (1). Одинаковые части будут удаляться, т.е. если (1) передаёт (2) 10%, а (2) к (1) 5%, соответственно останется что только (1) передаёт (2) 5%. После того как мы проделаем эти операции для всех сайтов., у нас для каждого сайта будет список ссылающихся (с указанием процента от своего веса, который они готовы передать) и тех на кого ссылаемся мы. По этим спискам не сложно оценить вес каждого из сайтов относительно друг друга. Таким образом и будет строится Индекс Цитирования сайта. Опытным путём (на основе модели) установлено, что при условии обновления разных сайтов в разное время веса сайтов переходить друг от друга будут немного необъективно. Т.е. один сайт (1) уже получил ссылку от другого (2) (и уменьшил его вес) а тот (2) в свою очередь ещё не получил новых весов от своих ссылающихся. А когда сайт (2) наконец получит свои ссылки и увеличит свой вес, тогда вес который получил сайт (1) станет уже неактуален. Таким образом эта система будет стимулировать вэбмастеров как можно чаще обновлять информацию о своих ссылках. Неактуальность изменений не столь велика, это связано с тем, что в основном процент, передающийся от сайта к сайт обычно не очень высокий, а также в связи с тем что кроме ссылочного ранжирования есть и другие основания по которым формируется результаты выдачи.
Основание 3. Посещаемость ресурсов.
Рассмотрение этого основания я хотел бы начать с описания того как пользователь ищет информацию через поисковик. Все вы знаете, что набрав искомое и получив набор из страниц во-первых вы начинаете оценивать их по заголовкам и кускам текста. Потом вы щёлкаете по ссылкам, которые более или менее должны ответствовать запросу. Иммено эти действия пользователей и будут дополнительно ранжировать сайты между собой. Т.е. чем меньше сайтов человек просмотрел, чем дальше позиция этих сайтов находится от первой тем больше баллов или веса им можно дать.
Вторым способом, который может использоваться как дополнение к первому, является подсчёт статистики посещений сайтов. Конечно у этого способа есть минус – его можно накрутить за определённую плату. Но, я считаю что как и в случае с покупными ссылками, если владелец сайта готов вкладывать деньги в сайт, вкладывает немало и постоянно значит этот сайт чего то стоит. Это так же как и с обычной рекламой. Мы ведь запоминаем больше товары те, которые больше рекламируются и соответственно тратят больше денег. Обычный рынок.
Окончательно ранжирование и выдача.
Теперь рассмотрим как же происходит ранжирование сайтов при запросе пользователя. Итак у нас есть информация по трём основаниям, это: полный текст сайта, ссылочный вес сайта относительно других и посещаемость его. Обратите внимание! Все характеристики которые будет оценивать поисковая система относятся только к сайту а не к его страницам. Таким образом, поисковик будет только решать, какие сайты, на какое место в выдаче поставить. Соотношения 3-х факторов будут полностью открыты, а при необходимости изменяться и корректироваться. Но как же пользователю показать конкретную страницу, на которой он хочет найти ответ на свой вопрос? Вот здесь опять будут задействованы ресурсы «минипоисковиков» сайтов. Запрос пользователя после определения системой первой десятки сайтов будет отправлен им. И сами сайты на основе уже внутреннего ранжирования определят по какому запросу какую страницу лучше показать. Полученная от сайтов информация с адресом и описанием страниц и будет показана пользователю.
Тематичность.
Ещё один аспект системы – это её изначальная тематичность. Я её ещё нигде не упоминал, но это сделано только с целью не загружать вас заранее. Так вот тематичность будет присутствовать во всех трёх аспектах ранжирования: При анализе текстов сайта тематичность учитывается благодаря анализу слов присутствующих в содержимом. При ссылочном ранжировании, все веса сайтов и страниц, которые я упоминал ранее предполагается сделать комплексными, т.е. если вес сайта 1000, то это может означать, если сайт полностью посвящён одной тематике, то 1000 баллов по тематике, например, Авто, а по другим по нулям. Или если сайт посвящен и Авто и Бизнесу то возможно и другое разделение, например, из суммарной 1000 баллов 700 на тематику Авто и 300 Бизнесу. Базовый вес сайта будет определяться его создателем, т.е. каждый сам укажет проценты по каждой тематике. А дальнейшее корректирование тематичности будет осуществляться за счёт внешних ссылок. Если на сайт ссылаются сайты с такой же тематикой как и у сайта-получателя ссылок, то естественно рейтинг сайта повысится именно в этой тематике. Аналогично и с посещаемостью, если на сайт заходят при запросах в основном одной тематики, то именно эта тематика и будет его сильной стороной.
Итог:
Положительные моменты системы:
1) Абсолютная открытость системы! Абсолютная открытость подразумевает, что все алгоритмы и коэффициенты будут открыты, будет доступна вся информация касающаяся весов сайтов, ссылочного ранжирования и др. Все оптимизаторы будут знать, что и как оценивается, и будут наконец стремится не обмануть систему а создать лучший контент или вкладывать в сайт больше денег.
2) Максимальная динамичность! Каждый сайт может обновлять свою информацию так часто как желает. При чём возможно же и частичное обновление, не обязательно передавать постоянно информацию об одних и тех же неизменяющихся страницах. А если на сайте есть горячие новости то именно эти новости можно отправить в поисковик как только они появились. Та же ситуация с ссылками появление или исчезновение ссылок будет проходить гораздо быстрее чем сейчас и это будет полностью открыто.
3) Минимальным станет количество сайтов создающихся только для поисковиков. Т.к. сейчас они в основном или на бесплатных хостингах на третьем уровне или как поддомены основного. При данной системе каждая дополнительная страница сайта будет уменьшать вес остальных, поэтому вэбмастеры будут заинтересованы в большей насыщенности, уникальности информации на своих сайтах и будут закрывать ненужную информацию от индексации.
4) Принципы ранжирования страниц своего сайта полностью определяет сам оптимизатор. Определение, какая страница по какому запроса наиболее полно соответствует тоже в его власти.
5) Требуется меньше ресурсов от поисковой системы и она будет оперировать не страницами как сейчас а сайтами. Для статистики в индексе Яндекса более 2-х миллиардов страниц. А количество сайтов 700 тысяч (по данным на 15 декабря 2006). Разгрузка поисковой системы придаст ей большей стабильности в работе.
6) Система наконец переведёт поисковика и оптимизаторов «на одну сторону баррикады». Поскольку и те и другие будут заинтересованы в одном, показать пользователю самое лучшее из того что он искал.
Ещё раз повторюсь, это всего лишь моя утопическая модель. Я не знаю, на сколько её возможно реализовать в реальности. А зачем я её написал и выложил здесь, так это только для того чтобы поделиться своим мнением, узнать мнения других по этому вопросу… узнать о минусах системы, которые я ещё не обнаружил… узнать о ваших предложениях