- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
greenwood, я имел в виду другое, но за информацию - спасибо!
В этом случае формула может быть такая: Р=Р1*P2,
где Р1 - релевантость самой релевантной страницы на сайте
Р2 - некий средний вес по релевантности остальных страниц.
Тогда должны рулить одностраничные сайты :)
Году эдак в 2000-м, еще до введения в Яндексе алгоритма на основе PageRank, влияние релевантных запросу страниц с сайта действительно рулило. Тогда индексация и ранжирование происходили чуть ли не в режиме реального времени. Наделаешь на сайте пустых страниц с ключевиком в тайтле, засабмитишь через форму, и через полчасика наблюдаешь, как самая релевантная по этому ключевику страница сайта ползет вверх. Эх, хорошие времена были... Интересные... :)
Тогда должны рулить одностраничные сайты
это если по гугле
а в yandex похоже что рулят более релевантные запросу в целом (учет колличества страниц не ведаю)
кстати вспомнил прогу .. это Site Content Analyzer
Тогда должны рулить одностраничные сайты :)
Не факт. То есть возможны варианты.
В любом случае, еще надо умножить на коэффициент ссылочного ранжирования.
Р=Р1*Д(Р2)*К1(текст ссылок, взятый по tf*idf, то бишь сумма ссылок, каждая со своим весом)*K2(Значимость сайта)
К2 - вИЦ или PageRank
Отдельной песней в К1 можно сделать присутствие в каталоге. Сказать, что вес ссылки из каталога - PR=6(это PR yaca), или вИЦ=большому числу
Не факт. То есть возможны варианты.
В любом случае, еще надо умножить на коэффициент ссылочного ранжирования...
А я бы не стал запариваться. Формула все равно не получится, а времени можно потерять очень много. Лучше давайте попробуем условия эксперимента сформулировать.
Отдельной песней в К1 можно сделать присутствие в каталоге. Сказать, что вес ссылки из каталога - PR=6(это PR yaca), или вИЦ=большому числу
А Вы уверены, что ссылка из Каталога Яндекса привносит виц на сайт?
А я бы не стал запариваться. Формула все равно не получится, а времени можно потерять очень много. Лучше давайте попробуем условия эксперимента сформулировать.
А Вы уверены, что ссылка из Каталога Яндекса привносит виц на сайт?
Это один из возможных вариантов. Описание сайта в каталоге может выступать в качестве текста ссылки с соответствующим весом. Мне кажется, что в основном присутствующие здесь пытаются угадать как и что, а разумнее имхо встать на место разработчиков поисковика и подумать как и что можно сделать. Например, пользователь делает запрос. Вам нужно выдать список релевантных сайтов. А у вас уже есть некоторое их количество, отобранное вручную и совершенно точно соответствующих запросу (описание сайтов соответствует запросу). Строго говоря, можно вообще выводить только сайты из каталога. Потому что это не мусор. Но так будет неправильно, т.к. игнорируются остальные. Тогда можно сделать так: дать ссылке (тексту ссылки) с каталога существенный вес и складывать этот вес с весами остальных ссылок.
Вообще, конечно, разговоры о вИЦ Яндекса - как разговоры о корабле Мария Селеста, команда которого пропала в Бермудском треугольнике. Даже разговоры о самих пропавших людях. Вроде, все они были, жили, но стали фантомами. И все пытаются угадать свойства этих фантомов. Говорить о конкретной реализации, наверное, не имеет смысла. Речь может идти об обычных разумных мерах, которые способствуют улучшению качества поиска.
Мне кажется, что в основном присутствующие здесь пытаются угадать как и что, а разумнее имхо встать на место разработчиков поисковика и подумать как и что можно сделать.
Все мы начинали с формулы релевантности - конечно, чего проще вывести формулу, взять первую производную и найти максимум :) (не забыв проверить перегиб, чтобы не дай Бог не спутать с минимумом). Пока я видел единственную полезную такую работу wolf'a с кем-то в соавторстве (ссылку не помню - на другом компе она), но если я правильно понял, там в основном результаты изучения теоретических материалов.
Например, пользователь делает запрос. Вам нужно выдать список релевантных сайтов. А у вас уже есть некоторое их количество, отобранное вручную и совершенно точно соответствующих запросу (описание сайтов соответствует запросу)... Тогда можно сделать так: дать ссылке (тексту ссылки) с каталога существенный вес и складывать этот вес с весами остальных ссылок.
В этом случае (раз уж мы о частностях) проще назначить такому каталогу искусственный вИЦ. Тут тебе и вИЦевая ссылка на сайт будет и ссылочное ранжирование по тексту ссылки. Но есть огромное НО. Поисковики стремятся дать пользователю нужную _страницу_, а не сайт. А в каталогах в большинстве случаев ссылка на _сайт_. А сайт бывает из нескольких тематик. Не факт, что страница на тематическом сайте лучше страницы на нетематическом.
Вот и все что нам остается - собирать факты с различными коэффициентами истинности и строить из них гипотезы с учетом коэффициентов.
В этом случае (раз уж мы о частностях) проще назначить такому каталогу искусственный вИЦ.
Я о таком случае и говорю.
Тут тебе и вИЦевая ссылка на сайт будет и ссылочное ранжирование по тексту ссылки. Но есть огромное НО. Поисковики стремятся дать пользователю нужную _страницу_, а не сайт. А в каталогах в большинстве случаев ссылка на _сайт_. А сайт бывает из нескольких тематик.
Ссылаются всегда больше на сайт. Главная страница всегда имеет больший вес.
Не факт, что страница на тематическом сайте лучше страницы на нетематическом.
Безусловно, это так. Но кроме ссылки из каталога поисковика есть еще множество других ссылок с других сайтов.
Кстати, с каталогом, практически так и делал Рамблер, когда подмешивал результаты из топ100. Конечно, можно было просто давать существенный коэффициент исходя из посещаемости ресурса, опираясь на релевантность его страниц. А можно использовать описание из каталога. У Рамблера имхо, это до сих пор осталось - влияние описания из каталога топ100. Другое дело, что смешиваясь с остальными факторами, его вес не так велик.
Вам нужно выдать список релевантных сайтов
Мне кажется - ошибка здесь. Не сайтов, а документов.
Мне кажется - ошибка здесь. Не сайтов, а документов.
Разумно. Тогда стоит определиться с целями и задачами каталога сайтов у поисковой машины. Кроме работы каталога в чистом виде - структуры, по которой пользователь ищет интересующую его информацию. У кого есть предложения?