А тайную завесу алгоритма расчета текстовой релевантности не приоткроете? :)
И еще вопрос - алгоритм поддерживается в актуальном состоянии (с учетом Снежинска и т.п.)?
Смотря что хотите получить, плюс кол-во проектов и цели продвижения. Время будет экономиться, но вот результат... Хотя, смотря какие запросы и проекты планируете переносить, без конкретики сложно о чем-то говорить.
denton, присоединяюсь. Интересная тема! Но очень много непоняток. Буду признателен за пояснения.
orbea добавил 01.02.2010 в 11:09
Ну обычно заголовки стараються делать качественными и осмысленными, поэтому в процентном соотношении вряд ли будет много нерелевантных типа ("Купить", "Продать"), если я конечно Вас правильно понял.
Слышал еще гипотезу о кол-ве страниц на сайте и кол-ве внешних ссылок с этих страниц. Смысл в том, что если страниц на сайте больше некого порога, то вероятность того, что это ГС - становиться выше. Но скорее всего эти параметры работают в пуле с некими другими и все это требует проверки.
Сейчас полная жесть! :) недавно пришел домой, открыл Яшу, ввел запрос - новости России, в ответ увидел капчу, и так подряд пять различных нормальных запросов и на все обратно капча. То ли Яндекс забанил подсети провайдера, то ли у них глюкалово какое. Вот и попробуй попарсить 😂
Ну базу для начала пощупать надо, а потом выводы делать.
Кстати, есть люди, которые помнят большинство своих снов, а есть которые совсем снов не помнят. Никто не задавался вопросом - какие физиологические факторы на это влияют?
А Вы ставили эксперименты? Проверяли точность? Или выводы сделаны на основании десятка проектов оцененных в сеопульте (ну или в той системе, в которой Вы пробовали оценивать)?
Такой скрипт можно заказать у многих веб-разработчиков. Алгоритмы проверки уникальности текста вроде как давно открыты.
А в руках такие анализаторы реализованы? Смогу ли я увидеть, что мне с сайтом делать для того, чтобы сократить затраты конкретно на ссылки и повысить вероятность достижения цели?