- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Возвращаясь к вопросу о ссылочных фильтрах Яндекса или то, что некоторые называют примитивным понятием "склейка" ссылок. Почему примитивным? Оно слишком поверхностно.
Рассмотрим этот вопрос под другим углом, а точнее, постараемся привести в одну систему то, что в той или иной форме уже озвучивалось.
Обычная ситуация: три сайта A, B и С ссылаются на третий D. Задача - определить истинное значение ссылочного ранжирования для сайта D.
В классическом случае происходит простое суммирование весов ссылок. Но в реальности задача усложняется появлением большого числа "накрученных" ссылок (обменные, покупные, с немодерируемых ресурсов и т.д). Т.е. какие-то ссылки нельзя учитывать при ссылочном ранжировании. Соответственно задача состоит в определении таких ссылок и их исключении из рассчета, либо понижении веса, что более разумно. Объясню... поскольку задача фильтрации должна решаться автоматически, а любой автомат в такой задаче априори будет ненадежен, то лучше ввести шкалу доверия той или иной ссылке. Т.е. определенный коэффициент, на который будет умножаться реальный вес ссылки. Теперь перейдем к пути решения задачи определения доверия к ссылке. Возвращаясь к нашему примеру это можно сделать двумя путями.
1) анализ всех ссылок, ведущих на D. Определение степени их "схожести", т.е. возможности того, что они проставлены автоматически. В этом случае все ссылки, что удовлетворяют факторам "схожести" получают соответствующую оценку, которая и будет использоваться к качестве понижающего коэффициента.
2) Анализ ссылающихся сайтов (A, B, C). В данном случае определяется степень объективности выставления ссылок указанными сайтами. Например сайты с "продажными мордами" однозначно ставят ссылки не объективно. Опять же, по множеству признаков(уже озвучивались на форуме) можно определить степень доверия к ссылкам, ведущим с определенного сайта. Эта степень будет выстепать в качестве еще одного коэффициента.
Таким образом, каждая ссылка имеет два коэффициента, определяющие ее вес. Реальный вес ссылки умножается на эти коэффициенты. Например вес ссылки с A=1. Коэффициент схожести ссылки с другими=0,5. Коэффициент доверия ссылке=0,5. В этом случае реальный вес, получаемый сайтом D=1*0,5*0,5=0,25.
Все изложенное выше - исключительно личное мнение.
aka352, согласен на все 100%, в особенности с первым пунктом.
Все вроде бы логично, но не факт, что именно так поступают поисковые системы, мне кажется что коэффициентов намного больше чем 2.
IrokezV, возможно и больше, но важнейшие я считаю aka352 написал.
Мистер Х, я согласен с этим, но даже при хороших этих 2-ух параметров, другие могут свести их на нет.
1) анализ всех ссылок, ведущих на D. Определение степени их "схожести",
Мне кажется, что это довольно непростая задача: определение схожести, а главное введение понижающео коэффициента при большом числе ссылок приведет к уменьшению суммарного ранжирования при добавлении новых.
Т.е. ссылки добавляем. а в результате только ухудшение.
2) Анализ ссылающихся сайтов (A, B, C).
А это, скорее всего, так и есть.
Мне кажется, что это довольно непростая задача: определение схожести.
А анкорная база тогда на что Яндексу? По-моему это кокрас самое простое.
Мне кажется, что это довольно непростая задача: определение схожести, а главное введение понижающео коэффициента при большом числе ссылок приведет к уменьшению суммарного ранжирования при добавлении новых.
Т.е. ссылки добавляем. а в результате только ухудшение.
Понижающий коэффициент применяется не к группе ссылок, а к каждой индивидуально. В этом случае любая новая ссылка в худшем случае просто не прибавит веса.
aka352, а обмен ссылками Вы к пункту 2) относите?
А анкорная база тогда на что Яндексу
Я говорил немного о другом - например однословная ссылка может быть совершенно естественной, например просто url или название компании. Нужен тут понижающий коэффициент?
А многословная ссылка - важен тут порядок слов или нет?
Поскольку хочется сделать фильтр автоматическим - это задача достаточно непростая, мне кажется.
Понижающий коэффициент применяется не к группе ссылок, а к каждой индивидуально.
А это совсем сомнительно. Ссылки постоянно появляются, исчезают, замучаешься пересчитывать.