- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Возвращаясь к вопросу о ссылочных фильтрах Яндекса или то, что некоторые называют примитивным понятием "склейка" ссылок. Почему примитивным? Оно слишком поверхностно.
Рассмотрим этот вопрос под другим углом, а точнее, постараемся привести в одну систему то, что в той или иной форме уже озвучивалось.
Обычная ситуация: три сайта A, B и С ссылаются на третий D. Задача - определить истинное значение ссылочного ранжирования для сайта D.
В классическом случае происходит простое суммирование весов ссылок. Но в реальности задача усложняется появлением большого числа "накрученных" ссылок (обменные, покупные, с немодерируемых ресурсов и т.д). Т.е. какие-то ссылки нельзя учитывать при ссылочном ранжировании. Соответственно задача состоит в определении таких ссылок и их исключении из рассчета, либо понижении веса, что более разумно. Объясню... поскольку задача фильтрации должна решаться автоматически, а любой автомат в такой задаче априори будет ненадежен, то лучше ввести шкалу доверия той или иной ссылке. Т.е. определенный коэффициент, на который будет умножаться реальный вес ссылки. Теперь перейдем к пути решения задачи определения доверия к ссылке. Возвращаясь к нашему примеру это можно сделать двумя путями.
1) анализ всех ссылок, ведущих на D. Определение степени их "схожести", т.е. возможности того, что они проставлены автоматически. В этом случае все ссылки, что удовлетворяют факторам "схожести" получают соответствующую оценку, которая и будет использоваться к качестве понижающего коэффициента.
2) Анализ ссылающихся сайтов (A, B, C). В данном случае определяется степень объективности выставления ссылок указанными сайтами. Например сайты с "продажными мордами" однозначно ставят ссылки не объективно. Опять же, по множеству признаков(уже озвучивались на форуме) можно определить степень доверия к ссылкам, ведущим с определенного сайта. Эта степень будет выстепать в качестве еще одного коэффициента.
Таким образом, каждая ссылка имеет два коэффициента, определяющие ее вес. Реальный вес ссылки умножается на эти коэффициенты. Например вес ссылки с A=1. Коэффициент схожести ссылки с другими=0,5. Коэффициент доверия ссылке=0,5. В этом случае реальный вес, получаемый сайтом D=1*0,5*0,5=0,25.
Все изложенное выше - исключительно личное мнение.
механизм интересный, но не стоит забывать о мощностях...
Есть решение значительно проще... Каждый сайт получает некий коэффициент, я бы сказал смесь траст-ранка, коэффициента линокпомойки, может быть некоторых других копоказателей... При таком раскладе все бэки с этого сайта могут иметь некий коэффициент повышающий или понижающий влияние...
Если мы возьмем сайт A на которы ссылаются сайты B, C и D... То во-первых каждому сайту будет присвоен подобный коэффициент.. Который будет учитываться и при анализе бэков... В данном случае понижение четко может идти в соответствии с этим коэффициентом, а возможно и полное неучитывание ссылок... ТАкже данная теория решает ряд сопутствующих проблем и позволяет алгоритму делать вычисления практически моментально...
Берем в руки книгу Стива Круга "Не заставляйте меня думать", читаем (а читается она, поверьте, оочень быстро) а потом смотрим статистику в ПС по УРЛ-запросам. :) Я тоже сначала думал, что это бред :) К теме оптимизации оно, относится как-то очень сбоку, но факт есть факт - урлы вводят в ПС. Иначе зачем такая фишка в Яндексе, как "искали www.yandex.ru? нажмите на ссылку http://www.yandex.ru/."
Сам ответил на свой вопрос: если урл введут люди, Яндекс предложит им перейти на сайт.
Значит по запросу Яндекс мы не увидим что хотелось бы, ибо нефиг спамить?
Не думаю что Яндекс на себя пессимизацию накладывает.
Сам ответил на свой вопрос: если урл введут люди, Яндекс предложит им перейти на сайт.
Думаю мало людей ищет сайт по урлу в Яндексе.
Я просто прокомментировал вам вашу позицию.
Не думаю что Яндекс на себя пессимизацию накладывает.
Мдя.. Ширше смотреть надо на вопрос. На себя - нет, хотя они заявляют, что ни какие сайты не выделяют из общей массы, а вот судя по вашей логике Рамблер они должны гасить?
Запрос-Рамблер
И куча ссылок с одинаковым словом.
Так что, мочить надо Рамблер за то, что на него ссылались по его названию? 😂 Бред.
После сегодняшнего апдейта наверное актуально снова поднять эту тему.
Как многие уже заметили, вес линкаторных ссылок равен или стремится к нулю. Причем все линкаторы в последнее время активно предлагали методы ухода от т.н. "склейки" - не помогло. Очевидно также, что еще не все линкаторы пострадали, но это дело ближайшего времени.
aka352, да, значительно они пострадали, что не может не радовать :)
FlyAway, главные встряски впереди. Далеко не все линкаторы пострадали. думается в ближайшие 2 апдейта ТОП по многим запросам сильно изменится.
aka352, я не могу назвать цифр и что-то утверждать изменится ли что-то в следующие 2 апдейта или нет, но четко прослеживается борьба с линкаторами, что есть хорошо.
но четко прослеживается борьба с линкаторами
Добавлю... и с продажными мордами - они начали страдать чуть раньше.
Добавлю... и с продажными мордами - они начали страдать чуть раньше.
Ну если это так можно назвать, то да :)
А не возникало мысле, что коэф. доверия к ссылке зависит от времени ее нахождения. Чем дольше, тем выше. Это объясняет сегодняшнее замедленное движение вверх.