- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Проблема с терминологией и точным пониманием некоторых процессов на форуме была всегда. Для "черного ящика" это вполне логично
Подавляющее большинство интересует только результат
вес ссылки фильтруется ниже допустимого порога и просто исключается из обсчета ссылочного
И для них не так уж и важно точно понять, что к этому привело.
Главное, что это можно с определенным порогом точности определить.
Меня, например, больше интересует вот эта часть
Но это не гарантирует вам, что вес ссылки, купленный за 100$ на морде с ПР6 в блоке из 30 ссылок будет больше веса ссылки, купленной за 6$ с ПР3, где установлено 5 ссылок. Причем ни там, ни там вы не увидите никакого непота - все будет чисто.
Жаль, что люди, которые могут это вычислить, предпочитают об этом на форуме не говорить ;)
Непота - нет! Нет, потому что быть не может в принципе. Фильтрация ссылок - процесс автоматический. И никакой, даже самый гениальный алгоритм фильтрации не даст 100% гарантии, что данная ссылка/ссылочный блок/страница/сайт является искусственным и требует полной фильтрации. А непот - это 100% фильтрация. Если это и можно сделать, то исключительно при участии человека.
Скажем штук 30 внешних ссылок в строчку разделенных запятой причем в самом низу страницы мелким шрифтом такое автоматически можно определить. Да и ходят слухи что есть разный непот полный не полный-
- можно предположить что в фильтре есть какие то критерии например которые я описал выше и исходя из этих критерий расчитываеться видимость ссылки для пользователя затем на каждую ссылку даеться процент передачи веса (ИМХО)
Кстати из этого можно сказать что всяческое выделение ссылки прибавляет вес и это вполне логично.
Это только догадки...
(а сам будет потихоньку избавляться от непотных беков :) ))))
Некоторые уже это давно поняли и юзали :) вот теперь когда все в курсе пойдут всякие сервисы и далекие от оптимизации люди опять будут тупо все скупать :(
:) Предлагаю:
1. Начать скидываться на суперкомпьютер Яше
2. Разработать табель о рангах и чинах в Яндексе
3. Разработать дизайн и варианты форменной одежды и знаков отличия для работников Яндекса
4. Разработать проект Непреложного Устава Поведения и Службы (НУПС) для работников Яндекса
А если серьёзно...
Мы уж совсем рисуем себе образ этакого жуткого монстра... Да, какая-то фильтрация есть - несомненно. Что-то связанное конкретно с линкопомойками, что-то с ТИЦем, что-то ещё с чем-то... Но такие глобальные дотошные дифференциал-разработки... Что-то верится с трудом. Скрипты, алгоритмы, схемы, математические модели, крутые базы данных (если с ORACLE свяжутся - всем сигнал будет, тогда точно сливать воду придётся😂 ), коэффициенты, листинги, архивы, документация, планирование, принятие решений... Ведь это кошмар. Не слишком ли много для Яндекса? И в любой момент значительная часть этих "секретов" (а вдруг найдётся обиженный) может оказаться в свободном доступе. Если уже - не приготовлены ("а у меня в сейфе лежит некая папочка и диск к ней")... Ведь лучший способ не запутаться и не попасться на многочисленных секретах и тайнах - не создавать их вообще. Не создавать откровенно лишних. Польза и толк от которых могут быть весьма сомнительными. Собственно, это рассуждения из совершенно конкретной теории надёжности систем.
А ведь это, в конечном счёте, прежде всего - вычислительные мощности. Я лично очень сомневаюсь, что на Яндексе ведутся какие-то сложные разработки по самым разным типам фильтраций. Что-то есть - несомненно. Но не в таких грандиозных масштабах. Слишком много проблем это может породить. Слишком много. И слишком много людей можно в это вовлечь.
Алгоритмы, модели, распознавание скриптов... Всё это ладно. Кухня. Рецепты туманны или вообще неизвестны. Но штука-то в том, что однажды ведь пробовать-то придётся... Всем. ВСЕМ.
И единственный факт во всём этом (который точно может быть) - в один прекрасный день владельцы, авторы, создатели уважаемых, посещаемых, ЦИТИРУЕМЫХ ресурсов чётко узнАют и поймут, что их взял да и "рубанул" Яндекс. Без каких-либо договорённостей и предупреждений... Не знаю, не знаю... Непросто это представить. Попахивает незаконным ограничением в бизнесе, вмешательством и политикой... Не знаю, не знаю...🚬 Вряд ли сразу все это поймут и примут за борьбу в целях "чистоты" РуНЕТа - обязательно будут и недовольные.
Что-то есть. Но не в таких масштабах.
И единственный факт во всём этом (который точно может быть) - в один прекрасный день владельцы, авторы, создатели уважаемых, посещаемых, ЦИТИРУЕМЫХ ресурсов чётко узнАют и поймут, что их взял да и "рубанул" Яндекс. Без каких-либо договорённостей и предупреждений... Не знаю, не знаю... Непросто это представить. Попахивает незаконным ограничением в бизнесе, вмешательством и политикой...
бред, поставив фильтр на исходящие ссылки Яша ничем не рискует!
сайт ищется? - да!
изменяеться внешний вид страницы? - нет!
так в чём проблема?
отфильтровать продажные ссылки (а так же линк помойки) технически не составляет особой проблемы, где-то на форуме приводились результат иследования.
большей проблемой являеться определения авторства и как следствие невозможность правильно отранжировать документы и появление кучи сайтов практически с одинаковым содержимым
aka352, ваша ошибка в том что вы сказали что "непота нет" ) а надо было просто сказать что он есть, но намного сложнее чем предполагается в соседней ветке ;) тут и правда с терминами туго :)
тут и правда с терминами туго
избавляться от непотных беков
Тогда еще термин: "потные жирные морды" :)
А непот - это 100% фильтрация.
Новость конечно, но я всегда думал что алгоритмы вероятностные и на основании этого решения они принимают так же примерно, а не рубят с плеча. Но в целом согласен :)
Но я отсталый, не слушайте меня :)
я всегда думал что алгоритмы вероятностные и на основании этого решения они принимают так же примерно, а не рубят с плеча
Алгоритмы, может, и вероятностные, но модераторы - строго бинарны.
Что-то пророчества в последнее время участились.
видимо научились пользоваться бубном.