- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Я уверен что пользу принесут следующие пути:
1. Поисковики значительно увеличат важность трастранка (репутации) ссылающейся Страницы, и уменьшат важность ссылочного, т.к. на 90% все равно анкоры чаще всего это либо спам, либо урл, либо незначащий текст "тута" и "здеся" :)
2. Обязательно будет учитываться посещаемость сайта в той или иной мере, т.к. по этим данным, которые весьма сложно и дорого правильно фальсифицировать, вполне можно сделать немало Очень интересных выводов. Пути получения этих данных тоже достаточно очевидны. Что именно учитывать, и как - это вопрос уже долгой и интересной дискуссии.
3. В продолжении пункта 2 будет реализована поведенческая модель и "модель вожаков", когда поисковики будут следить за поведением неких "эталонных" пользователей - "вожаков" и извлекать информацию из их поведения.
4. Будет немного модифицирована система определения дублей контента, супершинглы будут считаться(и сохраняться/закрепляться за страницей) с учетом времени их первого появления в базе, а также будут отслеживаться ссылки на оригинал.
Со стороны непоисковиков в интернете появится более развитая система Тэгов (классов информации). Теги будут сами классифицированы, чего пока нет(а это необходимо), а не выводиться мусорным "облаком". Это улучшит как поиск, так и понравится пользователям.
Со стороны СЕО биржи ссылок, зарабатывающие достаточно денег на ссылках смогут реализовать то, что не смогла Вебальта - приближенное вычисление трастранка и статвеса страниц :) Это на какое-то время снизит бюджеты на продвижение.
Со стороны СЕО биржи ссылок, зарабатывающие достаточно денег на ссылках смогут реализовать то, что не смогла Вебальта - приближенное вычисление трастранка и статвеса страниц
Угу. Только для этого им надо добыть у поисковика базу зафильтрованных им ресурсов. :) Одной информации о наличии ссылок сейчас явно недостаточно. Ссылки с доноров, весьма жирных в терминах бирж, на самом деле могут дать в конкретном поисковике эффект, сравнимый с пшиком.
Угу. Только для этого им надо добыть у поисковика базу зафильтрованных им ресурсов. :) Одной информации о наличии ссылок сейчас явно недостаточно. Ссылки с доноров, весьма жирных в терминах бирж, на самом деле могут дать в конкретном поисковике эффект, сравнимый с пшиком.
Ну, вообще, насколько мне известно самые распространенные фильтры Яндекса фильтровали ссылочное, а не статвес ;) Кроме того, безусловно и статвес и, тем более, трастранк, отличаться будут в такой системе и реальном поисковике весьма сильно, однако 100% нам и не нужно... экономия бюджета хотя бы на 30% это уже большие деньги :) Мы же люди, в конце концов, а вычисление трастранка руками (то что многие фактически и делают, просматривая страницы с купленными ссылками и контролируя, не ссылаются ли они на омносайты) - это позор нации 😂. Такие вещи надо автоматизировать ;)
Кстати, очень интересный вопрос. Если мы вычисляем трастранк на конечном графе G с двумя наборами исходными базами ЭталонныхБелых и ЭталонныхЧерных сайтов, и при этом наборы отличаются допустим на N процентов - то насколько будет отличаться отклонение трастранка на какой то произвольной странице? :) Думаю чем сильнее перелинкован G, тем меньше должно быть отличие(учитывая малый взнос конкретной Б или Ч страницы на совокупный трастранк рассчитываемой страницы), а учитывая что страницы в интернете перелинкованы очень плотно, исходящих ссылок обычно немало, то и придем мы в итоге почти к истинному трастранку.
экономия бюджета хотя бы на 30% это уже большие деньги
Боюсь, тут запросто не экономию, а перерасход можно навычислять :)
Боюсь, тут запросто не экономию, а перерасход можно навычислять :)
Можно :) При желании все можно :) Есть множество притч по этому поводу. :)
На самом деле ничего сложного и опасного тут нет. Грубо говоря если сам брокер(а не оптимизатор вручную) будет определять доры и прочие овносайты и говорить об этом покупателю :) Отличный сервис... :)
Почему бы просто брокеру не повышать качество участвующих сайтов отклоняя плохие? Ведь "отклонение плохих" может идти теми же методами что и у поисковиков... ? Даже если порог определения плохости будет более лояльным чем у реального поисковика, все равно часть отстоя такой метод отфильтрует.
Ведь "отклонение плохих" может идти теми же методами что и у поисковиков... ?
А кто знает, как именно оно у них идет? ;)
А кто знает, как именно оно у них идет?
Общие параметры известны. 100% совпадения не будет, но корреляция быть может.
А кто знает, как именно оно у них идет? ;)
Ты и KMY :p:D:
Принципы известны и заявлены самими поисковыми системами :)
Принципы известны и заявлены самими поисковыми системами
А можно ссылочки на такие заявления Яндекса, в частности? Такие, чтоб однозначно перекладывались на язык цифр. Только не надо отсылать к Яхувской статье про Трастранк. Равно как и к гуглевской про Пейджранк :)
А можно ссылочки на такие заявления Яндекса, в частности? Такие, чтоб однозначно перекладывались на язык цифр. Только не надо отсылать к Яхувской статье про Трастранк. Равно как и к гуглевской про Пейджранк :)
Да вот с цифирками конечно не все идеально :) Но если я вас отошлю к Яндексу "Мы стараемся не индексировать или не ранжировать высоко:автоматически сгенерированный (бессмысленный) текст ... " ? Думаю "основные принципы Плохости" очевидны и так. Неочевидны граничные принципы, серые принципы, светлосерые и пр. Давайте вернемся к исходному:
-Ведь "отклонение плохих" может идти теми же методами что и у поисковиков... ?
-А кто знает, как именно оно у них идет?
Ну вот например - дубль контента. Очевидно автомату? Бессмысленный текст - очевидно модератору? В конце концов достаточно проверить сайт на БАН и какой сайт Совсем плохой - мы узнаем легко :) А дальше можно смотреть - кто активно ссылается на "Совсем плохие" сайты.