- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Мне почему то кажется без ссылочного не могли обойтись. и оно также является соучастником наделанного их зверьком в этот апдейт
К примеру - если взяли 20 доноров, с простыней в 20 тысяч символов (грубо говоря), и средним количеством вхождений 10% по одному коммерческому ключу, загрузили в MatrixNet и сказали фас...
А как можно загрузить что то в MatrixNet ? Если эталоны (если можно так выразится) для алгоритма стали другие, то неизбежно должны пересчитаться и остальные факторы ранжирования, ориентируясь на сайты находящиеся в топе в данный момент или нет?
Скажу честно - никаких проблем со ссылочным не увидел. Выборка у меня достаточно большая. Те запросы, что были в топ 10 - так там и остались. Те, что были в топ 3 - не сдвинулись с места. Там где велась работа в +.
Вплоть до 2 тысяч ссылок на одну страницу - все нормально. И жирных линков, и менее крупных.
CatRegist, MatrixNet по заявлению, работает по более чем тысяче параметров, (в других источниках несколько тысяч). Про эталоны я привел пример. Но если скармливаются эталоны, я думаю они скармливаются ни в голом виде, а с какой-то выборкой и параметрами.
Сайт такой-то, + такие-то. Иначе каждый раз была бы каша и летали все топы.
Точно также скармливаются и плохие сайты, не в голом виде, а с параметрами.
Это мои додумки, как на самом деле мне тяжело представить, иначе бы выдачу перетряхивало при каждом новом вбросе доноров. (чего не происходит)
Скажу честно - никаких проблем со ссылочным не увидел. Выборка у меня достаточно большая. Те запросы, что были в топ 10 - так там и остались. Те, что были в топ 3 - не сдвинулись с места. Там где велась работа в +.
Я про фильтр за спам текст.
Не совсем понял, фильтр за спам текст? За одинаковые анкоры? Так это миф, ведь никто не знает величины анкор файла.
Спам текст на сайте донора?
:) я про выборку спаммероных текстов на документах, и обучение на них зверька. Или же можно предположить что они матрикснет на таких обучали только по тексту?
Можно ведь предположить что совокупно и с другими факторами, в частности с ссылочным фактором. поэтому что то осталось а что то нет.
Так что ваша теория имеет место быть. Хотя мне больше напоминает какой-то рандом. Потому что некоторые запросы он просто снял с морды и попытался раскидать по внутрякам, где-то раскидалось (где были страницы с вхождением тайтла или хоть какой-то плотностью), а где-то нет - запросы вышли за 1к+.
Я все же надеюсь, что не имеет место быть. :)
То, что вышел внутряк вместо морды - нормально, морду понизили за спам, а релевантность у внутряка была достаточная для топа.
G00DMAN, закономерности есть ещё с начала Снежинска. Мои подопечные, где экспериментальным путем резки по живому, была доказана необходимость портянок, невзирая на средние значения по топу - чувствуют себя с новым "фильтром" великолепно в вполне себе конкурентных топах (среднячковые СК). Самое веселое, что многие конкуренты улетели в небытие с портянками, а мои живут и здравствуют (>30 вхождений у моих, а среднее по топу стало на уровне 5-12).
Все можеть быть... :)
У меня к вам вопрос немного иного плана, ибо вышку прогуливал.. если всетаки допустить, что это подкрутка MatrixNet, то во что она выльется? Не может же просто часть формулы изменится без последствий.. (или может?) на место количества вхождений ключа в документ неизбежно усилены другие факторы, но какие?
Другие факторы могут быть размазаны и четких закономерностей не будет, как вариант.
Дальше топ20 - сайты могут идти хаотически и не иметь ничего общего с релевантностью, по заявлению самого Садовского.
Садовский говорил о топ-30.
Впринципе для меня это логично, потому что если взять тот же bdbd - их плотность из тайтла всего 2%, а уникальных вхождений чуть больше 5%. И это лишь пример того, почему их не выкинуло по этой выборке.
Вылетевшие не сильно отличались от bdbd по этим показателям.
G00DMAN добавил 23.01.2010 в 04:17
А как можно загрузить что то в MatrixNet ? Если эталоны (если можно так выразится) для алгоритма стали другие, то неизбежно должны пересчитаться и остальные факторы ранжирования, ориентируясь на сайты находящиеся в топе в данный момент или нет?
В MatrixNet загружается обучающая выборка вида запрос-документ-релевантность. Ориентация этой выборки на какие-то топы не особо нужна.
"Соответственно, если ваш сайт сместился с десятого на двадцатое место, с точки зрения поисковой системы, он стал хуже, либо появились другие сайты, которые лучше."
Эта строчка осталась в памяти, поэтому и вспомнил о двадцатке )
Про вылетевших - согласен, но при всех равных, могли учитываться и вхождения в тайтл (по тайтлу - вылетевшие имеют большую плотность - во всяком случае у меня)
Сообщение от CatRegist Посмотреть сообщение
У меня к вам вопрос немного иного плана, ибо вышку прогуливал.. если всетаки допустить, что это подкрутка MatrixNet, то во что она выльется? Не может же просто часть формулы изменится без последствий.. (или может?) на место количества вхождений ключа в документ неизбежно усилены другие факторы, но какие?
Другие факторы могут быть размазаны и четких закономерностей не будет, как вариант.
А почему что то должно быть усилено взамен? они научили и все - вон из топа,. а все остальное осталось по прежнему. Я не вижу на моих сайтах никаких проблем, все хорошо себя чувствуют. Речь именно о фильтрации найденных, мне так кажется...
Есть еще пессимистическая гипотеза, в которую я верить не хочу, потому что тогда кранты.
Ой как хотелось бы, чтобы не было войны :-))))))))))