- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
А тексты анкоров какие были?
точный анкор "натяжные потолки"? или тексты, напарсенные с вордстатов?
Честно говоря уже точно и не помню, но
1. При составлении анкоров не ориентировался на вордстат абсолютно
2. Ссылки были из нормальных предложений написанных русским языком (к примеру статья про возможность применения натяжных потолков в ванной) и была ссылка с анкором типа "Мы уже указывали все плюсы которые вы получаете при #заказе натяжных потолков# в нашей компании.
3. По поводу полезности таких ссылок.........да не спорю, целью перелинковки не было улучшение юзабилити сайта. Но! это можно было отследить скорее только вручную, поскольку ссылки стояли где-то с 40% страниц и не затачивались под широкий НЧ лист запросов.
Кстати! Насколько я знаю нечто подобное реализовано в ВебЭффекторе, есть просьба отписаться всех кто юзает сиё творение
А поводу скрипта для автоматической перелинковки, который рьяно защищает некий господин..........идея не нова, мой товарищ, написал подобную скриптину ещё года 3 назад, тогда это работало более чем хорошо. Будет ли работать сейчас? Я не уверен, и выскажу свою точку зрения ещё раз:
Всё что сейчас работает на автомате засекается элементарно, и карается всевозможными санкциями. Всё что делается вручную вдумчиво в единичном экземпляре работает на все 100%
Я пошел по легкому пути и схлопотал фильтр, согласен моя недоработка, но вопрос-то в другом!
Яшка в процессе зачистки может фильтрануть любой самый белый и пушистый сайт, поэтому вопрос остается открытым.
Как все таки сделать перелинковку "аля Википедия" и исключить при этом даже минимальную вероятность схлопотать фильтр? Ссылаться анкорами "тут" "подробнее" итд итп?
Матрикснет к фильтрам не имеет отношения
А не полуавтомат?
Кстати, да. Мы наверное тут усложняем матрикснетами, великими смыслами и т.д., а все до тупого просто (как обычно и происходит именно с фильтрами за что нибудь): не нужно ссылаться на морду много с абсолютно разными анкорами, ибо не естественно -> спам.
Согласен на 100%
Перелинковка работала и будет работать, заметить можно на большом сайте
Сайт визитка не исключение :) Если ссылочное по хитрому закупать и ИЦ грамотно разлить:)
Вы настолько уверены, что спам фильтруется не матрикснетом? Особенно с учетом того, сколько ГС в выдачу вернулось по факту тотального матрикснета.
А зачем "только"? :)) На то есть матрикснет :)
Я приводил несколько доводов в пользу что к фильтры к матрикснету не имеют никакого отношения. Вы не привели ни одного.
Главный аргумент если бы фильтры были бы заложены в матрикснет, то фильтров как таковых не было - нельзя было сказать что на этот сайт наложен какой-то фильтр, а на этот нет. Фильтры были бы "гладкими" и плавно переходили от состояния "без фильтров" до состояния "максимальной пессимизации".
Данные, загружаемые в обучаемые алгоритмы, почти всегда предварительно обрабатываются простыми алгоритмами. Например, повышается резкость или контрастность картинки, убирается шум. Вот это и делают фильтры.
Про то, что википедию надо под фильтр загнать ещё не писали тут?
Там линкуют не только а-ля "тут" и "подробнее"
Но! это можно было отследить скорее только вручную
Я уже говорил про то как Яша просек. Вот фильтр:
1. Минимум 25% страниц имеют контекстную ссылку на морду
2. Минимум 3 страницы имеют контекстную ссылку на морду (это условие чтобы сайты из 4ех страниц за одну ссылку не фильтровались)
3. Контекстных ссылок на другие страницы, меньше чем ссылок на морду
Имея БД по ссылкам на сайте, в которой есть разделение на контекстные ссылки и на блоковые - написать такой фильтр дело 20-100 строк кода. Час времени, без проверки на ложноположительные срабатывания. ИМХО такие задания дают на собеседовании в Яндексе программистам.
Цифры взяты с потолка, но вы не найдете неспамный сайт с такими критериями, а большая часть спамных сайтов вашего типа отсеивается. Я не использовал еще два косвенных критерия:
1. Маленький сайт (для таких сайтов контекстные ссылки в большинстве случаев неоправданы)
2. Все ссылки несут ключ "натяжные потолки"
Всё что делается вручную вдумчиво в единичном экземпляре работает на все 100%
Ваш вариант, судя по этой теме, уже сработал на все 100% :)
Всё что сейчас работает на автомате засекается элементарно
ну напишите критерии как засечь автоматную расстановку ссылок 🍿 Затем как определить несут ли эти ссылки пользу юсерам.
Яшка в процессе зачистки может фильтрануть любой самый белый и пушистый сайт, поэтому вопрос остается открытым.
А если улицу на зеленый переходить тоже может высраться пьяный водитель и вас задавить.
Как все таки сделать перелинковку "аля Википедия" и исключить при этом даже минимальную вероятность схлопотать фильтр? Ссылаться анкорами "тут" "подробнее" итд итп?
Нужно либо для пользователей делать либо понимать как маскироваться.
Hkey, в моем случае фильтр за вики-стайл перелинковку без ссылок на морду.
По поводу, почему матрикснет, а не первичный фильтр, аргумент железный - сайты с отличными ПФ и/или возрастом и очень агрессивной перелинковкой фильтры не трогают. Т.е. фильтры применяются по факту совокупности N матрикснетообразных факторов.
Т.е. ошибки/спамность перелинковки скорее всего фигурируют в качестве одного из факторов для наложения фильтра (ака АГС, сеотексты и т.п.), но решение принимает тотал матрикснет по факту сопоставления его с N других факторов. И здесь уже включаются в игру грабли в виде переобучения.
Имея БД по ссылкам на сайте, в которой есть разделение на контекстные ссылки и на блоковые - написать такой фильтр дело 20-100 строк кода.
Уложусь в 10 строк css, чтобы сделать контекстную сцылку — блоковой для бота.
Теме уже несколько лет
На внутренних страницах из статей часто (не всегда, но имел такую привычку) линковал на главную, используя различные анкоры, полагая, что продвину главную по нужным запросам.
И ответ похож. И тыщи примеров насобирать могли.
Может я конечно и ошибаюсь. Но насколько я знаю матрикснет и технология машинного обучения занимается тем, что определяет документ к определенному кластеру и все. Обучается как раз принцип отнесения документа к кластеру. Ранжирование это уже отдельная история.
И по мне врядли наложение фильтров является задачей матрикснета.
ТС, вы уверенны, что в вашем случае дело именно в перелинковке как таковой? Может быть совокупность факторов, вместе с ссылками по ключу страница считалась переспамной, ведь текст ссылки тоже текст. А так убрали анкор и пересспам по ключу убавился, и как результат повышение позиций.