- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Автор скрипта http://ivbeg.livejournal.com/ попросил меня выложить здесь для тестирования, хотелось бы услышать отзывы.
http://urlus.ru/linkcheck/
Из явных недостатков на сегодняшний момент:
- Срабатывание начинается с наличия не менее 4-х таких ссылок на странице. Практически гарантированное срабатывание начинается с большего их числа;
- Пока ещё велик процент ложных срабатываний для блогов и, пока ещё, радикальных решений как это обойти нет поскольку владельцы блогов могут размещать ссылки как через ссылкообменники так и через механизм blogroll в Вордпрессе.
- каждый новый подключенный критерий анализа весьма ресурсоёмок. Хотя сейчас их включено 13 из, примерно, 40, то при включении всех 40 обработка 1 страницы будет занимать до 30 секунд - 1 минуты. Впрочем, это решаемо.
И конечно, не стоит пока относится к этому алгоритму серьезно. Я его делал proof-of-concept, так сказать для разминки.
http://venality.name - вот рабочий вариант есть, всех распознает кто есть кто
[update]: не знал, что не на все срабатывает
http://venality.name не распознаёт как минимум:
- oldvladivostok.ru
- www.trud.ru
- www.rg.ru
- www.gzt.ru
и ещё массу до кучи.
---
Vindovs, что обозначает, к примеру "Низкий уровень 5.95" после проверки ресурса?
И еще. У Вас там опечатка: "Предполагаемные платные ссылки на". Лишняя н
Какие критерии определения платности, помимо "?", использует скрипт? Намекните в личку, чтоли, если это великий секрет. Интересно просто, на основе чего вы принимаете решение.
Уважаемые, собственно автор алгоритма я. Vindovs, просто дал ссылку тут.
Рейтинг рассчитывается по основе "веса" ссылки и группы ссылок - это цифра которая рядом рейтингом и далее по делиться на 4 шкалы:
- от 4 до 10 - низкая вероятность
- от 10 до 20 - средняя вероятность
- от 20 до 50 - высокая вероятность
- выше 50 - практически гарантия
Соответветственно алгоритм не говорит "да" или "нет", а рассчитывает ссылочный "потенциально платный" вес.
Что такое "?" я не в курсе:) подробностей алгоритма раскрыть не могу, скажу лишь что там сейчас порядка 13 критериев и логика заточена не только самой ссылки, но совокупной окружающей её на странице информации. Соответственно страницы где платных ссылок меньше 4 пока не определяются и, скорее всего, определяться не будут.