- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
б) фильтр по объему текста на странице..(чем больше тем лучше)
Почему лучше?
ну как бы страничка где 100 знаков текста, 250 внутренних ссылок - не айс
Дык, а в чём не айс заключается? Пока вижу только один более-менее логичный вывод - на страницу с небольшим количеством текста может (но не факт) приходить меньше низкочастотного поискового трафика, чем на страницу, специально под это заточенную.
А ещё какие доводы есть?
А ещё какие доводы есть?
Ну, изначально это фильтр использовали для отсеивания технических страниц - форм регистраций, страниц фото-галлерей, сайтмапав и тд и тп.
То есть не "чем больше, тем лучше", а "не меньше чем ...".
Большое количество текста тоже проблема - или копипаст, или генериованный, или масса коментов/форум. Шанс найти нормальную страницу с большим объемом текста (от 5000) невелик.
Ну, изначально это фильтр использовали для отсеивания технических страниц - форм регистраций, страниц фото-галлерей, сайтмапав и тд и тп.
То есть не "чем больше, тем лучше", а "не меньше чем ...".
Большое количество текста тоже проблема - или копипаст, или генериованный, или масса коментов/форум. Шанс найти нормальную страницу с большим объемом текста (от 5000) невелик.
Полностью согласен, неплохо бы было сделать ограничение на максимальный объем. Очень часто с большим объемом попадаются сканы книг и прочая ерунда.
А как Вы это проверяете, что он выдает верные данные? На глазок что ли?
Вот результат проверки плагином
А это внешние ссылки на этих страницах.
я знаю, потому что много фильтрую непосредственно руками.
А теперь откройте исходный код этих страниц и покажите хоть одну ссылку, которая пропущена, раз вы так хорошо знаете.
Почему лучше?
Это не подробная инструкция к применению.. согласитесь что лучше взять на странице где 1200 знаков а не 150 знаков(с учетом других фильтров)
Большое количество текста тоже проблема - или копипаст, или генериованный, или масса коментов/форум. Шанс найти нормальную страницу с большим объемом текста (от 5000) невелик.
Большое количество текста (да хоть 500 слов) тоже проблема - многие фильтруют немногословные страницы на автомате. А есть успешные оптимизаторы, которые именно в малословных страницах вылавливают рабочие. Работаешь как все - и результат будет средний...
Я кстати LF активно юзаю, перед YP и проверкой руками. Навскидку процентов 30 времени экономит:)
Это не подробная инструкция к применению.. согласитесь что лучше взять на странице где 1200 знаков а не 150 знаков(с учетом других фильтров)
Спорно. Помниться была, да и сейчас бывает, тяга у оптимизаторов покупать ссылки со страниц "контакты". А там как раз 150 знаков и бывает.☝