- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Странно все это.
видимо тестятся новые дополнения к алгоритму...
зато есть над чем подумать, подкорректировать и исправить в технологии... ведь во время таких тестов очень интересные вещи могут открыться при анализе...
Так все же, как вы думаете, логично ли мое предположение, по поводу такой ситуации с каталогами? Или это просто глюк?
Чистка базы, ну и попутно наступили на глотку бабло-кнопочникам, чтобы не повадно было рунет засирать.
по этой теме - по своим проектам как раз и наблюдаю - уменьшение каталожных бэков в 2-3 раза... при этом сохранение всех позиций по запросам (а в некоторых случаях по НЧ даже поднятие)
Падение уже есть - не везде, но уже прослеживается... в последнее время всё как-то во времени растягивается и баны не моментальные и беков показ отключают раньше, чем собственно учёт отключенного.
видимо тестятся новые дополнения к алгоритму...
Ну так ясно же: бан происходит автоматически и выход из бана тоже.
Вот поэтому-то и робот гуляет по ВСЕМ сайтам, проверяет, вдруг они перестали нарушать лицензию.
Ну так ясно же: бан происходит автоматически и выход из бана тоже.
Вот поэтому-то и робот гуляет по ВСЕМ сайтам, проверяет, вдруг они перестали нарушать лицензию.
А у меня есть некие другие данные... :) На несколько забаненых каталогов индексирующие боты вообще не ходят... Во всяком случае, 2 недели ни одной страницы не было посещено... Хотя в каталогах, у которых отрезаны отдельные страницы для сайтов бот кушает все подряд...
Нет, по моему разумению это уже не глюк - система. На своем каталоге недели три назад обнаружил отрезанные страницы. При этом каталог модерился очень жестко - описание не менее 300 символов нормального текста (без повторов, перечислений ключевиков, многоточий и разной херни), даже при обмене ссылками сам лично писал описания к добавляемым сайтам. Три месяца назад добавил туда сайт в котором продвигается 85 внутренних страниц - отрезали страницы, пропало с него ссылочное.
Этот вид полубана существует давольно давно, года 3 точно. Формулировка - "Ваш отвечает слишком большому числу запросов и перенаправляет трафик". Думаю, что смысл - борьба за чистоту выдачи по НЧ запросам. Если такие сайты с директом не банят или банят существенно гуманее, то еще может быть смысл сохранение НЧ трафика для директа.
Возможно в последнее время критерий этого фильтра ужесточен и под нож попали каталоги.