- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу поделиться некоторыми наблюдениями.
Предыстория - внутренняя страница сайта продвигается по весьма конкурентному двусловному запросу. Продвигается мордами, морд не много, около 20, соответственно у страницы около 20-30 беков.
Решил в качестве эксперимента - добавить ссылок на эту страницу. Добавил довольно много - не меньше 500, из каталогов, статей и т.д за 3 дня ;)
Результат - если раньше страница была в топе по определенным запросам, то после апдейта она вообще отсутствует в серпе. И если даже сделать поиск по сайту, то страница не находится!
При чем остальные страницы сайта, остались на своих местах в выдаче по своим запросам.
Такое ощущение, что яндекс просто "наказал" эту страницу за появление слишком большого количества беков - одновременно.
Так что, будьте осторожны, не перебощите с темпами наращивания ссылочной массы!
P.S. Так как наблюдаю подобный эффект не в первый раз, хотел бы спросить - происходило ли у кого-то подобное? Есть ли у вас наблюдения, какой процент появления беков к существующим можно считать "безопасным"?
P.P.S. По моему опыту - страница должна вернуться в серп через 1 - 2 апдейта.
Есть наблюдение, что чем больше в короткий срок нарастает ссылочная масса с примерно одинаковыми анкорами, то сайт из топа улетает в 5-8ой десяток.
Но "наказание" ли это за быстрый и массированный прирост ссылок, или очередное выпадение части базы при апе - однозначно сказать тяжело.
Но логично бы было предположить наличие у Яндекса автоматических фильтров на такой случай.
Есть ключевики, где достаточно пары ссылок для попадания в топ, и прирост в 2 и около того ссылок - фильтр наверное не включают. А вот в ключевиках где требуется немало бэков для выдвижения - фильтры срабатывают.
ИМХО
Это может быть случайность. Страницы выпадают постоянно.
The WishMaster - когда ставишь эксперимент, предполагаешь, что страница выпадет, ждешь апдейта, и убеждаешься, что страница действительно выпала - это может быть случайностью? :)
И когда это происходит несколько раз на разных сайтах? Правда, раньше я подобный эффект наблюдал на мордах, поэтому сейчас попробовал на внутренней странице.
Результатом 1-ой части эксперимента считаю вывод, что "санкции" все таки есть, и накладываются не на весь сайт, а именно на 1 страницу.
The WishMaster - когда ставишь эксперимент, предполагаешь, что страница выпадет, ждешь апдейта, и убеждаешься, что страница действительно выпала - это может быть случайностью?
Если дело было с одной страницей - да, случайность. 10 страниц - тоже. 100 - уже лучше.
ИМХО 99 процентов выпадов по вине хостеров с их кривыми биллингами и заглушками ....
Со времени перехода на дедик ни морды, ни внутренние ни разу! Не отваливались.
Igorx, А я вот не наблюдал ... :) Вот прогнал по доброте душевной один крохотный региональный запрос, по всему, что в арсенале было :) ну почти по всему :) там как раз под 500 беков ... Так он чуть в спец рамещение не улетел :) :) :) :) :)
жесть ...........
... 5000 беков по МСН - не жесть? ;)
Это может быть случайность. Страницы выпадают постоянно.
Слишком закономерной стала эта случайность, на мой непритязательный взгляд. 🚬
Особенно за последние АПы.
По случаю, с начала месяца подналег на пару проектов по двум-трем ВЧ ключам в надежде, как всегда, слегка нарастить жирок, добавить малость бэков и шагнуть на пару позиций вверх.
НЕ тут-то было! Ну бэки еще худо-бедно прилипают, а вот с выдачей, скажем так, прямая противоположность. Зарегился в паре сотен каталогов (проверенные) - после АПа -47 позиций.
В который раз случайность? 😕 Раньше такого точно не было.
... 5000 беков по МСН - не жесть?
для гугла фигня ...
А про первую расскажите:)
Так вот как раз про первую часть и рассказал. Я когда увеличивал количество ссылок, предполагал, что будут какие-то санкции. Только мне было интересно, как это будет. Просто понижение позиций в выдаче, или совсем выкинет, или может быть наоборот на 1 место поставит :)
На этот раз - выкинули совсем страницу. Видимо, я уж слишком перестарался :)
Мне кажется вводить такой фильтр глупо. Есть сотни причин по которым у страницы может появиться сотни бэков за один день. Ну к примеру, ссылка в новостях крупного агенства типа ленты.ру, флэш-моб, мощная оффлайн реклама, и т.д. и т.п. Что же теперь за это страницу в бан отправлять, когда она так интересна пользователям?
ИМХО 99 процентов выпадов по вине хостеров с их кривыми биллингами и заглушками ....
Есть такое дело. Сто пудофф.;)
Но вот парадокс. Сайт отлетает на сотню мест именно по тому запросу - по которому усиленно прокачивался. Если бы дело было в примочках хостеров - вылетали бы все запросы и все страницы...