- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
На мой взгляд (если это не глюк в Яндексе), отключили те страницы, которые по мнению алгоритма являются продвигаемыми. Отключить могли по принципу переспама анкор-листа точными / не естественными вхождениями. Пока что такие мысли на основании того, что вижу.
Врят ли у них там есть вкл/выкл страниц)
А можете показать примеры?
Ну а также, на сайтах где по 1500 - 2500 страниц в индексе только 3-10. И что самое интересное, какой подряд апдейт не индексируются уникальные статьи на этих сайта. Такое впечатление, что произошла заморозка от индексации новых страниц, то есть типа фильтра такого.
И где они заморозили индексацию? Робот у вас когда последний раз был на сайте?
Предвижу пару причин переходов запросов на "нерелевантные страницы".
1. Подкрутка алгоритма и глюк.
2. Продолжение подкрутки относительно текстов. У меня в частности вылетели 2 запроса на другие страницы, со страниц с относительно высокой плотностью ключевиков, хотя 20 и 25 числа они даже выросли.
Полагаю следует еще ап подождать, там видно будет.
1) Тупо убивайте релевантные запросу внутряки на сайте, заспамливая КС (заводя под фильтр) или запрещая в robots.txt
2) Подводите контент морды к максимально приближенным параметрам внутряка, который яша считает рулевантным в плане вхождений, заголовков и title
На этом нехитрое колдовство заканчивается. Проверено на разных запросах - этот простейший метод решает!
Улыбнуло:)
Что происходит?? кто скажет??? Яша совсем заболел... Сперва были падения на 20-ые места, сегодня упали за 70... Что это? Очередной глюк? Так вроде они еще предыдущий не откатили..
Нет...вот мне были понятны Арзамасы, Снежински и прочие Конаково. Мне все казалось правильным и по делу...Но вот что касаемо "апдейтов" этого года...уже ничего не понимаю... Например, с какого такого запрос "покраска автомобиля", который всегда был геозависимым, в этот апдейт (а может в прошлый, не проверял тогда) стал геонезависимым??? При том, что запрос "покраска авто" так и остался геозависимым!
Ну это мелочь... Не задевший меня 20-го числа анти-сео-текстовый ап сегодня таки пришел в гости... Один сайт, по которому как раз в прошлые апы выполнили обязательства, по главному ВЧ ушел в никуда...хотя по дополнительным ключевым вырос...Да, в тексте 31 повтор ключевой фразы...Но и текст объемный, хорошо читаемый, и словосочетания разные (хочется же охватить ВСЕ сч-запросы как-никак). 😂 Запросы области "продвижение сайтов" тоже серьезно пострадали...
Ну это тоже может и по делу... Больше всего тревожит вопрос - что делать с новыми сайтами??? Уже 3 сайта стоят столбом (возрастом не более полтора месяца), которым апдейты ни по чем. Появляются по своим запросам ну очень медленно (запросы-то совсем не сложные). Позиции в Гугле еще чуть-чуть выручают...
Хорошим тоном здесь было бы рассказать о своём мнении. :)
Сто раз уже говорил, что наказывают за оптимизированные тексты. 20-го была первая партия, 25-го - вторая. Сейчас что-то подкрутили и полетела третья.
На мой взгляд (если это не глюк в Яндексе), отключили те страницы, которые по мнению алгоритма являются продвигаемыми. Отключить могли по принципу переспама анкор-листа точными / не естественными вхождениями.
А смысл?
Пусть лучше в выдаче будет оптимизированная страница (да пусть даже немного переоптимизированная в меру), чем страница, которую посчитал релевантной запросу робот, работая, как показывает ситуация, еще по сырому алгоритму.
наказывают за оптимизированные тексты.
А зачем?
Благодаря свебу вылетело 3/4 страниц. Позиции главной, улетевшие 20 числа на -30 -80, вчера по пробитому кэшу вернулись обратно, но сегодня все по-прежнему...
А у меня 3 сайта с уник дизайном и контентом уже третий ап в индекс не лезут.
я в шоке🙅 3 сайта продвигаемые на 1 запрос по минус 20-50 позиций, главные куда то отвалились, вылезли внутренние - это армагедон, меня сегодня прибьют.😡