- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
т.е. не просто находится - а в топе... и по нескольким ВЧ и СЧ...
у меня тоже есть старый сайт. Выпали внутренние страницы, и, соответственно, места в выдаче Яндекс. Произошло после смены алгоритма в начале августа.
Запросы под главную страницу мест не изменили. Причем что еще интересно - каталог ссылок (тематический) остался в индексе.
А есть еще 2 молодых сайта. 1 - с уникальным контентом. Оба полностью выпали после сегодняшнего апа из индексов. До этого - частично выпали.
Ужас.
В начале августа яндекс в очередной раз прошелся по страницам с дублирующимся контентом, созданным для продвижения по низкочастотным запросам и оптимизированным под них.
Есть подозрение, что до лета фильтр обрабатывал только свежие страницы с датами появления в индексе после июля 2006 года. Видимо после обкатки фильтра его же натравили на более старые сайты, но рассматривали именно внутрисайтовую уникальность.
На свежак обычно накладывались очень жесткие наказания в виде "Ты последний" или полного выкидывания из индекса. Со старыми сайтами такого сделать не рискнули, на них автоматически оставили уникальные страницы без наложения каких-либо санкций.
В начале августа яндекс в очередной раз прошелся по страницам с дублирующимся контентом, созданным для продвижения по низкочастотным запросам и оптимизированным под них.
Есть подозрение, что до лета фильтр обрабатывал только свежие страницы с датами появления в индексе после июля 2006 года. Видимо после обкатки фильтра его же натравили на более старые сайты, но рассматривали именно внутрисайтовую уникальность.
На свежак обычно накладывались очень жесткие наказания в виде "Ты последний" или полного выкидывания из индекса. Со старыми сайтами такого сделать не рискнули, на них автоматически оставили уникальные страницы без наложения каких-либо санкций.
Это, видимо, все-таки предположение. Поскольку 2 последних моих сайта - новые. На 1 - уникальный контент. Старый сайт не новый - но контент вроде тоже как уникальный.
вопрос остался без ответа... разве при бане сайт может висеть в топе по сильно конкуретному ВЧ? у кого-нибудь был такой "бан с вылетом внутренних", подтвержденный Платонами?
to Newm: мысль по поводу фильтра на недостаточно уникальный контент тоже лезет в голову... хотя знаю - мой контент более уникальный, чем у многих конкурентов. + вместе с неуникальными вылетели внутренние которые были уникальными % на 80... где грань между уникальностью и неуникальностью одному Я известно...
возможно фильтр наложился по совокупности факторов - наличие обменника + открытые для индексации страницы поиска (5 лет никаких санкций не было) + оптимизированные (переоптимизированные?) внутренние?
по поводу конкурентов: был один абсолютный лидер в моей теме - тоже вылет, причем примерно за месяц до моего падения... я было порадовался, и тут меня самого накрыло :)
так бан, фильтр или глюк? есть ли у кого еще подобные прецеденты?
Это, видимо, все-таки предположение. Поскольку 2 последних моих сайта - новые. На 1 - уникальный контент. Старый сайт не новый - но контент вроде тоже как уникальный.
Отвечал я по случаю ТС. По вашему могу только сказать: "все телепаты в отпуске". Если вы не можете различить разные варианты наказаний, то это не мои проблемы. И не надо смешивать все в одну кучу.
to Newm: мысль по поводу фильтра на недостаточно уникальный контент тоже лезет в голову... хотя знаю - мой контент более уникальный, чем у многих конкурентов. + вместе с неуникальными вылетели внутренние которые были уникальными % на 80... где грань между уникальностью и неуникальностью одному Я известно...
возможно фильтр наложился по совокупности факторов - наличие обменника + открытые для индексации страницы поиска (5 лет никаких санкций не было) + оптимизированные (переоптимизированные?) внутренние?
Яндекс обычно не делает резких телодвижений в отношении крупных старых сайтов. Хотя если обменник живой и нетематический, тогда конечно могут сделать исключение:). Но полагаю, что проблема именно во ВНУТРИСАЙТОВОМ дублировании контента. Прибивают ВСЕ страницы на которых идет дубляж. Например, скорее всего остались в индексе координаты:).
Один раз у меня вылетал сайт. Вот отрывок из письма от Платона:
дубликатами и поэтому отсутствуют в результатах поиска. Яндекс не индексирует
дубликаты. Могу посоветовать Вам изменить код этих страниц так, чтобы
выделить их для робота, то есть оставить для индексирования только уникальный,
неповторяющийся контент. Сделать это можно при помощи тегов
<noindex></noindex> - поместите в них те части кода (текстового содержания,
например, меню, заголовки и т.п.), которые одинаковы для всех похожих страниц
сайта.
Может яша и ваш контент посчитал дубликатом
Но полагаю, что проблема именно во ВНУТРИСАЙТОВОМ дублировании контента. Прибивают ВСЕ страницы на которых идет дубляж.
Может яша и ваш контент посчитал дубликатом
воткнул наконец, что имелось в виду под дублями... :) на счет noindex - дельный совет, спасибо! на самом деле на сайте нет как таковых дублей, т.е. двух одинаковых страниц, но участки текста одинаковые имеются 🙄 закроем... посмотрим...
А на вопрос может ли ТАКОЕ быть баном - никто и не ответил 🚬
апа как будто не было... а в индексе уже 450 страниц... это быстроробот? и может это выздоровление сайта? что сделано еще:
1. закрыты в ноиндекс все повторяющиеся участки текста по всему сайту.
2. вся динамика (index.php?search=блаблабла) запрещена в роботс.тхт и переведена в статику - хтмл (псевдостатику :) )
А на вопрос может ли ТАКОЕ быть баном - никто и не ответил 🚬
Ну, прямо на три темы ниже это же обсуждается :)
/ru/forum/159043
Только до конца дочитайте тему...