- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Сегодня ответ пришел по поводу проблеммы:
Результаты поиска - это не статическая информация, и время от времени имеют свойство меняться.
Продолжайте развивать сайт для пользователей, и он обязательно поднимется в поиске.
--
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру
Вроде бы не шаблонный ответ, но все равно отписка какая-то.
шаблон:
санкции к сайту не применялись. Продолжайте развивать сайт, возможно в будущем
его видимость в результатах поиска улучшится.
лучше бы сказали сроки :(
Пришел ко мне проект (тематика: проведение праздников), судя по всему, под этим фильтром.
Контент большинства страниц встречается на других ресурсах, однако по большим кускам текста со страниц, продвигаемый проект выше дублей. Но, как я понимаю, это еще ничего не значит. Стоит заметить, что на сайте есть версии для печати, не закрытые от индексации.
Ссылки на сайт исключительно обменные - около 200, каталог тематичный и красивый, для людей, что называется.
Чтобы избавиться от фильтра и уложиться в сроки продвижения завел новый домен, старый запретил к индексации. На всякий случай убрал каталог и буду переписывать контент, версии для печати перенесу в отдельную папку и закрою её от индексации.
Если сделать вывод, что фильтр накладывается за неуникальный контент, то нужно, чтобы первым на сайт пришел робот яндекса, а не парсер "текст-хантера" :) Посмотрим, что из этого получится.
Как меру предосторожности, при выпадении продвигаемого сайта из индекса, можно предложить сделать зеркало продвигаемого сайта, а в robots.txt указать хостом указать продвигаемый домен, причем зеркало организвовать на другом хостинге. Хотелось бы услышать мнения на этот счет.
Если сделать вывод, что фильтр накладывается за неуникальный контент, то нужно, чтобы первым на сайт пришел робот яндекса, а не парсер "текст-хантера".
У меня под этим фильтром есть сайт про который
Яндексоиды точно знают что с него берут контент,
то есть под фильтр попадают первоисточники.
Был сайт под этим фильтом, 120 страничек в индексе, почти все уникальные. Единственное, на главной странице очень мало текста, но не находилась не только главная, но и внутренние по самым махровым низкочастотникам.
В последний апдейт вышел из фильтра. Ничего не делал, кроме добавления на главную трех предложенений (кстати говоря, неуникальных, сами по себе они в тех или иных перефразировках присутствуют на других сайтах в достаточном количестве).
Ну, мало ли.. Может там такие экзерсисы были, что Вы сами не в курсе. Может, 404-я некорректно обрабатывалась (типа "сорри, этого товара уже нету" с откликом 200), нечеткие дубли в виде карточек товаров, различающихся двумя-тремя словами (названием товара), поиск по сайту не закрыт от индексирования и т.д. и т.п. Много вещей может быть, из-за которых большие сайты пострадать могут совершенно сами того не подозревая... Роботу ведь пофик, что без злого умысла, он видит кучу хлама...
хм.. а почему вы пытаетесь оправдать действия яндекса. Очевидно ж ведь, что на лицо просто баг вывода серпа поисковой системы. Что то приводит к тому, что целые сайты перестают участвовать в процессе ранжирования на основе релевантности без причин (не удается определить закономерность попадания под этот фильтр).. если бы это был бы фильтр - работники яндекса явно обозначили бы причины, т.е. "не делайте вот так, в противном случае с вашим сайтом случится это"... Надеюсь, это исправят в ближайшем будущем.
хм.. а почему вы пытаетесь оправдать действия яндекса. Очевидно ж ведь, что на лицо просто баг вывода серпа поисковой системы. Что то приводит к тому, что целые сайты перестают участвовать в процессе ранжирования на основе релевантности без причин (не удается определить закономерность попадания под этот фильтр).. если бы это был бы фильтр - работники яндекса явно обозначили бы причины, т.е. "не делайте вот так, в противном случае с вашим сайтом случится это"... Надеюсь, это исправят в ближайшем будущем.
поиск причины - не есть оправдание чьих либо действий.
А про баг имхо - цитата: "видишь суслика? нет. и я не вижу. а он есть!" (с)
я к тому - откуда такая уверенность? что это именно баг вывода серпа - где доказательства? (с)
Много вещей может быть, из-за которых большие сайты пострадать могут совершенно сами того не подозревая... Роботу ведь пофик, что без злого умысла, он видит кучу хлама...
Если я правильно понял, первопричина всего этого внутренние факторы? Правила подобные гуглу?
Хотя, с точки зрения здравого смысла
Да, вот фразу "Здравый смысл" наверное очень трудно вообще вписать в этот фильтр. Один из моих сайтов (сейчас под фильтром) в 2-х категориях Яки. По опыту добавления туда своих сайтов знаю, что придираются довольно строго. У меня порой в Яку не брали сайты (даже на платной основе :) одинаковой тематики с разным и оригинльным контентом. По причине того (цитата по памяти) "сайты претендующие на размещение в одной теме каталога и принадлежащие одному человеку или организации считаются нечеткими дубликатами". Т.е. логично - если сайт уж взяли в яку, да при этом еще и в 2 близкие категории - контент сайта (по крайней мере на момент добавления) оригинальный.
Так где же тогда логика, когда даже такие сайты без проблем влетают под фильтр 😕
З.Ы. Раньше, когда выпускал в свет оригинальный сайт с новым контентом не жалел 60 баксов на быстрое рассмотрение заявки в Яку, надеясь (по логике), что эта мера хоть как-то защитит сайты от массовых грабежей😮
Почитал этот топик, сделал для себя очень интересные выводы. Заранее извините за сумбурность, просто очень хочется выразить свои мысли.
Мы за примерами чужого контента ходить не будем. Все уникальное, все свое.
Единствено что, это рассылки на субскрайб, которые я выпускаю каждую неделю.
Был старый сайт, содержал статьи которые я выпускал в рассылках. Рассылки конечно содержали ссылки на него. Висел он в топ 2 по ВЧ достаточно долго. И вдруг его не стало в даже в топ 20. До этого, я создал второй сайт, перевел рассылки на него. Они как то ближе этому сайту по теме. Сайт получился статейный. На главной странице находятся вырезки из всех статей сайта. Со старого сайта статьи убрал.
Я тогда не понял в чем дело.
Так вот несколько апов, после прироста ссылок он резко пошел вверх до 21-й помоему позиции, еще 2 апа и я его вообще не нашел в выдаче, хотя в индексе он существовал. Был хорошо перелинкован. Сейчас как не стараюсь, но вывести его из сотни достаточно сложно. В основном находится только по НЧ и СЧ запросам. Сайт ссылки не продает. Содержит только одну ссылку на старый сайт с морды.
А не случилось ли это из-за отторжения контента? Вот что я думаю.
И сегодняшнюю ситуацию я расказал в соседнем топике, тут получилось что даже при краже контента, мой оригинальный сайт вылетел из индекса, не то что пессимизация.
Что же еще "хорошего" приготовит Яндекс оптимизаторам?
если "доапа" не будет - мой ресурсик вылез из под фильтра :p