Обсудим фильтр Яндекса "ты последний"

K
На сайте с 19.06.2007
Offline
67
#581
antono:
Сегодня ответ пришел по поводу проблеммы:

Результаты поиска - это не статическая информация, и время от времени имеют свойство меняться.
Продолжайте развивать сайт для пользователей, и он обязательно поднимется в поиске.
--
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру


Вроде бы не шаблонный ответ, но все равно отписка какая-то.

шаблон:

Сайт ранжируется в соответствие с его релевантностью запросам пользователей,
санкции к сайту не применялись. Продолжайте развивать сайт, возможно в будущем
его видимость в результатах поиска улучшится.

лучше бы сказали сроки :(

P
На сайте с 13.01.2007
Offline
53
Pax
#582

Пришел ко мне проект (тематика: проведение праздников), судя по всему, под этим фильтром.

Контент большинства страниц встречается на других ресурсах, однако по большим кускам текста со страниц, продвигаемый проект выше дублей. Но, как я понимаю, это еще ничего не значит. Стоит заметить, что на сайте есть версии для печати, не закрытые от индексации.

Ссылки на сайт исключительно обменные - около 200, каталог тематичный и красивый, для людей, что называется.

Чтобы избавиться от фильтра и уложиться в сроки продвижения завел новый домен, старый запретил к индексации. На всякий случай убрал каталог и буду переписывать контент, версии для печати перенесу в отдельную папку и закрою её от индексации.

Если сделать вывод, что фильтр накладывается за неуникальный контент, то нужно, чтобы первым на сайт пришел робот яндекса, а не парсер "текст-хантера" :) Посмотрим, что из этого получится.

Как меру предосторожности, при выпадении продвигаемого сайта из индекса, можно предложить сделать зеркало продвигаемого сайта, а в robots.txt указать хостом указать продвигаемый домен, причем зеркало организвовать на другом хостинге. Хотелось бы услышать мнения на этот счет.

Лучший конверт на платных архивах только тут http://zippro.ru (http://zippro.ru)
Artisan
На сайте с 04.03.2005
Offline
352
#583
Pax:
Если сделать вывод, что фильтр накладывается за неуникальный контент, то нужно, чтобы первым на сайт пришел робот яндекса, а не парсер "текст-хантера".

У меня под этим фильтром есть сайт про который

Яндексоиды точно знают что с него берут контент,

то есть под фильтр попадают первоисточники.

www.leak.info / ДАРОМ линки конкурентов и забытых доменов
Erny
На сайте с 26.06.2006
Offline
81
#584

Был сайт под этим фильтом, 120 страничек в индексе, почти все уникальные. Единственное, на главной странице очень мало текста, но не находилась не только главная, но и внутренние по самым махровым низкочастотникам.

В последний апдейт вышел из фильтра. Ничего не делал, кроме добавления на главную трех предложенений (кстати говоря, неуникальных, сами по себе они в тех или иных перефразировках присутствуют на других сайтах в достаточном количестве).

_
На сайте с 24.07.2002
Offline
299
_Ad
#585
wolf:
Ну, мало ли.. Может там такие экзерсисы были, что Вы сами не в курсе. Может, 404-я некорректно обрабатывалась (типа "сорри, этого товара уже нету" с откликом 200), нечеткие дубли в виде карточек товаров, различающихся двумя-тремя словами (названием товара), поиск по сайту не закрыт от индексирования и т.д. и т.п. Много вещей может быть, из-за которых большие сайты пострадать могут совершенно сами того не подозревая... Роботу ведь пофик, что без злого умысла, он видит кучу хлама...

хм.. а почему вы пытаетесь оправдать действия яндекса. Очевидно ж ведь, что на лицо просто баг вывода серпа поисковой системы. Что то приводит к тому, что целые сайты перестают участвовать в процессе ранжирования на основе релевантности без причин (не удается определить закономерность попадания под этот фильтр).. если бы это был бы фильтр - работники яндекса явно обозначили бы причины, т.е. "не делайте вот так, в противном случае с вашим сайтом случится это"... Надеюсь, это исправят в ближайшем будущем.

samolet
На сайте с 23.05.2005
Offline
61
#586
_Ad:
хм.. а почему вы пытаетесь оправдать действия яндекса. Очевидно ж ведь, что на лицо просто баг вывода серпа поисковой системы. Что то приводит к тому, что целые сайты перестают участвовать в процессе ранжирования на основе релевантности без причин (не удается определить закономерность попадания под этот фильтр).. если бы это был бы фильтр - работники яндекса явно обозначили бы причины, т.е. "не делайте вот так, в противном случае с вашим сайтом случится это"... Надеюсь, это исправят в ближайшем будущем.

поиск причины - не есть оправдание чьих либо действий.

А про баг имхо - цитата: "видишь суслика? нет. и я не вижу. а он есть!" (с)

я к тому - откуда такая уверенность? что это именно баг вывода серпа - где доказательства? (с)

Sm@RT
На сайте с 03.11.2006
Offline
135
#587
wolf:
Много вещей может быть, из-за которых большие сайты пострадать могут совершенно сами того не подозревая... Роботу ведь пофик, что без злого умысла, он видит кучу хлама...

Если я правильно понял, первопричина всего этого внутренние факторы? Правила подобные гуглу?

Куплю домены различных тематик в CO.UK, бюджет достаточный. Рассмотрю размещение статей на UK сайтах. Писать в личку
A
На сайте с 11.06.2007
Offline
115
#588
XTR:

Хотя, с точки зрения здравого смысла

Да, вот фразу "Здравый смысл" наверное очень трудно вообще вписать в этот фильтр. Один из моих сайтов (сейчас под фильтром) в 2-х категориях Яки. По опыту добавления туда своих сайтов знаю, что придираются довольно строго. У меня порой в Яку не брали сайты (даже на платной основе :) одинаковой тематики с разным и оригинльным контентом. По причине того (цитата по памяти) "сайты претендующие на размещение в одной теме каталога и принадлежащие одному человеку или организации считаются нечеткими дубликатами". Т.е. логично - если сайт уж взяли в яку, да при этом еще и в 2 близкие категории - контент сайта (по крайней мере на момент добавления) оригинальный.

Так где же тогда логика, когда даже такие сайты без проблем влетают под фильтр 😕

З.Ы. Раньше, когда выпускал в свет оригинальный сайт с новым контентом не жалел 60 баксов на быстрое рассмотрение заявки в Яку, надеясь (по логике), что эта мера хоть как-то защитит сайты от массовых грабежей😮

2++
На сайте с 21.03.2007
Offline
114
2++
#589

Почитал этот топик, сделал для себя очень интересные выводы. Заранее извините за сумбурность, просто очень хочется выразить свои мысли.

Мы за примерами чужого контента ходить не будем. Все уникальное, все свое.

Единствено что, это рассылки на субскрайб, которые я выпускаю каждую неделю.

Был старый сайт, содержал статьи которые я выпускал в рассылках. Рассылки конечно содержали ссылки на него. Висел он в топ 2 по ВЧ достаточно долго. И вдруг его не стало в даже в топ 20. До этого, я создал второй сайт, перевел рассылки на него. Они как то ближе этому сайту по теме. Сайт получился статейный. На главной странице находятся вырезки из всех статей сайта. Со старого сайта статьи убрал.

Я тогда не понял в чем дело.

Так вот несколько апов, после прироста ссылок он резко пошел вверх до 21-й помоему позиции, еще 2 апа и я его вообще не нашел в выдаче, хотя в индексе он существовал. Был хорошо перелинкован. Сейчас как не стараюсь, но вывести его из сотни достаточно сложно. В основном находится только по НЧ и СЧ запросам. Сайт ссылки не продает. Содержит только одну ссылку на старый сайт с морды.

А не случилось ли это из-за отторжения контента? Вот что я думаю.

И сегодняшнюю ситуацию я расказал в соседнем топике, тут получилось что даже при краже контента, мой оригинальный сайт вылетел из индекса, не то что пессимизация.

Что же еще "хорошего" приготовит Яндекс оптимизаторам?

Skype: s2aplusa Бесплатный обмен просмотрами и подписками в Ютуб (https://videomani.ru/?partner=8)
samolet
На сайте с 23.05.2005
Offline
61
#590

если "доапа" не будет - мой ресурсик вылез из под фильтра :p

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий