Про фильтры -30 и -50 и методы борьбы с ними.

1 23
B
На сайте с 07.02.2005
Offline
161
#21
KPACABA:
Тем не менее у товарища 2-D сайт под фильтром . Спасибо бобру за теплый совет!

Я Вам советов не давал, так что не надо благодарностей. Если же Вам нравится, что я называю Вашу писанину бредом - то пожалуйста, читайте.

У товарища 2-D сайт под фильтром вовсе не по причинам, придуманным Вами. Его собственное предположение, кстати, вполне грамотное - хотя диагноз можно ставить, только видя сайт.

Zonk
На сайте с 19.05.2006
Offline
321
#22
KPACABA:
А тема этого топика - это бан En сайтов за любые ссылки Ru (пусть даже качественные и годичной давности).

на самом деле фильтр -50 дается не за ссылки с русскоязычных сайтов, а за ссылки с сайтов, передающих отрицательный вес. Таких много среди англоязычных сайтов, продающих ссылки.

KPACABA
На сайте с 20.03.2007
Offline
51
#23
Zonk:
на самом деле фильтр -50 дается не за ссылки с русскоязычных сайтов, а за ссылки с сайтов, передающих отрицательный вес. Таких много среди англоязычных сайтов, продающих ссылки.

Zonk, со всем уважением! Но http://www.google.com/support/webmasters/bin/answer.py?answer=66356&cbid=-1u7z21sq02nsw&src=cb&lev=answer

Если, как там написано, на поисковую систему влияет релевантность ссылок, то как может Ru быть релевантным Eng? Может, конечно, но это очень мнительная релевантность...

Если сайт продает ссылки (что запрещено, как там написано), то, наверное, они там нетематические. А еще у 9 из 10 они в одном блоке и внизу страницы. + в рунете мало действительно хороших сайтов да еще и продающих ссылки. Так что если верить тому, что там написано, то покупка ссылок даже с Ru на Ru в скором будущем будет довольно-таки проблематичным занятием.

Несмотря на все это, на сайт были куплены всего-то около 150 ссылок, естественно, хорошо отобранных из которых 40% были En. Сейчас под фильтром. Если бы тоже самое распростанялось на Ru сайты, то 80% покупающих ссылки были под ним, тем не менее, на форуме почти никто об этом не пишет. А вот про Eng сайты - почитайте, довольно-таки много подобных отзывов.

Выход из этой ситуации - создавать более продвинутую систему фильтрации плохих ссылок на Xap и Sape. При проверке на Xap недавнокупленных ссылок из 100: 20 - склейка, 30 не в индексе я или г, 10 - ненайдено или таймаут, 30 - откровенная помойка, оставшиеся 10 при проверке PR оказывается что у большей половины он меньше или 0. Ну, конечно, все значения примерные.

Отсюда конструктивное предложение: сделать на XAP базу ссылок "на свой страх и риск" - куда будут заноситься все помойки, склейки, непроиндексированные итд. Однажды заметив у сайта несколько таких страниц он навсегда помещается в такую базу. Если бы можно было выявить где скрипт выводит кодом больше 10 ссылок в одном блоке - было бы неплохо, и тоже заносить их в помойку.

И базу всех остальных сайтов, так сказать, отсеять мух от котлет. А то получается мы грузим сервер XAP и постоянно проверяем помойки, которые уже по сто раз проверялись другими пользователями.

А на Sape надо что-то делать с проверкой индексации и PR (хотя бы только главных, если напрягает проверять полностью). Пример: введите от PR7 сайты. выведется больше 2-ух десятков, из них после проверки парочка будет дейсвительно с pr7 :).

Zonk
На сайте с 19.05.2006
Offline
321
#24
KPACABA:

Выход из этой ситуации - создавать более продвинутую систему фильтрации плохих ссылок на Xap и Sape.

К сожалению, своей сменой политики по отношению к покупателям ссылок в конце декабря 2008 Гугл в одночасье сделал покупку ссылок для оптимизатора ходьбой по минному полю (фильтр -50 встречался и раньше, но теперь получить его стало слишком легко любому сайту). Выход только один - способствовать развитию негативного seo и надеяться, что распространение такой практики приведет к смене политики Гугла.

KPACABA
На сайте с 20.03.2007
Offline
51
#25
Zonk:
К сожалению, своей сменой политики по отношению к покупателям ссылок в конце декабря 2008 Гугл в одночасье сделал покупку ссылки для оптимизатора ходьбой по минному полю. Выход только один - способствовать развитию негативного seo и надеяться, что распространение такой практики приведет к смене политики Гугла.

Умный человек, умные слова, респект! Этим все и сказано, добавить нечего.

F
На сайте с 29.03.2005
Offline
70
fed
#26

Скоро и у меня будет параноя - потихоньку все сайты уходят в фильтр.

Учитывая, что "рабочих" вариантов по выходу из фильтра пока я не нашел, то и мнение КРАСАВЫ тоже имеет право на жизнь. Хотя я больше разделяю мнение Зонка, и потихоньку снимаю "плюшевые ссылки".

Если у кого-то будет рабочий вариант - пожалуйста в студию. И мы Вас будем очень благодарить.

VG
На сайте с 18.05.2007
Offline
14
v@g
#27

2 Топикстартер.

То, что вы написали это фактически геноцид гуглом русских. Зачем гуглу такое нужно, если он наоборот стремится максимально закрепится в ру регионе? И завоевать благосклонность к своему поисковику в России? Ваш "мотив" :

Из-за нелюбви гугла к Ru биржам ссылок и вообще Ru методами отпимизиции (которые уже давно обогнали зарубежные), боясь будущего роста сайтов русского происхождения

притянут за уши.

Фильтры, про которые Вы написали , действительно существуют, но за ПОКУПКУ ссылок на биржах .

Ловится это легко. Зачем, по-вашему у гугля есть вакансии "поисковых диверсантов" - антиСЕО? Ответ прост: Они размещают свои сайты-РЕЗИДЕНТЫ во всех биржах , которые найдут. И не дай бог Вы купите ссылку у такого гугл-резидента. Как минимум, получите отрицательный вес, а, как максимум , фильтр -30,-50 , ..... . У "амнистии" есть тоже свой срок.

Найти такого СВОЕГО "резидента" не сложно. Проверте всех "клиентов" на купленных Вами мордах и найдете ни одного себя с фильтром ;) .

Касается это пока наиболее конкурентных (с точки зрения гугла) тематик, ибо на все ТЕМЫ , резидентами не напасешься. Но линейно, они таки расширяются с каждым годом.

Это минимально те обязанности, которые выполняют АнтиСЕО.

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий