как выглядит фильтр переоптимизации контента?

123
S
На сайте с 27.10.2011
Offline
24
#11
marc:
А вот интересно в первых местах по поиску слова -------- яндекс выдает один сайт, где у него в футере это слово повторяется раз 300. И где тогда этот фильтр?

Нету.

Смотрите на свой сайт, а не на чужие.

Можете пожаловаться ЯндексМастерам на сайт.

Химик78
На сайте с 16.10.2009
Offline
161
#12
mr.Good:
Давайте разберемся, как диагностируется фильтр переоптимизации контента.

Америку не открою, но ИМХО так:

Смотрю на сайты в топе по запросу и анализирую их по схеме ниже.

Составляю таблицу:

сколько раз ключ в h1, h2, ..., в тексте, в стронге, в url, в alt, в description и т.д., какое количество слов на странице всего, считаю % вхождений в текст. Вывожу средние значения, которые беру за нормативы.

Как понимаю, страницы, у которых значения больше - улетели за переспам, у которых значения меньше недооптимизированы.

Кстати, средние отклонения тоже можно посчитать. Это будут допустимые отклонения от нормативов.

Сайты в топе, имеющие уж слишком большие отклонения от среднего, как правило, имеют какое-то особое ссылочное, хитрую линковку, особый траст и т.д.

После этого сравниваю продвигаемую страницу с нормативами.

proshin.ru (http://proshin.ru/services/) - аудит сайтов, продвижение, контекстная реклама и пр.
Химик78
На сайте с 16.10.2009
Offline
161
#13

gravisape, не нравится - не пользуйтесь.

То, что я написал, называется анализ конкурентов. Ясно, что это не билет в ТОП, особенно в конкурентный ТОП. Вообще-то, вопрос был не про билет, а про оценку переоптимизации.

Естественно, что все остальные характеристики ТОПа (размер сайта, линковка, ссылочное) тоже так надо анализировать. Получится неск. десятков параметров.

Плюс ПФ.

Естественно, что этого мало, т.к. не все удается увидеть. Поэтому еще нужен собственный эксперимент и опыт.

Ну, а еще останется проблема того, что анализ дает характеристику сегодняшнего топа, а не того, что будет через три месяца.

Химик78
На сайте с 16.10.2009
Offline
161
#14

gravisape, Не нравится - не пользуйтесь. Я свое мнение написал.

Вы слишком "умный" для этого топика. Сабж ветки прочитайте внимательно и предложите свой способ по теме - определение фильтра за переоптимизацию.

YaanGle
На сайте с 06.09.2011
Offline
155
#15
Химик78:
Америку не открою, но ИМХО так:

Смотрю на сайты в топе по запросу и анализирую их по схеме ниже.
Составляю таблицу:
сколько раз ключ в h1, h2, ..., в тексте, в стронге, в url, в alt, в description и т.д., какое количество слов на странице всего, считаю % вхождений в текст. Вывожу средние значения, которые беру за нормативы.
Как понимаю, страницы, у которых значения больше - улетели за переспам, у которых значения меньше недооптимизированы.
Кстати, средние отклонения тоже можно посчитать. Это будут допустимые отклонения от нормативов.
Сайты в топе, имеющие уж слишком большие отклонения от среднего, как правило, имеют какое-то особое ссылочное, хитрую линковку, особый траст и т.д.

После этого сравниваю продвигаемую страницу с нормативами.

1. Вопрос в сабже изначально поднимался другой

2. Ваш метод лишь на 1/n-ую можно назвать анализом конкурентов.

По сабжу:

Было бы действительно интересно найти методику определения отличий переспама контента на странице и переспама анкор-листа. Если предположить, что фильтр - это штрафные баллы к значению релевантности страницы-запросу, то по идее и спам анкор листа и и спам контента даст один результат. Но это имхо конечно, возможно бред :)

Если предположить, что фильтр срабатывает еще и за счет совокупности факторов (спам в контенте + анкор лист), помимо реакции на "чисто один фактор", то определение еще более усложняется.

Кстати, mr.Good, почему Вы решили, что переспам ссылочным дает смену релевантной ? Возможно смену релевантной дает и переспам в контенте, если есть страница, достаточно близкая по релевантности к рассматриваемой.

фильтр , насколько я понимаю, срабатывает при очередной индексации/переиндексации страницы ?

Также в интернет-статьях можно прочесть про фильтр "отключение ссылочного" (ниразу не встречал), также интересно, насколько эт правда)

Присущ
На сайте с 06.01.2011
Offline
929
#16

Переспам или переоптимизация это не прямой фильтр, а вторичный и накладывается по результатам оценки последних внешних и внутренних изменений, которые учитывают более важные факторы влияющие на ранжирование. По той же причине старые сайты, которые давно не трогали не наказывают за переспам так жестко, как молодые. По этой причине оценивать среднее по больнице нет смысла. Ищущим супер фишки и правильные проценты тошноты я бы рекомендовал писать материалы для людей, а не для робота.

Прототипы и юзабилити, чтоб продавал и в топ попал Анализ сложившихся бизнес моделей и поиска точек роста Директ — от 2500 р, включая бюджет на клики / Аудит РК до и после запуска — от 5000 р
MG
На сайте с 29.06.2007
Offline
95
#17

Переспам ссылочным устраивал не раз, и всегда была смена релевантной, и по запросу внутри сайта, зафильтрованная страница была не первая.

При этом переспам ссылочным сопровождался не совсем качественным контентом, тут работает именно совокупность факторов.

Этот вариант легко диагностируется, и с этим проблем нет, а тут просто отнесло за сотню, смены релевантной нет, по уникальным пассажам всё пробивается.

И фильтр не наложился при индексации, страница уже была проиндексирована, и по контенту поднялась, а потом, хлоп ......

В общем надо поставить ряд экспериментов.

AR
На сайте с 21.03.2010
Offline
50
#18

За последний год переспам ссылочным устраивал 2 раза, оба раза контент страниц оставался статичным до эксперимента около двух месяцев и после эксперимента не изменялся.

1. в первом случае с прямым вхождением было закуплено 80% сылок с нормальных сайтов, с посещаемостью от 1000 уников в день. Результат - улет из топ 20 в топ 100 и смена релевантной, причем релевантная "прыгала" каждый апдейт в течении 2-3 месяцев.

2. во втором был переспам главной страницы сайта - куплено 30% с прямым вхождением, все сайты с посещалкой от 3 тыс/сутки. Результат - смена релевантной с главной на второй уровень в тексте которой есть 1 вхождение ключа и падение из топ 5 в топ 20.

Причем и в первом и во втором случае у аналогичных сайтов, находящихся в топ3 прямого было около 2%, но ссылки похуже...

Вопрос: как лучше выходить? безанкорным, разбавленным? или и тем и другим в пропорциях топовых сайтов?

Admin1.ru (http://Admin1.ru) - SEO, SMM, Call-Tracking, Universal Analitycs, Email маркетинг, сбор баз для холодных звонков
bratoz
На сайте с 11.09.2009
Offline
143
#19

У меня был сайт по сериалам. Добавлял ко всем сериям -> смотреть онлайн.

В яндексе через месяц получил фильтр...))

Аренда ссылок ad*lt (http://links.izibit.net/public/sites), со старых трастовых сайтов 18+(2-8 лет)
dmitrij1
На сайте с 10.05.2009
Offline
109
#20

mr.Good, как раз сейчас провожу эксперимент по выходу сайта из под фильтра - http://makeprofitsite.ru/eksperiment-1-sajt-popal-pod-filtr.html

Переписав часть текстов + сбавив оптимизацию, все страницы сайта вернулись в индекс. Позиции скатились в низ, но по тиху возвращаются обратно в топ.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий