pavel419

pavel419
Рейтинг
313
Регистрация
03.05.2006
kozlodoy:
Помойму было в октябре-ноябре 2007го
7ую версию откатили. Но ненадолго. Потом гдето через неделю все равно ввели с небольшими корректировками.
Но там небыло бета теста. Поэтому сейчас откатывать не целесообразно.

Буки вебмастера тестили, а ща пользователи в реале. Мне кажется. просто статистику собирают, как юзер себя поведет, оттого и ждут.

Собственно, поставил эксеперемнт. На части тех самых сайтов (см. первый пост) снова сменил контент, повысив плотность ключевиков. На второй части оставил. Посмотрим, что будет. Правда оставил пока контент неизменным на тех сайтах, которые в буках хорошо сидят :) Кабы чего не вышло. Так что подопотные, это те. кому уже нечего терять. Думаю, пара-тройка апов до Магадана пройти успеет :) а там видно будет...

Chikago:
Ну здрасте, а естественным методом они не синхронно меняются? Добавляется новый контент, ставятся ссылки людьми на этот инетресный контент. Именно так и работает все в инетрнете. Или вы сначала занимаетесь оптимизацией, ждете 2 месяца, потом только ссылки начинаете покупать?

Правильно, только естественные ссылки ставятся как правило на источник, внутренние страницы, и хз какие у них обычно анкоры. Про это не раз писалось, что не смогло бы ссылочное работать только на естественных анкорах.

Я же про конкрентый пример, когда изменяется текст на главной или сама главная и в это время на главную происходит рост ссылок, не слишком медленный...

pavel419 добавил 06.05.2008 в 17:32

cybaup:
Скорее сигнал о искусственности дало резкое изменение внешних факторов. А за написание хороших релевантных текстов яша вам только спасибо скажет. Так что думайте над внешними. Еще тут правильно про траст сказали, о нем думать надо тоже..

правильно. сигнал дало внешнее, а изменения на самом сайте и позволяют его писсемезировать

cybaup:
Пессимизация за внутренние факторы, конечно, может быть, если вы так переделаете свои тексты на главной или внутряке, что ПС в них приметит составляющую поискового спама (перекачка ключами и тому подобные трюки). Если пишите грамотные тексты с нужной плотностью ключей, то пессимизации не будет.
.

Я б согласился, что переспамил главные, но на половине проектов сам текст не менялсЯ, менялся только вид исходящих ссылок. Но опять же, просели не все проекты, на которых эти ссылки менялись, а те, на которые потом покупались/ ставились новые ссылки

pavel419 добавил 06.05.2008 в 17:04

Chikago:
Я бы не сказал, все сайты над которыми я работаю очень быстро кушаются, при условии, что работа ведется добросовестно. В некоторых случаях даже быстрее, чем гугль. Насчет песка я ничего против не имею, а говорю лишь о том, что сайты с новым контентом в топе присутствуют и присутствовать будут.

будут, не отрицаю. Я о том. что синхронное изменение внешних и внутренних факторов может привести к пессимизации

Chikago:
Что в итоге приведет к затоплению коробля, судя по такой логике. Гугл сможет легко воспользоваться этим фактором. Яндексоиды не дураки. Правило о курице и золотых яйцах.

Ну вы же не будете спорить с песком в той или иной степени? А это ли не путь к затоплению корабля? Гугл прожирает новый сайт за три дня, яндекс- за два месяца? И что дальше?

Насчет того, что нельзя выкладывать новый контент на морду и производить прочие изменения очень сомнительно, это повредит релевантную выдачу, т.е. по теории в топе будут сайты только со старым контенто

А в топиках про песок народ активно высказывался что по коммерческим тематикам полно старых необновляемых сайтов, к тому же яндексу выгодна старая выдача и актуальный директ

Maximus325:
Вот в том то и дело, что все как-то единодушно уж слишком поддержали..

Ага, это то и страшно...

Maximus325:
Делать неизменный Лендинг Пейдж, а необходимый юзверю контент выводить в неиндексируемрй зоне например в яваскрипте?

Maximus325 добавил 06.05.2008 в 16:03
Вообще, бредятина, конечно. У Гугла все наоборот, к аптекам блоги приделывать приходится, что бы он видел что ресурс развивается.

Ну я то всего лишь теорию выдвину :) Которая правда многими подтверждается.

Проблема не в самом обновлении и развитии ресурса, а в том, что при слишком быстром развитии он может схватить фильтр, только если это развитие завязано на внешние факторы, то понижать ресур нельзя. А вот если пошел мухлеж с внутренними...

Кстати, недавние топики про пессимизацию за сапу могут иметь под собой ту же основу, т.к. сапа могла вполне дать "мигающие" ссылки, за что и получили продавцы (не все)

Теперь вопрос, что делать с просевшими проектами. Если теория верна, то контент менять нельзя, иначе снова падение. Ссылки трогать тоже опасно, снимать по крайней мере, т.к. попадаем под "мигание". Тупик, однако?

MaxMar:
Всегда исходил из того, что обновление существующего контента - это хорошо... У самого постоянно обновляется главная за счет контента, т.е. несколько раз в сутки... По самому жирному запросу в топ 5 висит... И ничего... и ничего... и ничего... ;)

А что делаете с внешними факторами?

Сайты чисто с каталогами как правило идут вверх. Во вред от каталогов я не верю, кроме резкого прироста ссылок, и то, просто за резкий прирост ссылок нказывать глупо

Всего: 4276