От перестановки слагаемых сумма не меняется. Если учитывать что все автоматизировано то при таком раскладе мне достаточно не себя продвигать, а закапывать конкурентов которые надо мной.
Откуда такая информация?
Чтобы не показаться всезнайкой хочу пояснить что лично я не думаю что можно фильтр за такое огрести. Г это вообще палка о двух концах, если знать как внешними факторами можно наложить фильтр на какой либо сайт весь SEO теряет смысл. Все начнут валить конкурентов.
Пока что в мою картину мировозрения укладывается такой вариант:
1. Гугль индексирует и поднимает PR рецептору.
2. Рано или поздно до гугля доходит что происходит и он выкидывает из индекса сгенереные сайты.
3. Так как сайты выкинуты -- рецептор возвращается к состоянию 0.
То есть все происходит по справедливости. Но если поддерживать ссылочную массу и постоянно добавлять новое то Г элементарно не сможет просчитать ибо его ресурсы тоже ограничены. И если принимать во внимание что "все справедливо" гугль никогда не накажет сайт рецептор. Почему? См. выше.
Это я таким уникальным способом хотел передать идею того что ИП будут разные.
Хм, странно это очень. Я не сеошник, поэтому мыслю исключительно логически (сорри если кого обидел): если какой то совершенно левый ко мне сайт, может мне навредить, то получается что конкурентов можно валить пачками. А этого Г не может допустить, потому что является вроде как надежным.
Но это все лирика, если эта схема реально работает (и даже не важно что сайты будут падать пачками -- все автоматизировано) то проще раскачивать сайты за деньги.
relaxamos добавил 08.06.2009 в 23:24
Ах да, и еще одна деталь. Мой неуникальный контент через неделю другую превращается в очень даже уникальный, хехехехех.
Контент не генеренный, он ворованый. То есть я просто бэкаплю разделы одного сайта себе в базу, а затем выдаю их. Может быть я и есть очень плохой человек, но справедливости ради замечу что на каждой странице стоит ссылка на сайт где контент был взят.
Пользователям от моих страниц польза точно такая же как от оригинала. Я придерживаюсь тематики.
Просто есть технология эдакого одурачивания Гугла, возможно (да и скорей всего) это скоро прикроруют, но пока не прикрыли. Между делом сайт прыгнул с 100 - 200 уников до 2000-3000, в сутки разумеется, вообще без раскрутки.
К вопросу о полезности я орентируюсь на Bounce rate, который стабильно держится в пределах 40 - 45%, что не так уж и плохо.
relaxamos добавил 08.06.2009 в 22:45
Полгода назад я тут спорил по поводу того что схема копипасты не сработает. Сейчас вот это. Так как сайт служит скорее для удовлетворения моего эго (а не для заработка) я поставлю эксперимент как только выделится свободное время.
Пока что я просто интересуюсь у бывалых, так как сам можно сказать не в теме и сайт этот крутил исключительно как хобби почитывая этот форум.
Говоря про АПы, я на них положил. Для меня единственный показатель -- посещаемость, bounce rate и geo (то есть если 98% уников идут из правильной страны -- все ОК). У сайта PR=1, тем не менее, как я уже говорил народу идет в 10 - 20 раз больше чем когда он был 3, а такое было.
TYUS: У меня есть ресурсы для автоматизации создания нескольких тысяч поддоменов на нескольких тысячах доменов, вот и подумалось тут...
Yandas: сомнительно, ибо с такой же логикой можно сказать что если я создам поддомен poddomen.domain.com и начну спамить google.com то он сам себя забанит. Там единственная зацепка по ИП может быть (хотя и это решаемо), но насколько я знаю гугл к ИП нейтрален совершенно.
А что "по идеи" может быть???
Я не знаю на что это указывает но могу рассказать свою историю. На мой сайт стоит Sitelinks, но стоит как то странно. Если я указываю запрос по которому я первый в выдаче из 378.000 страниц, то сайт линк не показывают, однако если я забью в поиск название сайта без .com вылезает Sitelinks.
Оговорюсь что сайт на 99,99% состоит из ворованого контента (просто берется as-is), причем всего страниц у меня несколько млн. по моему. Давно не считал...
Посещаемость 2000 - 3000 уников в сутки, опять же, 99,99% идет из Г.
Так что пункт 3 имхо можно сразу выкидывать, назвать свой контент качественным у меня язык не поворачивается (если конечно мы не предположим что я запутал гугл и он думает что это у меня воруют), но его много угу.
Четвертая опция тоже лично ко мне не подходит, ссылок фактически нет.
На знаю за что голосовать, то ли за 1, то ли за 2. Полагаю что скорее 2, перелинковка, "красивые" ссылки и т.д. было единственное чем я всерьез занимался на этом сайте, не без помощи этого форума. Голосую за 2.
Если кому интересно могу развить тему на своем примере.
Ну так вот я и говорю. Воплотил ли кто такую идею в жизнь?
Редирект на сервере ставить неуместно, имхо, в случае с analytics. Страница должна отрендериться у юзера.
Ну и само собой страница Б будет ЗАПРЕЩЕНА к индексации, чтобы не плодить неуник контент.
Дело еще обостряется тем что доска с которой я беру объявы их удаляет через Х времени. У меня же они удалятся не будут.
Самому западло чтоль генерить?