relaxamos

Рейтинг
7
Регистрация
03.12.2008
sundy:
Не будет пиара. Делал подобный эксперимент и гугл обнуляет PR за такие приёмчики.И плюс под фильтр отправляет продвигаемый сайт.

От перестановки слагаемых сумма не меняется. Если учитывать что все автоматизировано то при таком раскладе мне достаточно не себя продвигать, а закапывать конкурентов которые надо мной.

Откуда такая информация?

Чтобы не показаться всезнайкой хочу пояснить что лично я не думаю что можно фильтр за такое огрести. Г это вообще палка о двух концах, если знать как внешними факторами можно наложить фильтр на какой либо сайт весь SEO теряет смысл. Все начнут валить конкурентов.

Пока что в мою картину мировозрения укладывается такой вариант:

1. Гугль индексирует и поднимает PR рецептору.

2. Рано или поздно до гугля доходит что происходит и он выкидывает из индекса сгенереные сайты.

3. Так как сайты выкинуты -- рецептор возвращается к состоянию 0.

То есть все происходит по справедливости. Но если поддерживать ссылочную массу и постоянно добавлять новое то Г элементарно не сможет просчитать ибо его ресурсы тоже ограничены. И если принимать во внимание что "все справедливо" гугль никогда не накажет сайт рецептор. Почему? См. выше.

webcat:
relaxamos
XXX.XXX.XXX.XXХ - это 4 уровень
XXX.XXX.XXX - это 3 уровень
XXX.XXX - это 2 уровень
XXX.- это 1 уровень

Это я таким уникальным способом хотел передать идею того что ИП будут разные.

Ruba777:
Крутится и нарабатывается PR и неуникальный контент индексируется. Вопрос только в том что "потерь" много слишком и знаешь, что через год может остаться 10-20% в нормальном индексе. Остальные будут забанены или под фильтром. Хотя рецептор будет стоять высоко. Проверено не на 1000, но тоже на приличном количестве. Потом просто начинаешь удвиляться почему твои трастовые сайты в ДМОЗе, стоящие возрастом по нескольку лет исключительно белые и пушистые с ПР 5-6 вдруг хватают фильтры -50, -30.
Может быть и стоит если все автоматизировано. Но надо быть потом готовым вступить в переписку со службой поддержки Гугла на пересмотр. А так можно думаю раскачать до ПР6-7 и через сапу или TLA продоваться

Хм, странно это очень. Я не сеошник, поэтому мыслю исключительно логически (сорри если кого обидел): если какой то совершенно левый ко мне сайт, может мне навредить, то получается что конкурентов можно валить пачками. А этого Г не может допустить, потому что является вроде как надежным.

Но это все лирика, если эта схема реально работает (и даже не важно что сайты будут падать пачками -- все автоматизировано) то проще раскачивать сайты за деньги.

relaxamos добавил 08.06.2009 в 23:24

Ах да, и еще одна деталь. Мой неуникальный контент через неделю другую превращается в очень даже уникальный, хехехехех.

borej:
TS

скажите зачем мне в поиске Ваш неуникальный, созданный автоматически контент ?.....даже так: скажите зачем Вам в поиске Ваш неуникальный, созданный автоматически контент ?

Ежели исключительно Вам для удовлетворения Ваших финансовых амбиций, то имхо нах такие сайты. Так, надеюсь, думаю не один я, следовательно после обнаружения подобного спама, а это именно так называется, подобные ресурсы будут банится. В скором времени выбанится полностью вся система генерации подобного сайтостроения.

зы
сорри за пунктуационные и грамматические ошибки, всевремя на маты срывался.

Контент не генеренный, он ворованый. То есть я просто бэкаплю разделы одного сайта себе в базу, а затем выдаю их. Может быть я и есть очень плохой человек, но справедливости ради замечу что на каждой странице стоит ссылка на сайт где контент был взят.

Пользователям от моих страниц польза точно такая же как от оригинала. Я придерживаюсь тематики.

Просто есть технология эдакого одурачивания Гугла, возможно (да и скорей всего) это скоро прикроруют, но пока не прикрыли. Между делом сайт прыгнул с 100 - 200 уников до 2000-3000, в сутки разумеется, вообще без раскрутки.

К вопросу о полезности я орентируюсь на Bounce rate, который стабильно держится в пределах 40 - 45%, что не так уж и плохо.

relaxamos добавил 08.06.2009 в 22:45

DocWeb:
relaxamos, попробуйте...
потом, через 3-5 апов отпишите...
все почитают,сделают выводы...
вам - наука, опыт, ну может еще респект и уважуха)
всем - чтиво и чужой опыт...

делайте свой эксперимент)

Полгода назад я тут спорил по поводу того что схема копипасты не сработает. Сейчас вот это. Так как сайт служит скорее для удовлетворения моего эго (а не для заработка) я поставлю эксперимент как только выделится свободное время.

Пока что я просто интересуюсь у бывалых, так как сам можно сказать не в теме и сайт этот крутил исключительно как хобби почитывая этот форум.

Говоря про АПы, я на них положил. Для меня единственный показатель -- посещаемость, bounce rate и geo (то есть если 98% уников идут из правильной страны -- все ОК). У сайта PR=1, тем не менее, как я уже говорил народу идет в 10 - 20 раз больше чем когда он был 3, а такое было.

TYUS: У меня есть ресурсы для автоматизации создания нескольких тысяч поддоменов на нескольких тысячах доменов, вот и подумалось тут...

Yandas: сомнительно, ибо с такой же логикой можно сказать что если я создам поддомен poddomen.domain.com и начну спамить google.com то он сам себя забанит. Там единственная зацепка по ИП может быть (хотя и это решаемо), но насколько я знаю гугл к ИП нейтрален совершенно.

А что "по идеи" может быть???

Я не знаю на что это указывает но могу рассказать свою историю. На мой сайт стоит Sitelinks, но стоит как то странно. Если я указываю запрос по которому я первый в выдаче из 378.000 страниц, то сайт линк не показывают, однако если я забью в поиск название сайта без .com вылезает Sitelinks.

Оговорюсь что сайт на 99,99% состоит из ворованого контента (просто берется as-is), причем всего страниц у меня несколько млн. по моему. Давно не считал...

Посещаемость 2000 - 3000 уников в сутки, опять же, 99,99% идет из Г.

Так что пункт 3 имхо можно сразу выкидывать, назвать свой контент качественным у меня язык не поворачивается (если конечно мы не предположим что я запутал гугл и он думает что это у меня воруют), но его много угу.

Четвертая опция тоже лично ко мне не подходит, ссылок фактически нет.

На знаю за что голосовать, то ли за 1, то ли за 2. Полагаю что скорее 2, перелинковка, "красивые" ссылки и т.д. было единственное чем я всерьез занимался на этом сайте, не без помощи этого форума. Голосую за 2.

Если кому интересно могу развить тему на своем примере.

Ну так вот я и говорю. Воплотил ли кто такую идею в жизнь?

Редирект на сервере ставить неуместно, имхо, в случае с analytics. Страница должна отрендериться у юзера.

Ну и само собой страница Б будет ЗАПРЕЩЕНА к индексации, чтобы не плодить неуник контент.

Дело еще обостряется тем что доска с которой я беру объявы их удаляет через Х времени. У меня же они удалятся не будут.

Vergiliy:
На собственном.
Первый сервис нормально делает карту, только его лимита не хватает

Самому западло чтоль генерить?

123 4
Всего: 31