Идея с рандомным текстом

1 234
di_max
На сайте с 27.12.2006
Offline
262
#21
C-Grinch:
у меня все саттелиты с рандомным контентом улетели в баню :o

Оно и логично.

То, что предлагает ТС - лехко(!) может попасть под клоакинг.

А после такого бана, по моему, пути назад нету...

di_max добавил 13.08.2008 в 00:24

MyOST:
клоакинг - это показ одного боту, а другого челу, путать с рандомом не нужно

Осталось убедить в этом робота...;)

// Все наши проблемы от нашего не знания...
[Удален]
#22

сделал эксперимента ради, от рандома в титле имхо проку никакого

MyOST
На сайте с 22.01.2006
Offline
559
#23
Ёхан Палыч:
Почему то мне кажется, что вы не покажете примера годовалого рандома в индексе, даже если очень попросить. Или все таки?

естественно, сателиты показывать не буду, в принципе использую не 100% рандом не только на них

Ёхан Палыч:
Вы считаете, что клоакинг роботу не определить, так сказать, полномочий не хватит? Обязательно нужен организм за монитором? Сомневаюсь, очень часто робот дергает одну и ту же страницу с разных ip, как раз для определения клоаки.

А в чем клоакинг?

Допустим есть у меня текст на странице

"Привет, это слон!"

бот скушал

приходит еще раз, а там

"Досвидос, это слон - Миша Саакашвили"

Приходит третий раз, а там уже

"День добрый, Слон - Кандализа РайЗ"

Это что? Это смена информации на странице.

Вот если бот приходит и видит "слон, слоны, слоняры, слоноводы", а после с другого IP и то что видит пользователь "Привет, это слон!" - это другая тема, вот это я называю клоакингом.

Со 100% рандомом еще не пробовал, но есть с 60% - держатся довольно долго. Никакого клоакинга, все тексты - равнозначны, в плане семантического ядра.

scrapi:
пользователю выдается информация не соответсвующая выдаче боту

ну смотря как употреблять рандом, тут уж извините.

Калашников тоже может как нести мир (в виде сдерживания), так и разруху (в виде атаки).

Блог (http://seom.info/) | Ты уже SEO профессионал? (http://www.key-collector.ru/) Развиваем семантику более 8 лет! ()
NightBlade
На сайте с 17.09.2007
Offline
32
#24
Ёхан Палыч:
Еще через неделю увидит новую статью, прищурится, почешет в затылке, посмотрит левым ip, потом правым, потом искоса - обана, статья меняется на глазах, подавится и уйдет (если не сочтет клоакингом).

Сомневаюсь, что робот после повторного посещения страницы прямо так начнет вышеописанное "обстреливание" со всех сторон, чтобы сравнить страницу с разных IP. Опять же, не будем забывать про сочетание, которое упростит данный вопрос IP+UserAgent+Session_id

Ёхан Палыч:

лучше сделать смену статей через интервал (неделя-месяц)

200% согласен с данным утверждением, но можно интервал сделать и в несколько часов,день (пример - новостные порталы реального времени, где информация в одной статье может меняться в зависимости от ситуации)

P.S.: MyOST очень хорошо описал варианты развития данной темы, почти во всем согласен

LL
На сайте с 27.09.2007
Offline
39
#25
ETNO:
Идея заключается в том, чтобы выводить тексты рандомно. Т.е. есть, например, 10 статей - с разными ключами, но на схожую тему. Т.е., например, нужно продвинуться по запросу слоны - а у нас будет выводится рандомно статьи заточенные под розовые слоны, белые слоны, черные слоны и т.д. Возможно ли таким образом охватить больше ключевых запросов?

менять полностью содержимое страницы в т.ч. и кейворды, по которым она двигается - это более, чем бесполезно...

имитировать обновляемую страинцу - идея не новая, давно уже т.н. ротаторы используются, когда с какой-то периодичностью меняется часть текста на странице, но одну и ту же страницу продвигать по схеме:

неделю продвигаем по "розовый слон",

потом меняем полностью текст и начинаем двигать по "лохматый чеширский слон" - зачем, если кол-во страницы на сайте не ограничено?

la-la-la добавил 13.08.2008 в 01:48

ЗЫ: сорри, забыл добавить, что это ИМХО, дабы никого не обидеть...

XPraptor
На сайте с 15.10.2004
Offline
333
#26

У меня три портала построены на движке полностью рандомном. Так, что не неделю - каждый день разные тайтлы, кейворды, контент на одном и том же адресе. Результат - бот не уходит с сайта, каждые 10-20 минут индексит. Любая добавленная инфа (вплоть до страниц третьего уровня) индексится максимум за несколько часов. Единственный минус - бот нагрузку дает, иногда мешая пользователям. По НЧ очень высоко ставит такие страницы сразу после их изменения, при этом страница со старым контентом тоже отсается в выдаче еще 1-2 месяца (по предыдущим ключевикам), в результате нарастает ком каждый день НЧ запросов, по которым идет пернаправление на сайт из ПС. Единственное что останавливает эту лавину - полный рандом мало попадает в нужные ключевики, он генерится из текущего содержимого, а оно не всегда совпадает с запросами пользователей. Но если генерацию направлять на нужные ключевики, то НЧ собрать можно очень много.

Клоакингом тут и рядом не стояло - это обычное обновление страницы. Бот отлично привыкает к таким изменениям.

Виталайн
На сайте с 02.05.2006
Offline
73
#27
Ёхан Палыч:
... (если не сочтет клоакингом). ..

Это и есть настоящий клоакинг ;) Кому нужна страница с таким переменчивым контетом - т.е. сделано это спецом для робота!

Лучше уж менять процентов 15 контента - типа комменты идут к статье ;)

LL
На сайте с 27.09.2007
Offline
39
#28
XPraptor:
У меня три портала построены на движке полностью рандомном. Так, что не неделю - каждый день разные тайтлы, кейворды, контент на одном и том же адресе. Результат - бот не уходит с сайта, каждые 10-20 минут индексит. ... По НЧ очень высоко ставит такие страницы сразу после их изменения, при этом страница со старым контентом тоже отсается в выдаче еще 1-2 месяца (по предыдущим ключевикам), в результате нарастает ком каждый день НЧ запросов, по которым идет пернаправление на сайт из ПС ...

вот не вижу преимуществ именно в части "каждый день разные тайтлы, кейворды, контент на одном и том же адресе".

Зачем разные кейворды на одном и том же адресе, не лучше ли будет каждому кейворду (группе кейвордов) отельная страница, а контент на этой странице синтезируется из существующего или обновляется как-то по-другому? собирать траф страница будет всегда именно по одним и тем же кеям - преимущество, "обновляемость" остается...

XPraptor
На сайте с 15.10.2004
Offline
333
#29
la-la-la:
вот не вижу преимуществ именно в части "каждый день разные тайтлы, кейворды, контент на одном и том же адресе".

Дело не в преимуществе. Когда я этот движок делал, я просто на тот момент так его реализовал, что получиось ежедневное смещение информации по страницам. Уже через года полтора я писал движки с постоянными страницами и решил вернуться к этим и подправить. Но, проанализировав поведение роботов на них - решил не трогать, потому, как отлично получилось. Робот постоянно пасется и постоянно дает прирост НЧ. И я не стал их трогать, так и работают на этом движке.

S
На сайте с 27.12.2007
Offline
35
#30
Бот отлично привыкает к таким изменениям.

Чей бот? Гугл или яша?

Ищу работу. php+symfony+jquery.
1 234

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий