Динамически обновляемый контент на странице

12
S
На сайте с 12.04.2008
Offline
58
2707

Ситуация следующая: есть страница, на которой текст подгружается динамически из большой базы. База представляет собой большое количество текста из которого рандомно выбираются абзацы, текст написан так, что какие бы абзацы не были выбраны - результат получается осмысленным и читаемым и даже информативным) повторяющихся абзацев не бывает. В итоге получается что при каждом обновлении страницы на ней имеется уникальный текст (ну относительно уникальный, потому что страниц много тысяч и абзацы все-таки могут повторятся на них) Надеюсь не очень сумбурно объяснил) Так вот вопрос такой: как на это смотрит гугл? В индекс попадает страница с одним текстом, далее при повотрном заходе бот видит другой контент на этом же УРЛ. При этом он возможно также видит некоторое количество одинакового текста на сайте..если я все правильно понимаю..Вобщем объясните хорошо это или плохо и какой SEO эффект от всего этого можно ожидать? Спасибо.

WS
На сайте с 17.11.2010
Offline
25
#1
seil:
В индекс попадает страница с одним текстом, далее при повотрном заходе бот видит другой контент на этом же УРЛ.

Ну это нормально, например новостные сайты именно так и обновляются

seil:
Вобщем объясните хорошо это или плохо и какой SEO эффект от всего этого можно ожидать?

А ни какого скорее всего, если было все так просто, дело в том что есть механизмы определения уникальности каждого предложения (суть их в том что в каждом предложении уникальное расположение слов, т.е. грубо гугл берет предложение "Мама мыла раму, рама вдруг упала" и стоит что-то пары вроде мама-рама-1 слово между ними, рама вдруг - 0 слов между ними). Дальше он найдет страницы откуда вы эти абзацы скопипастили (вы же не каждый абзац писали вручную) по уникальному сочетанию слов в абзаце и задумается о уникальности контента на вашем сайте.

Даже если вы сделаете абзацы уникальными скорее всего он тоже ничего хорошего не будет, гугл заметит что абзацы повторяются на многих страницах и вряд ли обрадуется (правда если у вас есть такая большая база уникального текста не существующего на других сайтах инета зачем вам тогда такие хитрости :) ).

P.S. Механизмы определения уникальности абзацев и предложений даны очень грубо, на самом деле они намного сложнее (плюс какие именно алгоритмы используются это большой секрет поисковиков), но суть примерно та же.

P.P.S. Если бы можно было просто переставить абзацы и получить уникальный контент, не нужны были ретрайтеры и копипастеры. Кстати есть спец. программы которые определяют уникальность текста можете попробовать скачать несколько и скормить ваши страницы им (сервисы онлайн тоже есть).

S
На сайте с 12.04.2008
Offline
58
#2

Весь текст уникальный, т.е. максимум что бот может найти это повторяющиеся абзацы внутри сайта. Забивал рандомные страницы в copyscape - вроде находит только повторяющуюся фразу о скидках (она есть на каждой странице).

WS
На сайте с 17.11.2010
Offline
25
#3

А что вы хотите добиться этим?

В лучшем случае гугл решит что у вас контент часто обновляется и будет индексировать сайт чаще, но ИМХО результат ранжирования вряд ли будет выше чем если бы вы просто сгенерировали большое кол-во страниц и скормили их гуглу без постоянных изменений (скажем можно менять только те страницы на которые нет переходов с поисковиков).

В худшем (хотя вряд ли) решит что у вас на сайт поисковый спам и забанит.

S
На сайте с 12.04.2008
Offline
58
#4

Просто это было удобно для такого огромного числа страниц (к тому же постоянно добавляются новые - и на них сразу есть уникальный текст). Теперь вот думаю насчет SEO. Как гугл отнесется к такой ситуации: проиндексировав страницу, бот через некоторое время возвращается на нее и видит что контент полностью изменен

Trafikgon
На сайте с 24.10.2008
Offline
174
#5
seil:
Просто это было удобно для такого огромного числа страниц (к тому же постоянно добавляются новые - и на них сразу есть уникальный текст). Теперь вот думаю насчет SEO. Как гугл отнесется к такой ситуации: проиндексировав страницу, бот через некоторое время возвращается на нее и видит что контент полностью изменен

хорошо и rss поставте. Главное шаблон неменять и титлы и другие вещи) 🚬

. (#)
S
На сайте с 12.04.2008
Offline
58
#6
Trafikgon:
хорошо и rss поставте. Главное шаблон неменять и титлы и другие вещи) 🚬

Можете пояснить?

thePadlik
На сайте с 11.11.2010
Offline
78
#7

Мне кажется хорошо отнесется только в плане контента (его кол-ва и обновления). Сайт врятли попадет под какой-то фильтр, тем более если вы говорите, что все уникально. А вот точных вхождений и плотности ключа дублирующего запрос ключа из тайтла вы уже врятли получите, либо получите с меньшим эффектом.

эх.. на рыбалочку (http://www.vobla.by) бы)))
S
На сайте с 12.04.2008
Offline
58
#8
thePadlik:
Мне кажется хорошо отнесется только в плане контента (его кол-ва и обновления). Сайт врятли попадет под какой-то фильтр, тем более если вы говорите, что все уникально. А вот точных вхождений и плотности ключа дублирующего запрос ключа из тайтла вы уже врятли получите, либо получите с меньшим эффектом.

Отнюдь) Ключевые слова для каждой страницы также динамически подгружаются в нужные места текста, оставляя его читабельным

Самое главное что сейчас беспокоит это пессимизация за duplicate content.

Приведу такой пример. Бот заходит на страницу, индексирует ее и обнаруживает что у него в индексе есть другой урл с этогоже сайта с некоторым количеством повторяющегося текста

TyT
На сайте с 03.09.2007
Offline
47
TyT
#9

По теме, сперва выкинет страницу из индекса и возможно через какое то время вернет с другим контентом, после нескольких таких вариаций можете потерять позиции по тем словам которые двигаете ротируемым контентом или полное исключении ее из индекса как "обманывающую" пользователя или поиск.

Сами посудите, человек находит в результатах поиска вашу пейджу и переходит, что он видит ? Верно другой материал который не соответствует его ожиданиям. Все просто надо поставить себя на место пользователя и довесить ситуацию через поиск гугля :)

Это чем то сродни клоакингу, только там роботу все время отдают одно, пользователю другое

Юридические услуги в Днепропетровске (http://www.zakon.dp.ua)
I7
На сайте с 07.04.2007
Offline
84
IG7
#10

согласен с ТУТом - сайт зафильтруется очень скоро. Лучше регулярно добавлять свежий контент так чтобы гугле успевал его "сыедать", а не ротировать. Скорее всего гугл не будет особо глубоко индексировать такой сайт.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий