- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ситуация следующая: есть страница, на которой текст подгружается динамически из большой базы. База представляет собой большое количество текста из которого рандомно выбираются абзацы, текст написан так, что какие бы абзацы не были выбраны - результат получается осмысленным и читаемым и даже информативным) повторяющихся абзацев не бывает. В итоге получается что при каждом обновлении страницы на ней имеется уникальный текст (ну относительно уникальный, потому что страниц много тысяч и абзацы все-таки могут повторятся на них) Надеюсь не очень сумбурно объяснил) Так вот вопрос такой: как на это смотрит гугл? В индекс попадает страница с одним текстом, далее при повотрном заходе бот видит другой контент на этом же УРЛ. При этом он возможно также видит некоторое количество одинакового текста на сайте..если я все правильно понимаю..Вобщем объясните хорошо это или плохо и какой SEO эффект от всего этого можно ожидать? Спасибо.
В индекс попадает страница с одним текстом, далее при повотрном заходе бот видит другой контент на этом же УРЛ.
Ну это нормально, например новостные сайты именно так и обновляются
Вобщем объясните хорошо это или плохо и какой SEO эффект от всего этого можно ожидать?
А ни какого скорее всего, если было все так просто, дело в том что есть механизмы определения уникальности каждого предложения (суть их в том что в каждом предложении уникальное расположение слов, т.е. грубо гугл берет предложение "Мама мыла раму, рама вдруг упала" и стоит что-то пары вроде мама-рама-1 слово между ними, рама вдруг - 0 слов между ними). Дальше он найдет страницы откуда вы эти абзацы скопипастили (вы же не каждый абзац писали вручную) по уникальному сочетанию слов в абзаце и задумается о уникальности контента на вашем сайте.
Даже если вы сделаете абзацы уникальными скорее всего он тоже ничего хорошего не будет, гугл заметит что абзацы повторяются на многих страницах и вряд ли обрадуется (правда если у вас есть такая большая база уникального текста не существующего на других сайтах инета зачем вам тогда такие хитрости :) ).
P.S. Механизмы определения уникальности абзацев и предложений даны очень грубо, на самом деле они намного сложнее (плюс какие именно алгоритмы используются это большой секрет поисковиков), но суть примерно та же.
P.P.S. Если бы можно было просто переставить абзацы и получить уникальный контент, не нужны были ретрайтеры и копипастеры. Кстати есть спец. программы которые определяют уникальность текста можете попробовать скачать несколько и скормить ваши страницы им (сервисы онлайн тоже есть).
Весь текст уникальный, т.е. максимум что бот может найти это повторяющиеся абзацы внутри сайта. Забивал рандомные страницы в copyscape - вроде находит только повторяющуюся фразу о скидках (она есть на каждой странице).
А что вы хотите добиться этим?
В лучшем случае гугл решит что у вас контент часто обновляется и будет индексировать сайт чаще, но ИМХО результат ранжирования вряд ли будет выше чем если бы вы просто сгенерировали большое кол-во страниц и скормили их гуглу без постоянных изменений (скажем можно менять только те страницы на которые нет переходов с поисковиков).
В худшем (хотя вряд ли) решит что у вас на сайт поисковый спам и забанит.
Просто это было удобно для такого огромного числа страниц (к тому же постоянно добавляются новые - и на них сразу есть уникальный текст). Теперь вот думаю насчет SEO. Как гугл отнесется к такой ситуации: проиндексировав страницу, бот через некоторое время возвращается на нее и видит что контент полностью изменен
Просто это было удобно для такого огромного числа страниц (к тому же постоянно добавляются новые - и на них сразу есть уникальный текст). Теперь вот думаю насчет SEO. Как гугл отнесется к такой ситуации: проиндексировав страницу, бот через некоторое время возвращается на нее и видит что контент полностью изменен
хорошо и rss поставте. Главное шаблон неменять и титлы и другие вещи) 🚬
хорошо и rss поставте. Главное шаблон неменять и титлы и другие вещи) 🚬
Можете пояснить?
Мне кажется хорошо отнесется только в плане контента (его кол-ва и обновления). Сайт врятли попадет под какой-то фильтр, тем более если вы говорите, что все уникально. А вот точных вхождений и плотности ключа дублирующего запрос ключа из тайтла вы уже врятли получите, либо получите с меньшим эффектом.
Мне кажется хорошо отнесется только в плане контента (его кол-ва и обновления). Сайт врятли попадет под какой-то фильтр, тем более если вы говорите, что все уникально. А вот точных вхождений и плотности ключа дублирующего запрос ключа из тайтла вы уже врятли получите, либо получите с меньшим эффектом.
Отнюдь) Ключевые слова для каждой страницы также динамически подгружаются в нужные места текста, оставляя его читабельным
Самое главное что сейчас беспокоит это пессимизация за duplicate content.
Приведу такой пример. Бот заходит на страницу, индексирует ее и обнаруживает что у него в индексе есть другой урл с этогоже сайта с некоторым количеством повторяющегося текста
По теме, сперва выкинет страницу из индекса и возможно через какое то время вернет с другим контентом, после нескольких таких вариаций можете потерять позиции по тем словам которые двигаете ротируемым контентом или полное исключении ее из индекса как "обманывающую" пользователя или поиск.
Сами посудите, человек находит в результатах поиска вашу пейджу и переходит, что он видит ? Верно другой материал который не соответствует его ожиданиям. Все просто надо поставить себя на место пользователя и довесить ситуацию через поиск гугля :)
Это чем то сродни клоакингу, только там роботу все время отдают одно, пользователю другое
согласен с ТУТом - сайт зафильтруется очень скоро. Лучше регулярно добавлять свежий контент так чтобы гугле успевал его "сыедать", а не ротировать. Скорее всего гугл не будет особо глубоко индексировать такой сайт.