- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
у меня все саттелиты с рандомным контентом улетели в баню :o
Оно и логично.
То, что предлагает ТС - лехко(!) может попасть под клоакинг.
А после такого бана, по моему, пути назад нету...
di_max добавил 13.08.2008 в 00:24
клоакинг - это показ одного боту, а другого челу, путать с рандомом не нужно
Осталось убедить в этом робота...;)
сделал эксперимента ради, от рандома в титле имхо проку никакого
Почему то мне кажется, что вы не покажете примера годовалого рандома в индексе, даже если очень попросить. Или все таки?
естественно, сателиты показывать не буду, в принципе использую не 100% рандом не только на них
Вы считаете, что клоакинг роботу не определить, так сказать, полномочий не хватит? Обязательно нужен организм за монитором? Сомневаюсь, очень часто робот дергает одну и ту же страницу с разных ip, как раз для определения клоаки.
А в чем клоакинг?
Допустим есть у меня текст на странице
"Привет, это слон!"
бот скушал
приходит еще раз, а там
"Досвидос, это слон - Миша Саакашвили"
Приходит третий раз, а там уже
"День добрый, Слон - Кандализа РайЗ"
Это что? Это смена информации на странице.
Вот если бот приходит и видит "слон, слоны, слоняры, слоноводы", а после с другого IP и то что видит пользователь "Привет, это слон!" - это другая тема, вот это я называю клоакингом.
Со 100% рандомом еще не пробовал, но есть с 60% - держатся довольно долго. Никакого клоакинга, все тексты - равнозначны, в плане семантического ядра.
пользователю выдается информация не соответсвующая выдаче боту
ну смотря как употреблять рандом, тут уж извините.
Калашников тоже может как нести мир (в виде сдерживания), так и разруху (в виде атаки).
Еще через неделю увидит новую статью, прищурится, почешет в затылке, посмотрит левым ip, потом правым, потом искоса - обана, статья меняется на глазах, подавится и уйдет (если не сочтет клоакингом).
Сомневаюсь, что робот после повторного посещения страницы прямо так начнет вышеописанное "обстреливание" со всех сторон, чтобы сравнить страницу с разных IP. Опять же, не будем забывать про сочетание, которое упростит данный вопрос IP+UserAgent+Session_id
лучше сделать смену статей через интервал (неделя-месяц)
200% согласен с данным утверждением, но можно интервал сделать и в несколько часов,день (пример - новостные порталы реального времени, где информация в одной статье может меняться в зависимости от ситуации)
P.S.: MyOST очень хорошо описал варианты развития данной темы, почти во всем согласен
Идея заключается в том, чтобы выводить тексты рандомно. Т.е. есть, например, 10 статей - с разными ключами, но на схожую тему. Т.е., например, нужно продвинуться по запросу слоны - а у нас будет выводится рандомно статьи заточенные под розовые слоны, белые слоны, черные слоны и т.д. Возможно ли таким образом охватить больше ключевых запросов?
менять полностью содержимое страницы в т.ч. и кейворды, по которым она двигается - это более, чем бесполезно...
имитировать обновляемую страинцу - идея не новая, давно уже т.н. ротаторы используются, когда с какой-то периодичностью меняется часть текста на странице, но одну и ту же страницу продвигать по схеме:
неделю продвигаем по "розовый слон",
потом меняем полностью текст и начинаем двигать по "лохматый чеширский слон" - зачем, если кол-во страницы на сайте не ограничено?
la-la-la добавил 13.08.2008 в 01:48
ЗЫ: сорри, забыл добавить, что это ИМХО, дабы никого не обидеть...
У меня три портала построены на движке полностью рандомном. Так, что не неделю - каждый день разные тайтлы, кейворды, контент на одном и том же адресе. Результат - бот не уходит с сайта, каждые 10-20 минут индексит. Любая добавленная инфа (вплоть до страниц третьего уровня) индексится максимум за несколько часов. Единственный минус - бот нагрузку дает, иногда мешая пользователям. По НЧ очень высоко ставит такие страницы сразу после их изменения, при этом страница со старым контентом тоже отсается в выдаче еще 1-2 месяца (по предыдущим ключевикам), в результате нарастает ком каждый день НЧ запросов, по которым идет пернаправление на сайт из ПС. Единственное что останавливает эту лавину - полный рандом мало попадает в нужные ключевики, он генерится из текущего содержимого, а оно не всегда совпадает с запросами пользователей. Но если генерацию направлять на нужные ключевики, то НЧ собрать можно очень много.
Клоакингом тут и рядом не стояло - это обычное обновление страницы. Бот отлично привыкает к таким изменениям.
... (если не сочтет клоакингом). ..
Это и есть настоящий клоакинг ;) Кому нужна страница с таким переменчивым контетом - т.е. сделано это спецом для робота!
Лучше уж менять процентов 15 контента - типа комменты идут к статье ;)
У меня три портала построены на движке полностью рандомном. Так, что не неделю - каждый день разные тайтлы, кейворды, контент на одном и том же адресе. Результат - бот не уходит с сайта, каждые 10-20 минут индексит. ... По НЧ очень высоко ставит такие страницы сразу после их изменения, при этом страница со старым контентом тоже отсается в выдаче еще 1-2 месяца (по предыдущим ключевикам), в результате нарастает ком каждый день НЧ запросов, по которым идет пернаправление на сайт из ПС ...
вот не вижу преимуществ именно в части "каждый день разные тайтлы, кейворды, контент на одном и том же адресе".
Зачем разные кейворды на одном и том же адресе, не лучше ли будет каждому кейворду (группе кейвордов) отельная страница, а контент на этой странице синтезируется из существующего или обновляется как-то по-другому? собирать траф страница будет всегда именно по одним и тем же кеям - преимущество, "обновляемость" остается...
вот не вижу преимуществ именно в части "каждый день разные тайтлы, кейворды, контент на одном и том же адресе".
Дело не в преимуществе. Когда я этот движок делал, я просто на тот момент так его реализовал, что получиось ежедневное смещение информации по страницам. Уже через года полтора я писал движки с постоянными страницами и решил вернуться к этим и подправить. Но, проанализировав поведение роботов на них - решил не трогать, потому, как отлично получилось. Робот постоянно пасется и постоянно дает прирост НЧ. И я не стал их трогать, так и работают на этом движке.
Чей бот? Гугл или яша?