- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Сайт на эстонском языке, тематика - животные.
инфо или коммерц ?
вот интересно что бы было если бы статьи не чат, а нормальный копир написал - какой был бы трафик на аналогичном сайте
вот интересно что бы было если бы статьи не чат, а нормальный копир написал
Инфо.
Аналогичный сайт со статьями от копирайтера и уникальными авторскими фото в сентябре улетел в бан после helpful content update. И для меня это было шоком.
И что больше всего удивило, это отличные поведенческие на обоих сайтах. Среднее время было и остается около 2,5 минут.
И что еще интересно, на сайт со статьями от чата нет ни одной внешней ссылки, а на сайт с копирайтерским контентом ссылаются СМИ и государственные ресурсы.
Еще наблюдение, у сайта с контентом от чата было замедление роста после августовского апдейта ядра, но уже в октябре трафик пошел в рост, а в декабре прямо резко прибавил и новые статьи сразу в топ-5 полезли.
В июле еще один сайт с контентом от чата запустил, там динамика похуже, но и тематика смешанная.
И что больше всего удивило, это отличные поведенческие на обоих сайтах. Среднее время было и остается около 2,5 минут.
На деле алгоритмы считывают текст двоичным кодом. ГПТ пишет тексты тем же самым двоичным кодом, поэтому алгоритм четко всегда распознает - где человек старался, писал, а где машина.
Аналогичный сайт со статьями от копирайтера и уникальными авторскими фото в сентябре улетел в бан после helpful content update. И для меня это было шоком.
Ну по сути в этом нет ничего странного.
Гугл ищет решение что ему делать с тем колоссальным количеством нагенерённого контента, который появился за последний год. Где-то была соответствующая публикация на searchenginejournal.
Ишут новые способы анализа контента, где основной упор будет делаться на осмысленность, экспертность и максимальную полезность контента. Отсюда столько апдейтов за год, ну и рендомные вылеты сайтов — тестируют новые алгоритмы, включая SGE.
Ишут новые способы анализа контента, где основной упор будет делаться на осмысленность, экспертность и максимальную полезность контента. Отсюда столько апдейтов за год, ну и рендомные вылеты сайтов — тестируют новые алгоритмы, включая SGE.
Именно так. Собственно, гугль это правило уже давно обозначил, пояснив, что если сапам на сайте, то бан, если годный осмысленный контент, имеющий пользу для читателя, то уэлкам. Ему без разницы чей это спам - человеческий или машинный. Мир действительно меняется, и там понимают, что с нейронками как-то жить придется. Их ведь и с пользой каждый первый использует - и что, теперь BazzFeed банить за это?
Цитирую: "Appropriate use of AI or automation is not against our guidelines. This means that it is not used to generate content primarily to manipulate search rankings, which is against our spam policies."
И вывод отсюда простой - с помощью GPT можно генерировать как унылый мусорный спам, так и книги, которые на амазоне за деньги продаются, и даже дипломную работу написать можно (внезапно). GPT - это всего лишь инструмент. Кто-то им пользоваться умеет, а кто-то... ну вот не может он и все тут.
На деле алгоритмы считывают текст двоичным кодом. ГПТ пишет тексты тем же самым двоичным кодом, поэтому алгоритм четко всегда распознает - где человек старался, писал, а где машина.
Ничего подобного. Никаким двоичным кодом он не считывается. Текст анализируется лингвистически на уровне языковых моделей и результат фиксируется не бинарно - да/нет (человеческий/машинный), а с вероятностью в процентах.
Так точно. Нет там в анализе никакой бинарной логики - это не робот делает. Нейронку детектит такая же нейронка.
Я предсказываю, что автоблогинг в ближайшее время полностью вытеснит индийских копирайтеров. То же самое произошло с появлением цепочек непрерывного производства. Ручная работа, персональный подход, все дела. Но приешл Генри Форд со своим конвейером и все эти мелкие лавочки по сборке машин резко выпали из бизнеса, т.к. не имели никаких шансов выдержать конкуренцию. Особенно тяжело будет гуглю, который уже не сможет отличить текст, созданный человеком в ChatGPT вручную, от конвейерного производства. Как он узнает, что кто-то просто вбил в форму список из 1000 заголовков статей, написал цепочку качественных мудреных промптов, нажал кнопку "огонь" и пошел курить бамбук под ближайшей пальмой? И это еще GPT-5 не релизнулся...
Как он узнает
Я думаю в итоге Гугл просто введёт заоблачные требования к качеству контента и этим сразу отсеет всех, кто не сумеет составить цепочку качественных мудреных промптов — а таких будет очень немало.
Битва за Топ-3 будет очень жёсткой.