- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Всем привет. Интересно найти общее, у кого гугл прошелся жестко по сайтам?
1. Тематика
2. Многоязычность (автоперевод)
3. Генерика\не генерика
4. Узкотематический/обо всем
5. Закупались активно ссылки\продавались ссылки
6. Возраст
и т.д.
У меня инфо попал под фильтр, комерция +- на месте. Без резких движений. Более всего грешу на автоперевод и задумываюсь, может убрать англоязычную версию - жалко, но все же.
Если брать генерику - возможно она есть, но это где-то 20-30 страниц на 6 000. Поэтому вряд ли ИИ. Ну и сайт обо всём. Как многие любят утверждать ГС). В чем-то может и правы. Тем не менее. Не самый плохой на просторах + трафик годами шел нормально и много запросов было в топе.
Еще есть вариант, что мог наказать за продажу ссылок. Но таких было штук 100 за 4 года и к тому же на достаточно мощные ресурсы. При ссылающихся 1500 доменах, не выглядит чем-то страшным.
Ну, а симптомы, такие как и у всех. В консоли все норм, все урлы в индексе, но улетели за 100. Интересно, что не все, а практически все. Некоторые топ-5 стоят как вкопаные.
1. Коммерческий, регион Челябинск, на более чем 40 тыс страниц 30-40 seo-текстов, в остальном только техническая информация о товарах, генерики нет. Падений нет, трафик что с Яндекса что с гугла идет равномерно.
2. Инфо, регион - регион вся РФ, 1000 страниц, из них примерно 950 - уникальный контент (не просто по показателю на антиплагиат, а приглашали авторов разбирающихся в теме - по русскому языку филологи, к статьям по психологии - психологи и не из инстаграма, а с кафедры мед. университета), ну и 50 статей с применением ИИ, но ручной правкой и факт-чекингом. Падение и по яндексу и по гуглу началось с сентября, в январе еще сильнее упало, а в начале марта в гугле на 10-15 позиций основные запросы улетели в низ. Если сравнивать с прошлым годом - общий трафик просел в 2 раза не смотря на усердную работу в течение года.
Ссылочное и для того и для другого не проводилось, ПФ ни на одном не крутили, и тот и другой рекламируются в яндекс директе (бюджет коммерческого на директ раз в 200 выше чем у информационного).
3. Все тексты написаны лично. 3500 статей.
4. Узкотематический, обзоры. Старейший в своей нише.
5. Никогда не продавались. Пробовал закупать, но "вечные" и потому не много. Года два назад, так что тут вряд ли сыграло.
6. 16 лет.
С декабря гугль-трафик начал катастрофически падать и сейчас почти в ноль ушёл.😒
ЗЫ. Может Гугль вообще забил на русскоязычный трафик, т.к. рекламной пользы от него ноль?
В ии контенте криптографический ключ зашифрован. а если не он, то как минимум отпечаток ии контента. все это вычислить гуглу и ему подобным алгоритмам легко.
Какой ещё ключ? Какой ещё отпечаток?
Вот, к примеру, чувак: scottaaronson.blog занимается как раз этим в OpenAI.
У себя в блоге он писал где-то с год назад, что случайность в генерированном контенте позволяет влиять там где нужно на эту случайность так, чтобы в тексте был нечитаемый человеком, но считываемый когда нужно отпечаток, позволяющий подтвердить, что контент был сгенерирован GPT.
Вот здесь выжимка из его поста на эту тему: https://www.reddit.com/r/ChatGPT/comments/10ixhmz/from_scott_aaronsons_blog_watermarking_gpt/
Вот, к примеру, чувак: scottaaronson.blog занимается как раз этим в OpenAI.
У себя в блоге он писал где-то с год назад, что случайность в генерированном контенте позволяет влиять там где нужно на эту случайность так, чтобы в тексте был нечитаемый человеком, но считываемый когда нужно отпечаток, позволяющий подтвердить, что контент был сгенерирован GPT.
Вот здесь выжимка из его поста на эту тему: https://www.reddit.com/r/ChatGPT/comments/10ixhmz/from_scott_aaronsons_blog_watermarking_gpt/
Так как раз ИИ сайты этот апдейт очень хорошо пережили. за теми что я наблюдаю, прибавка страниц и трафика
Ну я не на тему апдейта, а про "Какой ещё ключ? Какой ещё отпечаток?" и про то, что подготовленные яйцеголовые ребята активно этим занимаются и умудряются придумать схемы добавления нечитаемых водяных знаков не только в картинки, но и в тексты.
Так ап продолжается я так понимаю.
так до мая месяца говорили