- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Анти ДДОС, как я понимаю в этом фуфельном контенте человек вообще не участвует? гпт генерит и зенпостером закидывает на вордпресс?
Там 186 000 статей. Не думаю, что человек смог бы это проверить. Явно автоматом все.
Читал на днях большой гайд гугла по оценке качества контента.
Там одним из важных параметров указывалась трудоемкость создания текста. Как по мне, все эти автонагенеренные статьи, и водяная вода которую наводняют копирайтеры - одного поля ягоды.
Быстро дешево почти без затрат, если на количество символов расходы разбивать. Т.е. трудоемкость - низкая.
Т.е. тема пока работает, вопрос на долго ли.
Читал на днях большой гайд гугла по оценке качества контента
Это их пиар - чтобы вы о них думали лучше, чем они есть. // ну понято же, что реальный матрикснет заточен на максимизацию доходов директа, а не распиаренную pFound
тема пока работает, вопрос на долго ли
До тех пор, пока {ранжированием не займётся реальный ИИ, а не то, что сейчас | антиспам найдёт простые признаки гпт | интернет запретят}.
Это их пиар - чтобы вы о них думали лучше, чем они есть. // ну понято же, что реальный матрикснет заточен на максимизацию доходов директа, а не распиаренную pFound
До тех пор, пока {ранжированием не займётся реальный ИИ, а не то, что сейчас | антиспам найдёт простые признаки гпт | интернет запретят}.
Там про Гугл было, не про Яндекс. У этих свой путь 🤣
Там про Гугл было, не про Яндекс
Ах да, ведь гугл пиарится в иной вселенной, а не в той же самой пастве!
Чем хуже?
Тем, что гораздо доступнее, практически бесплатно и ещё неизвестно, что там нагенерирует.
"Эффект выжевшего" оч забористая штука ос-но в этой теме. Лет 10, пока брал аудиты мучался. Невозможно занести людям в голову, что вот этот сайт в топе - исключение.
Они же видят своими глазами - вот он, работает. А 999 зафильтрованных - не видят))
А яндекс не банит?
За что, за источник происхождения текста?
Думаю, что в чистом виде нет. Как сопутствующий фактор может и рассматривает. Этого мы, к сожалению, узнать напрямую не сможем.
"Эффект выжевшего" оч забористая штука ос-но в этой теме. Лет 10, пока брал аудиты мучался. Невозможно занести людям в голову, что вот этот сайт в топе - исключение.
Они же видят своими глазами - вот он, работает. А 999 зафильтрованных - не видят))
Да, такая проблема есть и проблема серьёзная.
Заказчики хотят платить за эффект, а не за инициацию работы и прилагающиеся к ним затраты.
Как сопутствующий фактор может и рассматривает
Сопутствующие, могут быть причиной этих самых исключений.
Тоже вижу в выдачи AI-тексты, но очень небольшой процент. И как многие тоже пробовал юзать, в т.ч. на массивах, для уже работающих сайтов. Даже с учетом того что тексты вычитывались и правились в ручную - результаты печальные. В итоге скрыл от индекса, на одном сайте. На другом полностью заменил.
Может не умею готовить. Но тут ведь приводят примеры совсем плохих, и пишут - почему не банит)))
Сопутствующие, могут быть причиной этих самых исключений.
Да, это логично.
И как многие тоже пробовал юзать, в т.ч. на массивах, для уже работающих сайтов. Даже с учетом того что тексты вычитывались и правились в ручную - результаты печальные.
Результаты печальные в чём? В индексации, в текущем результате ранжирования или в динамике повышения видимости документа?
В итоге скрыл от индекса, на одном сайте. На другом полностью заменил.
Я нередко использую, особенно там где нужны разнообразить/отрерайтить/увеличить текстовый объём в описании категорий и товарных описаний.
Вычитывать и править - да, приходится вручную, но вариации тем и формулировок AI разнообразить помогает. В чистом виде из головы это было бы медленнее.
Но тут ведь приводят примеры совсем плохих, и пишут - почему не банит)))
Как уже сказал, определить градации - когда ещё можно и когда уже полный шлак всегда непросто, тем более, что решение об МПК принимается по совокупности факторов.
у меня другой вопрос.
почему на таких сайтах где тысячи статей сгенерированы никогда нет титлов главной страницы?