За всю историю платежей я нашел только 2 задержи. 1 раз - 25-го выплатили и 1 раз в 9 утра следующего дня.
Пока впервые такая задержка. Деньги всё еще на балансе. Платёж ожидается...
Да, на балансе. Всегда раньше списывалось
P.s.: На этом форуме есть ЛС, заглядывайте туда иногда.
Остальное решил удалить...
Вау, какую я тему пропустил. Смотрю много спецов собралось.
1) Давайте отделим мухи от котлет. Если сайт стал идти в рост это может быть совсем не связано с GPT и вообще с контентом. У гугла прошло много апов и сейчас идет и словить удачу вполне реально и получить и 100К и лям дейли как и упасть в 0.
2) В ту же тему, падают как GPT так и не GPT
3) Для гугла был реальный челендж появление имеенно Chat GPT, потому что это была первая удачная модель в виде чат бота которая стала угрозой для главной сферы деятельности гугла. Потому гугл заявил что будет бороться с этим изо всех сил. Потом гугл типо забрал свои слова обратно но это не так. Гугл ненавидит генеренку в любом виде и бросит все силы и деньги на борьбу с GPT
4) В разных группах в которых я состою ведутся споры о том есть ли детект или нет со стороны гугла. Большинство считает что детекта нет. Я считаю что детект есть. Но он недопилен. Потому и падают и те и те потому как гугл не умеет пока точно определять ИИ контент
5) Тут 2 контроверсные теории обсуждаются. Одни топят за то что гугл уничтожает сайты с ИИ
========
Итак, втупую, гугл не может опредилить контент ИИ или нет. Нет там нихера никакого бианрного кода, читайте основы NLP, тут я их разжевывать не буду. Суть модели угадать слово следующее за предыдущим, точнее токен. Все детекторы основаны на этом. В основе лежит детектор разработанный самим же Open AI для детекта своей же модели (на тот момент GPT2), и даже он с легкостью детектит GPT-3, 3.5 и 4.
Однако, внедрить такое в ядро гугла будет очень проблематично. Нужны такие GPU мощности которых попросту не существует на плаенете, чтобы на изи можно было любой текстовой контент детектить на лету.
Я предполагаю что есть какой-то ряд фильтров но не более. Но прям реально внедрять модель для детекта генеренки будут нереально дорого и гугл на это не пойдёт. К тому же есть дохерища false detect. Скорее есть какие-то паттерны детекта которые видны на объеме как статьи так и всего сайта и если под паттерны сайт попадает он улетает в бан.
=========
Что касается промптов никакой волшебной таблетки нет. Ничего путнего промт не даст. Как минимум 1. А работа со десятком промптов это полуавтомат и даже более ручная работа. Если юзать ИИ как ниструмент то конечно можно получить хорошие, читаемые и недетектируемые текста. Но нам-то надо не этого ведь так ))) Мы-то хотим кнопку бабло.
Потому не нужно мешать всё в одну кучу. Проект мог пойти в рост от переписки с помощью ИИ потому что у него улучшились поведенческие, но вдолгую он может рухнуть на любом следующем HCU и всё.
Так же и не верно обратное, что прям всё на ИИ гугл смешивает с говном и пессимизирует. ИИ тоже нужно уметь готовить. Весь вопрос лишь в объемах и в том сколько там будет ручного труда. Если каждый абзац текста будет получаться за счет нового промпта то на объемы это не применимо )
Тут всегда нужно давать исходные данные. Кто-то пилил бложик пол года на ИИ и он пошел в рост. А кто-то херачил 100К страниц в день через сотни акков к indexing API и у него чрезе пол года 5 лямов страниц из индекса выкинуло.
Так что, господа, перед обсуждением темы давайте вводные данные )
Да, уже не принимают ни с каких акков. Формулировка "бесполезный контент". Я спецом забабахал оч полезный конетнт вразы опережающий по всем пунктам всех конкурентов в нише. Пришел уже 2-й или 3-й отказ. Проверяют очень долго.
Важный момент в том что как кто-то уже писал в другой теме теряется ads.txt. Проверка похожа либо на автомат либо на баг. Даже когда пишешь в поддержку прилетает автоматическое письмо, видно что оно заранее заготовлено.
У меня вот этот последний единственный что не приняли, десятки сайтов приняты в разное время при разных правилах за прошедшие 10 лет.
Я отписал в поддержку и прописал по пунктам из справки. Посмотрим что ответят. Я думаю что дело в истерии по поводу ИИ контента, потому что по факту отличить его от реального или как-то задетектить невозможно. Что б там вам детекторы не писали может быть false positive как с конституцией США. Если текст логично разбит, хорошо оформлен и написан простым языком, то он легко отдаст false positive на детекторе. Как раз генерёнка с ошибками и от балды расставленными знаками препинания покажет human text.
Уверен что поддержка ничего внятного не ответит а будет отмаза типа делайте хорошие сайты для людей а не поисковиков. Короче, живем в жестокие времена. Новые сайты гуглу не нужны. Барды и Гемини обучены на наших сайтах и новые не требуются. А новую информацию для обучения модели возьмут с новостников.
P.s.: Акк не RU/UKR/BEL/KZ/etc....
Я хотел оставить дельный коммент, но увидал на всех страницах сайта Internal Server Error потому решил ничего не писать.
Как минимум это нужно поправить...
....
И это пишет человек, который сам безуспешно пытается добавить сайт в адсенс на русский акк и получить выплату в Казахстан... ))) Ну-ну, я тут один в белом костюме... только плюс еще тысячи вебмастеров по всему миру, которые видят то же что и я потому что глаза у них открыты.
Нет такой категории людей... есть просто те кто работает в РУ нете, до куда еще не дошли эти обновления...
Нужно перейти по ссылки и почитать ну может не 1000 комментариев а хотя бы 10...
Невозможно под это адаптироваться потому что не к чему адаптироваться, как только ты адаптировался новый ап, который всю адаптацию поменяет )