Это значит что при максимальной волатилности (изменчивости SERP) = 10, сейчас шторм на 9/10 баллов.
А что там за апдейты сейчас идут? Чего касаются? Напиши сюда пжл
Ну я же написал где посмотреть. Ну возьмём любой сайт, например один из моих.
По графику видно что я попал под мартовский 2023 ап ядра.
А например под ап ИИ контента , который был 8 февраля 2023 этот сайт не попал, но попали другие.
Я ТС и другим пострадавшим советую хоть иногда заглядыватьcюда
И сверять с датами просадок. Так же в консоли семраша наглядно видно что именно за апдейты были в эти даты.
Хоть все на Sly32 и набросились я тоже не понял вопрос ТС. Ибо Django ну как бы такая вещь к которой нужно как бы прийти. Не важно будь то (Laravel, Symphony, Lumen), Rocket (Ж-)), Ruby on Rails...
И если уж ты к этому пришел, то таких вопросов просто быть не должно. А если такие вопросы есть, то лучше бы ТС уточнил что он подразумевает под вопросом " хостинг с поддержкой Django". Возможно он имеет ввиду 1-click-app. Может он имеет ввиду именно хостинг в классическом понимании слова а не VPS/VDS.
Просто я бы перевёл слова Sly32 так: Уж если ты разобрался с концепцией MVC/ MVP, понимаешь что такое миграции, (то бишь как минимум умеешь работать из консоли), понимаешь что хотяб домен свой придётся в settings.py прописать, сделать команду для collectstatic и прочий головняк, то уж там установить NGINX, postgresql, gunicorn и прочее не составит труда. А если для ТС это просто набор буков, то он явно что-то не то затеял либо мы его не поняли )))
По расчётным показателям tf/idf, которые рассчитываются по фактическому текстовому содержимому.
1) Начнём с того что контент это не всегда текст
2) Давай рассмотрим новый сайт. У него нулевой рейтинг, ему просто невозможно конкурировать ни с кем, разве что с другими новыми сайтами
3) Единственный вариант гуглу куда-то впихнуть новый сайт это найти во всей базе какой-то совсем убогий мега-ультра-супер НЧ к которому страница (а главное и сам сайт) будет релевантна
4) Опять же апы и еще раз апы, я ни раз наблюдал как нулевые сайты удачно попадали в перерасчёт апа и, учитывай что фильтров (еще один неучтённый пока нигде индикатор) на них нет, вставали в ТОП
5) Важнейший вопрос на который нужно найти ответ следующий: Какими качествами новый сайт должен обладать в сравнении с 20-летним монстром с кучей траста (а траст это не только ссылки) и ссылок, чтобы по данному конкретному запросу конкурировать с этим монстром.
6) Был когда-то миф, который лично я мифом не считаю про "бонус новичка", где, в моём понимании, ПС давали фору новому сайту учитывая то что он вроде как пока не косится жестоко фильтрами ибо новый, чтобы типа прощупать на что он способен.
7) Кроме бонуса новичка я пока вообще не вижу шансов новым сайтам в современных реалиях, учитывая перенасыщенность всех ниш
8) Не нужно путать новый сайт с новой страницей. Если сайт уже под фильтром, что не делай новый страницы в топ не пойдут
9) Не забываем про эксперимент с 4-5-10 сайтов в одной нише, которые лично я проводил, где может выстрелить 1 из 10 а может и ниодного
10) Ну и наконец великий и рабочий рандом который никто не отменял
10.1) Учитывая то что все алго строятся на моделях, а они рассчитывают веса, пытаться угадать как думает ИИ равно как пытаться самому, своей головой создать детект ИИ контента, если понятно о чём я
При всём вышеперечисленном, закономерность в алгоритмах ранжирования однозначно есть. Доказательством тому могут служить сайты которые одинаково ранжируются в разных ПС. Разве что если не предполагать что все другие ПС просто парсят выдачу гугла )))
====
Ну и красной линией через всё это проходит ТЕМАТИКА....
Это наводит на мысль что Гугл в ранжировании использует еще и какий-то факторы, с неизвестными ему заранее показателями, например поведенческие метрики. Да, момент общеизвестный, только как Гугл может считать поведенческие метрики на дальних позициях, где трафика или нет вообще, или его ничтожно мало.
Наконец-то хоть кто-то на форуме задал интересный вопрос. Я лет 10 назад задавал такой же.
1) Парадигма ру/укр/бел нета что работают только ссылки. Давай ссылки отбросим сразу, они пригодятся потом а пока не нужны
2) Ты полностью забыл один из важнейших факторов -- а именно, пересчёт позиций во время апа. Вчера, когда ты публиковал свой старт пост шел мощнейший ап, точнее волна его последствий, а до этого он шел весь месяц а до этого не первый год. Я публикую статьи на белом сайте (который скорее для удовольствия) и встаю в топ 3, а потом ровно на 99-е место, а потом на 55, а потом в топ 11 а потом в топ 7. В этот момент просто мешается колода и идёт пересчет
3) Самый важный вопрос в твоём старт посте следующий, как ПС, не зная ничего о сайте (особенно когда он новый) может сразу воткнуть его вообще на какое-либо место, потеснив конкурентов и, не имея никакой статистики по поведению пользователей, например, передвинуть его с 55 на 43 место.
Раньше вопрос решался просто и назывался он long tail keywords. Гугл ставил сайт по ултра НЧ и давал какой-то траф на страницу которая была как раз на 55-м месте. И смотрел там поведенческие и если они были хорошие, толкал сайт вверх. Моя теория была такова. Но после BERT, когда гугл отобрал у обычных сайтов те самые long tail, жду твоих предположений...
А ты не думал о том что у кого-то например был фильтр за thin content или он это предполагал и как появилась возможность он их добавил/изменил/переписал с помощью ИИ.
Это самая, самая большая ошибка... все просто зациклились на ChatGPT ))) Кто сказал что, например я, вообще им пользовался. Я не пользовался и сейчас не пользую. Это бессмысленная хрень которая детектится любым ИИ детектором, ОСОБЕННО хвалёная GPT4. Что уж там говорить про гугл.
К слову Джасперы, Джарвисы и прочие куилботы существовали задолго, а уж модель Т5 от самого гугла. Так что Владимир, учи матчасть ))) В это теме ты явно НЕ в теме.
Сейчас вообще всё что на публику называют ИИ и нейро сетями это производные продуктов Open AI, ну и еще 2-х-3-х компаний. Я с индусом в бассейне купался в отеле и он мне затирал как мутит сервис покупая токены к API от Open AI на сотню с лишним инструментов. Всё то что на публике этот тот же Давинчи просто обёрнутый в сервис.
Но люди кто обходят детекты пользуются совсем другими вещами, которые появились задолго до того как произошел именно бум ChatGPT которых произвёл эффект вау.
---
Мало того, после релиза ChatGPT и его бума на всю вселенную, многие очень авторитетные издания такие как FT, CNET, BI, WSJ, WP и прочие ПУБЛИЧНО признались, что ГОДАМИ пользовались подобными тулами. Ты просто посмотри сколько контента наплодил тот же COLLIDER. Ты просто глянь сколько приходится на одного автора (официального) и прикинь сколько таких лонгридов он публиковал в день!
Один вопрос когда только крупняки пользовались такими своими разработками, совсем другой когда такую тулзу дали в массы да еще и БЕСПЛАТНО.
А логика была простая -- убить конкурента. Microsoft мечтал отобрать у гугла часть а то и весь рынок. У MS доход от поиска (bing) вообще не основной от слова совсем, потому, они особо ничего не теряли. Вот они и стали потихоньку убивать гугл а потом доход гугла сократился на 30%. И в гугле озверели.
Сначала гугл заявил что будет бороться с ИИ, потом выпустл BARD, потом заявил что не будет бороться с ИИ. Но практика показывает что ИИ представляет реальную угрозу основному доходу гугла, который идёт именно с поиска информации и любой англогооврящий эксперт мою ТЕОРИЮ ЗАГОВОРА подтвердит. Потому что нет тут никакого заговора, а обычная человеческая логика.
А теперь давай пойдём еще дальше по этой логике. Чтобы детектить одну модель нужна другая модель и её нужно внедрять в поиск. Как ты, к примеру, будешь детектить новостной контент? А, а ну, расскажи! Там ходит быстробот и индексирование моментальное. А знаешь что тот же COLLIDER и другие суют вообще весь контент в новости и статьи встают на позиции за считанные секунды. Каким образом отследить статья написана человеком или ИИ? А думаешь с такими технологиями хоть у одного из крупных издателя не появилась идея сократить свой штат сидящий в стеклянных офисах США, получающих ЗП по американским меркам как проф журналисты, страховку, пенсию и тд. Не смеши мои носки... Весь маломальский крупняк и средняк сидит на быстроботе в новостях и гугл вынужден бросить все силы чтобы не пустить туда ИИ контент, потому что это 100/100 YMYL и E-E-A-T, особенно, в нынешнее время.
Меня всегда поражало что на сёрче реальные новости начинают обсуждать раньше чем в бурже.
А больше всего меня поражали реально тупорылые формулировки гугла, которые доказывают что там работают отбросы, которые даже сформулировать мысль не мгут.
Да, я обнаружил такую же ситуацию. Спрашивал уже по закрытым телеграм каналам. Ситуация дико не приятная. У меня это на старых сайтах с хорошим трастом. Нет таких проблем только у моих новостников, их гугл не трогает.
Из подсказок посоветовать могу только одно. Проверьте проект на ИИ контент. Нет я понимаю что вы пишите статьи сами или заказываете, но гугл совсем озверел к ИИ сайтам. Хоть типо его официальная заява что ИИ сайты тоже могут быть хорошими бла бла бла, на самом деле гугл ведёт жесточайшую борьбу с ИИ контентом.
Маразм ситуации в том что ваш контент может быть и вовсе не ИИ, но проверялки гугла его таким сочтут и если процент таких вот "выявленных" старниц превысит критическую массу, проект начнёт тонуть.
Я уже заранее жду тут орду тех кто скажет что они рубят всё чатомгпт и всё у них стоит как вкопанное в ТОП1, но это временное явление.
Еще обширнее проблема в том, что нейронки стали (особенно на английском) писать реально очень похожие на живого человека текста и то что там прикручивает гугл чтобы такое детектить толко самому гуглу и известно.
Просто пока не все и не во всех нишах с этим столкнулись потому и не понимают о чём вы. Я чётко понимаю потому как ситуация просто идентичная.
Думаю что связь с выкидыванием страниц тут так же чётко прослеживается. У меня гоша выкидывает страницы 2020 года, прям чётко в консоли их режет под корень.
Мой подытог такой: Гоша подозреваемые им страницы кидает на доп проверку, которая может быть очень длительной, в моём случае до 3-х недель. Он показывает зелёным что они в индексе потому что он их реально проиндексировал, но в индекс он их не пускает пока своей новой штуковиной не проверит и, видать, штуковина реально требует ресурсы (думаю GPU), которых раньше в таком кол-ве не требовалось, оттого на этом этапе страницы долго застревают на проверке.
Возможно, конечно это всё мои домыслы, но как человек который 3 года до появления чатгпт тестил много чего на собственных моделях я вот вижу такие симптомы. Если у кого другие мысли -- делитесь, не стесняйтесь.
Что за тематика? Гео?
Судя по этому там совсем всё плохо )))
Он не обязательно должен быть посещаемым. 100 хостов в сутки в тематике charity или там еще несколько есть еще дороже и вуаля.
100 уников в некоторых тематиках могут приносить 5К просмотров, что в коммерции могут дать чуть ли ни 1 к 1 коверт, если уметь работать со своей аудиторией ))) Главное для AdSense (в частности) кол-во просмотров, так как это увеличивает вероятность клика. А еще важен тип запроса. Транзакционный запрос сразу несёт покупателя, инфо запрос может нести сотни тысяч балбесов ))) которые не сконвертятся ни во что. Селебрити тематики собирают лямы трафа и приносят копейки.