Речь про монстров, на старте оказавшихся в своем месте и времени или про сайты рядовых пользователей? - это совсем разные вещи. В чем это разные вещи? Монстры не были монстрами на старте, они были точно такими же рядовыми сайтами, которые нашли свою аудиторию. Вы ни разу не слышали про стартапы, которые стреляли и которые потом выкупались как перспективные? Полна коробочка именно таких сайтов, которые были "от рядовых пользователей" и стали гигантскими проектами в будущем. Да, есть и такие, как тот же Авито, который изначально был финансовым проектом, но говорить, что все такие - это вы не правы.
Я про них и написал, что не рассматриваю их к работе, так как коммерческих перспектив никаких не вижу в этом.Так в том и дело, что вы не видите перспектив. А они не только видят, но и используют их. Вы с этим не работаете, а другие работают и получают серьезный доход и не видят в этом никаких проблем. И да, им, конечно же, не упало ваше SEO на сто фраз, поскольку там совсем другая работа над проектом.
так как в работу вклинивается ПС, алгоритмы которых оценивают общий "траст" сайта Так он в любом случае вклинивается, если у вас трафик из поиска, вне зависимости 10 у вас страниц или 10к. Завтра поисковики поменяют правила и ваши 10 страниц пойдут на дно, потому, что вы ровно так же зависите от ПС и их алгоритмов. Единственный, кому все равно - это тот, у кого трафик не из поиска. Либо трафик из поиска конвертируется в последующие прямые посещения.
Такой сайт умрет, так как невозможно на 5к статей размазывать описание табуретки Это вы расскажите вековым форумам, по типу Винского, трастовым сайтам по типу Пикабу или ЯПлакал и всем остальным, которые "умерли" ) У них, как раз, именно схема выше - поиск, затем пользователь остается и продолжает посещать сайт, затем сам начинает там публиковать материалы. И далее по циклу.
Если есть проект, в который можно вместить 5к статей и они не утопят сайт, то бюджеты таких сайтов - десятки млн рублей (если не сотни) (чтобы он был коммерчески успешным), в противном случае, это - ГС, которому место на дне.1. К такому бюджету такие сайты приходят не за один год. Если вообще приходят. К ним пользователи сами несут контент, еще и платят за размещение. Вы снова меряете расходы так, будто вы каждый ключ стараетесь вписать в расходную смету, а там этого нет, НЧ достигается именно количеством материала, что привлекает все новых и новых пользователей и генерирует новый материал. И, при удачном стечении обстоятельств, со временем, такие сайты становятся монстрами на слуху, практически не зависящими далее от поисковых механизмов, но, которые все так же исправно поставляют им пользователей. Им и близко не упало вливать бюджеты в прокачку каких-то там фраз, при том, что у них хвосты на тысячи в сутки.2. Ваше мнение по поводу ГС я уже понял, но совершенно с ним не согласен. ГС - это не про размер или количество материалов, это про удобство, интересность и полезность. Сам по себе подход "у вас больше 10 страниц - значит это точно ГС" априори не верен. Но, вы можете продолжать так считать, ваше право.
Даже представить не могу такой объем ключей :DНе в плане - никогда не видел, а в плане: зачем столько говноконтента (если отказов много!), если закрывать задачи можно (и нужно, считаю так) с прицелом куда меньшего кол-ва этого самого контента.Банально: зачем плодить говностатьи, если эффективнее их не плодить? ;)
Получается полноценный MFA, ничем не отличающийся сейчас от ИИ-парсинга-рерайта. И, как итог, вой на 700+ страниц.Ну то уже проблемы не мои, мне это совершенно неведомо. Возможно, есть какой-то сакральный или скрытый смысл в этом всем. Но пока что удается собирать десятки тыс аудитории много меньшим кол-вом статей.
Хотя, если бы у меня было 5к+ таких статей, и по отработке пула ключей все было бы как мне надо (у меня просто нет столько задач и охватов, а новостники я даже и не рассматриваю, надо оставить пачку региональных, а остальных, без лицензий - под нож) - то я даже не знаю сколько бы получилось трафа собрать ;)
То есть, по вашему, например, Вики - это говноконтент? ) Вы реально качество сайта оцениваете только по количеству материала на нем? )
Вы еще скажите, что на новостниках нужно заниматься ключами при том, что у них каждый день новый инфоповод выстреливает, а на следующий день новые заголовки и новые ключи. По поводу отказов для таких больших информационников я написал выше, почему они возникают. Не потому, что контент "говно", а в силу того, что поисковики умудряются давать трафик по НЧ, по материалам, которых на таком информационнике просто нет. И ничего вы с этим поделать не сможете.
В том и дело, что вы судите только малыми нишами, а вам рассказывают о норме отказов и работе с сайтами с количеством контента, с которым вы не работали. А еще и смысла там с ним работать нет, потому что все ваши знания будут разбиваться о масштабность происходящего, когда вы в принципе физически не сможете обработать и учесть такую тонну контента и ключей )) На ваши 100 ключей в работу на месяц у новостника в день появляется несколько десятков тысяч НЧ по инфоповоду ))
Все же проверьте. Хуже точно не будет 😉
Если быстрому переключению мешает использование устаревших функций и т.п., пора заняться рефакторингом 😉 При этом вовсе не обязательно ориентироваться на версию 8.х (можно на уже используемую вами версию 7.х).
Я же сразу написал, что включаю 7 версию для новых сайтов. А они работают на том же самописе, что и старые сайты. Никакой разницы там не было и быть не может в силу того, что это не неповоротливый движок из коробки с тонной бессмысленных функций, а изначально написанный код с оптимизацией. Уже проверено.
Зачем вы предлагаете рефакторинг кода, который работает идеально быстро для своих задач? Просто чтобы потратить часы на бессмысленные действия и, в результате, получить, в лучшем случае работающий как и работал сайт, а в худшем - что-то упустить и потерять работоспособность или позиции сайта? )) Спасибо, но я лучше это время потрачу или на запуск нового проекта или на отпуск ))
Есть пример сайта с такими же отказами на, хотя бы, 5 тысяч статей? Я выше писал, там где у меня сервис-сайты на десять страниц и конкретными запросами пользователей - тоже с отказами все красивое. Это же очевидно, что если вылизывать 10 страниц с условными 10 запросами, которые качаются в топ без хвоста в тысячи запросов в сутки - показатель отказа будет низким, в силу того, что поисковик банально не будет этот сайт выдавать по тонне смежных запросов, по которым на сайте нет ответов, что и создает отказы у реальных пользователей.
Наверное, если у вас 10 страниц, вы качаете только 100 ключей и только за ними следите - боты вам будут мешать. Когда у вас 5-10 тысяч и более страниц с материалами, ключей тысячи и еще несколько тысяч хвостов - наличие 10% отказов от ботов банально никак ни на что не влияет, либо влияет, но крайне не существенно, ибо они все равно никак не передавливают остальные 90% поведенческих от реальных посетителей.
Но Вы вольны думать иначе, это Ваши сайты, не мои ;)Есть четкая взаимосвязь: запросы ботов > блок ботов > запросы ботов Яндекс (проверяют что к чему) > позиции защищаемых страниц.
Да не то что бы "вольны думать", это элементарные выводы по факту того, что описанная вами модель поведения ботов неоднократно замечена на многих проектах и ни разу не принесла каких-либо изменений в трафике или его монетизации за несколько лет. В связи с чем напрашивается простейший вывод - дело не только и не столько в них. Их влияние, несомненно, как-то учитывается, но это не значит, что только они и решают ситуацию. И можно сколь угодно рассказывать как это работает, есть реальная практика, как это ровно в той же степени не работает.
Оно как бывает: начинают нужному сайту ПФ крутить по пулу ключей, а те сайты, которые занимали определенные места в выдаче, под тяжестью этой накрутки - выбиваются.В начале года еще брали сайт и крутили ему ПФ по околокоммерческим или просто инфо ключам, "выбивая из седла" по коммерческим ключам, а потом замещали это все своим сайтом.Потом брали эту "аудиторию" (ботов) и "уводили". Для Яндекса это как сигнал: толпа сидела-сидела, а потом резко свалила куда-то. Значит с сайтом что-то не то.Вот надо засекать посещения сайта ботами от Яндекс: где, как, когда, как часто, во сколько, на какие страницы чаще всего.
У меня показатель отказов по сайтам очень редко в день превышает 2%, в среднем по месяцу - меньше 1%.
У меня такие показатели по отказам исключительно на сервис-сайтах, на которые пользователи приходят для решения своих прикладных задач. Реализовать хотя бы 10% отказов на информационнике еще даже в те золотые времена, когда о ботах никто особо и не слышал - было почти фантастикой. А чтобы был 1-2% - это нужно, чтобы ПС всегда и на 100% выдавали релевантность выдачи на максимум, что при наличии многотысячного хвоста НЧ запросов в день - просто невозможно. Сами поисковики, зачастую, выдавали в ответ сайт по таким запросам, по которым на нем не было и быть не могло информации. В свое время это даже было забавной игрой, заходить в статистику Лайва, переходить в хвост запросов, где их по 1-2 в день и смотреть какую дичь ищут пользователи и что им выдает поисковик в качестве "релевантной" страницы.
В такой постановке вопроса тем более нет никакой разницы какая версия будет, хоть 5.3, хоть 7.2, хоть 8. Для понимания смысла кода сойдет любая, а в случае, если придется детальнее погрузиться в понимание участка чужого кода - все равно придется гуглить ту или иную функцию для понимания. Я, при том, что довольно плотно программирую - и то, раз через раз заглядываю в мануалы, чтобы вспомнить синтаксис той или иной редко используемой функции. А если это не будет постоянной работой, то, по итогу, почти по каждой функции придется каждый раз уточнять, что и как она реализует.
Вообще, для схожих по синтаксису языков, хоть то php, perl или вообще, javascript - достаточно уметь в алгоритмы, построение структуры кода. Остальное прекрасно на лету гуглится и решается. Я так выполнял прикладную задачу на Perl, не зная его совершенно. Синтаксис довольно похож, функции или примеры нужного кода элементарно гуглятся, сейчас еще и ИИ умеет подсказывать. По итогу, без знания языка за день-два легко написал нужную прикладную программу.
В общем, нет смысла заморачиваться про версии, реально пофигу какая )
Вот это интересно.Обычно, когда туда-сюда качели, значит странице не хватает поведенческих.А по выдержке есть 9-11% отказов.
Навевает на мысль, что на сайте есть бототраф. Логи анализировали?