Нет, все в порядке, но и на вопрос вы не ответили. Если я верно понял, ваш ответ лежит вне плоскости поисковых систем, но он и так очевиден - запусти рекламу по телику, как это делал Авито и вопрос решен. Но ведь речь именно о поисковиках, а не рекламных бюджетах. Так что, это не применить и, опять же, это никак не связано с ГС-ностью сайта.
Яндексу все равно что транслировать: говноконтент, размещенный на Дзене или тот же говноконтент, размещенный на его личном бложике, так как в подавляющем большинстве случаев идет кросспостинг (бездумно, просто потому, что так делают все). Ну вот опять тоже самое. Почему вы решили, что так делают все? Почему вы уверены, что на личной странице пользователя обязательно говноконтент, такой же как пост школоло в Дзене? Как минимум, человек, размещающий свой контент на своем собственном сайте затрачивает куда больше усилий и применяет больше знаний, чтобы его разместить и правильно подать, нежели просто воспользоваться площадкой, на которой не нужно думать о качестве и продвижении. Потом опять скажете, что ничего такого не говорили.
И, возвращаясь к обсуждению сайтов "все обо всем", почему Дзен, как солянка мусора оказывается более релевантной, нежели узконишевой сайт специалиста по запрашиваемой теме? Об этом все и пишут, что Яндексу НЕ должно быть все равно, транслирует ли он говнопостинг с Дзена только потому, что это его сайт или же будет выдавать в выдачу узкопрофильные сайты, где более обстоятельно и профессионально освещена тема. Зачем мне, например, на запрос по "автоэлектрик регион" получать в выдачу ссылку на категорию со списком видео от Дзена, где даже близко нет этой информации? Об этом эти 700 страниц.
Об этом и пишу, спрашиваю других: в ответ вопли и прочее. Вот как тут анализировать?Выше на это уже отвечал: поскольку вы судите категориями узконишевых сайтов на 10 страниц, в отличие от того, что остальных интересую более широкопрофильные сайты с большим количеством контента, которые Яндекс зачем-то заменил Дзеном со школоло контентом.
Нет такого. Перечитайте еще раз.Не считаю большие сайты - некачественными.Считаю, что сайты "Все обо всем" не нужны, так как есть уже монстры, которые ранее заняли эту нишу и их попросту не выбить оттуда. И их масса время от времени может быть решающим фактором для ПС (сейчас, как раз, так и происходит в Яндекс).Отказы растут не из-за все увеличивающейся массы НЧ, а из-за недоработки по контенту вебмастером, что, в итоге, приведет к закрытию сайта. Сюда же и технический аспект, сюда же и борьба с вызовами конкурентов (а это много разных моментов, в том числе и бототраф, который Вы не считаете опасным).
Тут я уже пас с объяснениями по кругу, особенно в части про "закрытие сайта", "ведет к его смерти" и прочее. Вы почему-то считаете, что монстр-сайты - это сайты, появившиеся из ниоткуда, а сайты обычных вебмастеров - изначально обречены и напрочь игнорируете то, что именно из сайтов вебмастеров вырастают эти самые "монстры", хоть сейчас и стало это сделать много труднее, опять же, как раз в силу того, что поисковики стали старых монстров ставить вперед, вместо того, чтобы давать возможность и молодым себя проявить. И именно об этом тема, что Яндекс вместо того, чтобы давать шанс новым сайтам с наиболее полным ответом на вопрос - ставит в выдачу Дзен с таким, иной раз, бредом от школьника-недоучки, что только удивляться остается. Просто потому, что это их Дзен, а то, что там пишет школоло - их это уже не особо интересует, зато сайт "трастовый".
Даже если понимать, то вы ничего не можете сделать с отупевшим юзером, который кроме как "открыть вкладку - вбить запрос - привычно кликнуть по первой позиции, рассчитывая, что там все тот же сайт, который он уже сто раз так с полезным контентом открывал" - ничего более не умеет. Не говоря уж о том, что в большинстве браузеров в том же мобильном, если уже не во всех - спрятан урл сайта и оставлен только тайтл в шапке. Пользователь в принципе не знает на каком он сайте находится и его домен, да и ему все равно. И, при том, что он не умеет в закладки, а умеет только кликать в первую позицию в поиске - вы никак этого пользователя у себя не удержите, вы всегда будете заложником встроенного браузера со встроенным поисковиком. Одна только баталия за то, чтобы в браузерах по дефолту не стояла только одна поисковая система очень многозначительно показывает глубину деградации в данном вопросе.
Осталось всем владельцам бложиков это понять и начать шевелиться Поделитесь идеями как начать шевелиться при вышеозначенной проблеме, учитывая, что эта проблема настолько серьезна, что с ней не особо понимают как справляться даже сами поисковики. Пользователь не хочет и не умеет. Он умеет в предустановленный поисковик - фраза - сайт на первой строчке.
Решил эту часть отдельно обсудить, так как она - всецело верная.Работаешь над проектом == не зависишь от ПС настолько, насколько сейчас зависят от ПС сайты тех вебмастеров, какие 700+ страниц пеняют на Яндекс / Google.Это значит: не держать все яйца в одной корзине. Надо развивать проект в целом во всех направлениях. А это долго, дорого и не все смогут.
Я этого не писал. Да в каждом комментарии - "зачем столько контента, это ГС, надо 10 страниц".
Можно взглянуть на это с другой стороны: нет смысла сравнивать размеры сайта. Так это не я начал определять ГС-ность сайта количеством страниц. Я как раз и не понимаю, как вы так решили, что размер имеет определяющий фактор ГС-ности.
Если отказы растут, то это не проблема ПС: Яндекс гонит говнотраф с ростом траста сайта, а проблема вебмастера: начинает недорабатывать по контенту, начинает не вывозить технически (боты, верстка, настройка сервера и т.д.).Это вы вообще намешали. Каким таким образом трафик по НЧ начинает влиять на контент, который размещает вебмастер? Он как постил свое качество - так и будет. То, что ПС наваливают пользователей, которые не совсем то ищут - это вообще параллельно вебмастеру, он конвертирует этих пользователей или в монетизацию или, если вдруг его контент хотя бы близок к запросу - в нормального такого посетителя. Минус таких переходов лишь в том, что они чутка увеличивают общую долю отказов, о чем изначально и шла речь, но никаких проблем сайту, что у него 15% отказов, а не 2% это не доставляет. Вот вообще никаких. Про техничку или вёрстку - вообще дичь, уж прошу прощения. Вёрстка от количества пользователей никак не зависит )
И тогда, вернувшись к посылу: ты не работал с сайтами, где 5к статей. - Да это и не нужно, так как я не вижу никаких перспектив в наличии такого огромного ядра.Именно, что возвращаясь к этому посылу я могу повторить - не стоит считать все большие сайты ГСами только потому, что их поднимает и обслуживает частник-вебмастер. И там, где вы не умеете или не видите перспектив - это не означает, что их нет. Минус лишь в том, что нужно больше контента, но, если тема позволяет - то в чем проблема? Это все равно, что по вашему какой-нибудь "Консультант плюс" плох только потому, что он не смог втиснуть все разверстки по законодательству в 10 страниц?
По остальному я уже писал и приводил примеры, не все большие сайты ГС, не все большие сайты стартовали как изначальная коммерция с вложениями на старте. Огромное количество проектов было создано энтузиастами и специалистами на коленке в одну каску и уже потом масштабировалось до коммерчески успешных проектов.
Речь про монстров, на старте оказавшихся в своем месте и времени или про сайты рядовых пользователей? - это совсем разные вещи. В чем это разные вещи? Монстры не были монстрами на старте, они были точно такими же рядовыми сайтами, которые нашли свою аудиторию. Вы ни разу не слышали про стартапы, которые стреляли и которые потом выкупались как перспективные? Полна коробочка именно таких сайтов, которые были "от рядовых пользователей" и стали гигантскими проектами в будущем. Да, есть и такие, как тот же Авито, который изначально был финансовым проектом, но говорить, что все такие - это вы не правы.
Я про них и написал, что не рассматриваю их к работе, так как коммерческих перспектив никаких не вижу в этом.Так в том и дело, что вы не видите перспектив. А они не только видят, но и используют их. Вы с этим не работаете, а другие работают и получают серьезный доход и не видят в этом никаких проблем. И да, им, конечно же, не упало ваше SEO на сто фраз, поскольку там совсем другая работа над проектом.
так как в работу вклинивается ПС, алгоритмы которых оценивают общий "траст" сайта Так он в любом случае вклинивается, если у вас трафик из поиска, вне зависимости 10 у вас страниц или 10к. Завтра поисковики поменяют правила и ваши 10 страниц пойдут на дно, потому, что вы ровно так же зависите от ПС и их алгоритмов. Единственный, кому все равно - это тот, у кого трафик не из поиска. Либо трафик из поиска конвертируется в последующие прямые посещения.
Такой сайт умрет, так как невозможно на 5к статей размазывать описание табуретки Это вы расскажите вековым форумам, по типу Винского, трастовым сайтам по типу Пикабу или ЯПлакал и всем остальным, которые "умерли" ) У них, как раз, именно схема выше - поиск, затем пользователь остается и продолжает посещать сайт, затем сам начинает там публиковать материалы. И далее по циклу.
Если есть проект, в который можно вместить 5к статей и они не утопят сайт, то бюджеты таких сайтов - десятки млн рублей (если не сотни) (чтобы он был коммерчески успешным), в противном случае, это - ГС, которому место на дне.1. К такому бюджету такие сайты приходят не за один год. Если вообще приходят. К ним пользователи сами несут контент, еще и платят за размещение. Вы снова меряете расходы так, будто вы каждый ключ стараетесь вписать в расходную смету, а там этого нет, НЧ достигается именно количеством материала, что привлекает все новых и новых пользователей и генерирует новый материал. И, при удачном стечении обстоятельств, со временем, такие сайты становятся монстрами на слуху, практически не зависящими далее от поисковых механизмов, но, которые все так же исправно поставляют им пользователей. Им и близко не упало вливать бюджеты в прокачку каких-то там фраз, при том, что у них хвосты на тысячи в сутки.2. Ваше мнение по поводу ГС я уже понял, но совершенно с ним не согласен. ГС - это не про размер или количество материалов, это про удобство, интересность и полезность. Сам по себе подход "у вас больше 10 страниц - значит это точно ГС" априори не верен. Но, вы можете продолжать так считать, ваше право.
Даже представить не могу такой объем ключей :DНе в плане - никогда не видел, а в плане: зачем столько говноконтента (если отказов много!), если закрывать задачи можно (и нужно, считаю так) с прицелом куда меньшего кол-ва этого самого контента.Банально: зачем плодить говностатьи, если эффективнее их не плодить? ;)
Получается полноценный MFA, ничем не отличающийся сейчас от ИИ-парсинга-рерайта. И, как итог, вой на 700+ страниц.Ну то уже проблемы не мои, мне это совершенно неведомо. Возможно, есть какой-то сакральный или скрытый смысл в этом всем. Но пока что удается собирать десятки тыс аудитории много меньшим кол-вом статей.
Хотя, если бы у меня было 5к+ таких статей, и по отработке пула ключей все было бы как мне надо (у меня просто нет столько задач и охватов, а новостники я даже и не рассматриваю, надо оставить пачку региональных, а остальных, без лицензий - под нож) - то я даже не знаю сколько бы получилось трафа собрать ;)
То есть, по вашему, например, Вики - это говноконтент? ) Вы реально качество сайта оцениваете только по количеству материала на нем? )
Вы еще скажите, что на новостниках нужно заниматься ключами при том, что у них каждый день новый инфоповод выстреливает, а на следующий день новые заголовки и новые ключи. По поводу отказов для таких больших информационников я написал выше, почему они возникают. Не потому, что контент "говно", а в силу того, что поисковики умудряются давать трафик по НЧ, по материалам, которых на таком информационнике просто нет. И ничего вы с этим поделать не сможете.
В том и дело, что вы судите только малыми нишами, а вам рассказывают о норме отказов и работе с сайтами с количеством контента, с которым вы не работали. А еще и смысла там с ним работать нет, потому что все ваши знания будут разбиваться о масштабность происходящего, когда вы в принципе физически не сможете обработать и учесть такую тонну контента и ключей )) На ваши 100 ключей в работу на месяц у новостника в день появляется несколько десятков тысяч НЧ по инфоповоду ))
Все же проверьте. Хуже точно не будет 😉
Если быстрому переключению мешает использование устаревших функций и т.п., пора заняться рефакторингом 😉 При этом вовсе не обязательно ориентироваться на версию 8.х (можно на уже используемую вами версию 7.х).
Я же сразу написал, что включаю 7 версию для новых сайтов. А они работают на том же самописе, что и старые сайты. Никакой разницы там не было и быть не может в силу того, что это не неповоротливый движок из коробки с тонной бессмысленных функций, а изначально написанный код с оптимизацией. Уже проверено.
Зачем вы предлагаете рефакторинг кода, который работает идеально быстро для своих задач? Просто чтобы потратить часы на бессмысленные действия и, в результате, получить, в лучшем случае работающий как и работал сайт, а в худшем - что-то упустить и потерять работоспособность или позиции сайта? )) Спасибо, но я лучше это время потрачу или на запуск нового проекта или на отпуск ))
Есть пример сайта с такими же отказами на, хотя бы, 5 тысяч статей? Я выше писал, там где у меня сервис-сайты на десять страниц и конкретными запросами пользователей - тоже с отказами все красивое. Это же очевидно, что если вылизывать 10 страниц с условными 10 запросами, которые качаются в топ без хвоста в тысячи запросов в сутки - показатель отказа будет низким, в силу того, что поисковик банально не будет этот сайт выдавать по тонне смежных запросов, по которым на сайте нет ответов, что и создает отказы у реальных пользователей.
Наверное, если у вас 10 страниц, вы качаете только 100 ключей и только за ними следите - боты вам будут мешать. Когда у вас 5-10 тысяч и более страниц с материалами, ключей тысячи и еще несколько тысяч хвостов - наличие 10% отказов от ботов банально никак ни на что не влияет, либо влияет, но крайне не существенно, ибо они все равно никак не передавливают остальные 90% поведенческих от реальных посетителей.
Но Вы вольны думать иначе, это Ваши сайты, не мои ;)Есть четкая взаимосвязь: запросы ботов > блок ботов > запросы ботов Яндекс (проверяют что к чему) > позиции защищаемых страниц.
Да не то что бы "вольны думать", это элементарные выводы по факту того, что описанная вами модель поведения ботов неоднократно замечена на многих проектах и ни разу не принесла каких-либо изменений в трафике или его монетизации за несколько лет. В связи с чем напрашивается простейший вывод - дело не только и не столько в них. Их влияние, несомненно, как-то учитывается, но это не значит, что только они и решают ситуацию. И можно сколь угодно рассказывать как это работает, есть реальная практика, как это ровно в той же степени не работает.