Алеандр

Алеандр
Рейтинг
208
Регистрация
08.12.2010
141c18
Александр #:

Даже представить не могу такой объем ключей :D
Не в плане - никогда не видел, а в плане: зачем столько говноконтента (если отказов много!), если закрывать задачи можно (и нужно, считаю так) с прицелом куда меньшего кол-ва этого самого контента.
Банально: зачем плодить говностатьи, если эффективнее их не плодить? ;)

Получается полноценный MFA, ничем не отличающийся сейчас от ИИ-парсинга-рерайта. И, как итог, вой на 700+ страниц.
Ну то уже проблемы не мои, мне это совершенно неведомо. Возможно, есть какой-то сакральный или скрытый смысл в этом всем. Но пока что удается собирать десятки тыс аудитории много меньшим кол-вом статей.

Хотя, если бы у меня было 5к+ таких статей, и по отработке пула ключей все было бы как мне надо (у меня просто нет столько задач и охватов, а новостники я даже и не рассматриваю, надо оставить пачку региональных, а остальных, без лицензий - под нож) - то я даже не знаю сколько бы получилось трафа собрать ;)

То есть, по вашему, например, Вики - это говноконтент? ) Вы реально качество сайта оцениваете только по количеству материала на нем? )

Вы еще скажите, что на новостниках нужно заниматься ключами при том, что у них каждый день новый инфоповод выстреливает, а на следующий день новые заголовки и новые ключи. По поводу отказов для таких больших информационников я написал выше, почему они возникают. Не потому, что контент "говно", а в силу того, что поисковики умудряются давать трафик по НЧ, по материалам, которых на таком информационнике просто нет. И ничего вы с этим поделать не сможете.

В том и дело, что вы судите только малыми нишами, а вам рассказывают о норме отказов и работе с сайтами с количеством контента, с которым вы не работали. А еще и смысла там с ним работать нет, потому что все ваши знания будут разбиваться о масштабность происходящего, когда вы в принципе физически не сможете обработать и учесть такую тонну контента и ключей )) На ваши 100 ключей в работу на месяц у новостника в день появляется несколько десятков тысяч НЧ по инфоповоду ))

estic #:

Все же проверьте. Хуже точно не будет 😉

Если быстрому переключению мешает использование устаревших функций и т.п., пора заняться рефакторингом 😉 При этом вовсе не обязательно ориентироваться на версию 8.х (можно на уже используемую вами версию 7.х).

Я же сразу написал, что включаю 7 версию для новых сайтов. А они работают на том же самописе, что и старые сайты. Никакой разницы там не было и быть не может в силу того, что это не неповоротливый движок из коробки с тонной бессмысленных функций, а изначально написанный код с оптимизацией. Уже проверено.

Зачем вы предлагаете рефакторинг кода, который работает идеально быстро для своих задач? Просто чтобы потратить часы на бессмысленные действия и, в результате, получить, в лучшем случае работающий как и работал сайт, а в худшем - что-то упустить и потерять работоспособность или позиции сайта? )) Спасибо, но я лучше это время потрачу или на запуск нового проекта или на отпуск ))

Александр #:
На сайте 12 статей

Есть пример сайта с такими же отказами на, хотя бы, 5 тысяч статей? Я выше писал, там где у меня сервис-сайты на десять страниц и конкретными запросами пользователей - тоже с отказами все красивое. Это же очевидно, что если вылизывать 10 страниц с условными 10 запросами, которые качаются в топ без хвоста в тысячи запросов в сутки - показатель отказа будет низким, в силу того, что поисковик банально не будет этот сайт выдавать по тонне смежных запросов, по которым на сайте нет ответов, что и создает отказы у реальных пользователей.

Наверное, если у вас 10 страниц, вы качаете только 100 ключей и только за ними следите - боты вам будут мешать. Когда у вас 5-10 тысяч и более страниц с материалами, ключей тысячи и еще несколько тысяч хвостов - наличие 10% отказов от ботов банально никак ни на что не влияет, либо влияет, но крайне не существенно, ибо они все равно никак не передавливают остальные 90% поведенческих от реальных посетителей.

Александр #:

Но Вы вольны думать иначе, это Ваши сайты, не мои ;)
Есть четкая взаимосвязь: запросы ботов > блок ботов > запросы ботов Яндекс (проверяют что к чему) > позиции защищаемых страниц.

Да не то что бы "вольны думать", это элементарные выводы по факту того, что описанная вами модель поведения ботов неоднократно замечена на многих проектах и ни разу не принесла каких-либо изменений в трафике или его монетизации за несколько лет. В связи с чем напрашивается простейший вывод - дело не только и не столько в них. Их влияние, несомненно, как-то учитывается, но это не значит, что только они и решают ситуацию. И можно сколь угодно рассказывать как это работает, есть реальная практика, как это ровно в той же степени не работает.

Александр #:

Оно как бывает: начинают нужному сайту ПФ крутить по пулу ключей, а те сайты, которые занимали определенные места в выдаче, под тяжестью этой накрутки - выбиваются.
В начале года еще брали сайт и крутили ему ПФ по околокоммерческим или просто инфо ключам, "выбивая из седла" по коммерческим ключам, а потом замещали это все своим сайтом.
Потом брали эту "аудиторию" (ботов) и "уводили". Для Яндекса это как сигнал: толпа сидела-сидела, а потом резко свалила куда-то. Значит с сайтом что-то не то.
Вот надо засекать посещения сайта ботами от Яндекс: где, как, когда, как часто, во сколько, на какие страницы чаще всего.

Были у меня такие боты на нескольких проектах, ровно с таким поведением - толпой приходили, долго-долго что-то свое качали, а затем резко пропадали. Эффект от них был ровно нулевой, разве что статистику портили своими визитами. Хоть меня и самого смущает бототраф и я по этому поводу несколько раз списывался с тех поддержкой Яндекса, по факту я не видел никакого влияния этого трафика на сайты, хоть он на них тусил месяцами подряд, хоть в мгновение весь пропадал. По итогу я ботов баню лишь тогда, когда они либо начинают критично искажать статистику либо, когда они начинают выгребать тариф у хостера. В остальных случаях от них ни холодно ни жарко.
Александр #:

У меня показатель отказов по сайтам очень редко в день превышает 2%, в среднем по месяцу - меньше 1%.

У меня такие показатели по отказам исключительно на сервис-сайтах, на которые пользователи приходят для решения своих прикладных задач. Реализовать хотя бы 10% отказов на информационнике еще даже в те золотые времена, когда о ботах никто особо и не слышал - было почти фантастикой. А чтобы был 1-2% - это нужно, чтобы ПС всегда и на 100% выдавали релевантность выдачи на максимум, что при наличии многотысячного хвоста НЧ запросов в день - просто невозможно. Сами поисковики, зачастую, выдавали в ответ сайт по таким запросам, по которым на нем не было и быть не могло информации. В свое время это даже было забавной игрой, заходить в статистику Лайва, переходить в хвост запросов, где их по 1-2 в день и смотреть какую дичь ищут пользователи и что им выдает поисковик в качестве "релевантной" страницы.

Антоний Казанский #:
В целом, php мне нужен для расширения кругозора, углубления и расширения навыков программирования, которые уже есть, но и в целом мозги размять, потому как возиться в одних и тех же годами полтора десятка лет надоедает.

В такой постановке вопроса тем более нет никакой разницы какая версия будет, хоть 5.3, хоть 7.2, хоть 8. Для понимания смысла кода сойдет любая, а в случае, если придется детальнее погрузиться в понимание участка чужого кода - все равно придется гуглить ту или иную функцию для понимания. Я, при том, что довольно плотно программирую - и то, раз через раз заглядываю в мануалы, чтобы вспомнить синтаксис той или иной редко используемой функции. А если это не будет постоянной работой, то, по итогу, почти по каждой функции придется каждый раз уточнять, что и как она реализует.

Вообще, для схожих по синтаксису языков, хоть то php, perl или вообще, javascript - достаточно уметь в алгоритмы, построение структуры кода. Остальное прекрасно на лету гуглится и решается. Я так выполнял прикладную задачу на Perl, не зная его совершенно. Синтаксис довольно похож, функции или примеры нужного кода элементарно гуглятся, сейчас еще и ИИ умеет подсказывать. По итогу, без знания языка за день-два легко написал нужную прикладную программу.

В общем, нет смысла заморачиваться про версии, реально пофигу какая )

estic #:
Все же попробуйте включить и оценить производительность 😉
Сомневаюсь, что для моих самописов с жестким кэшированием, которые работают практически как голый html - я увижу эту "производительность", тем более, без переписывания кода под эту самую производительность. Всему свое время и сейчас в этом точно нет ни необходимости, ни причин )
Александр #:

Вот это интересно.
Обычно, когда туда-сюда качели, значит странице не хватает поведенческих.
А по выдержке есть 9-11% отказов.

Навевает на мысль, что на сайте есть бототраф. Логи анализировали?

9-11% - это отличный показатель отказов. В информационниках до 15% вообще легко и не предел. У меня на проектах, в среднем, до 20-22% отказы всегда были. Сейчас с тем трафиком, что остался и с убитыми ботами - отказы до 10% в день - замечательный показатель. Правда, это все равно ничем не помогает с трафиком из Яндекса )
estic #:
База современного PHP - это версии 5.4-5.5. Сложность в том, что знать конкретный язык и уметь программировать - это немного разные вещи. Вэб-программирование, естественно, тоже имеет свою специфику. Нужно хорошо понимать основные сетевые протоколы, основы информационной безопасности и т.д.

Я бы, даже, сказал, что с 5.3.

По большому счету у меня до сих пор крутится-вертится куча мелких проектов на старой версии, хостеры поддерживают - значит, вполне себе для многих актуально. 7 версию включаю для новых проектов, 8 даже пока и не включал, не было необходимости.

Всего: 1471