Это понятно, это классическая задача парсинга - разобрать данные и расформировать по областям.
Применительно к Excel есть импорт csv данных - всё понятно.
Вопрос в другом - какие задачи будут сформированы в связи с обнаруженным?
Да, всё верно, часть бототрафика Яндекс фильтрует и не выводит в статистику, "удачных" поведенческих ботов он пропускает.
Большого смысла в построении этих отчётов ради отчётов я не вижу. Отчитываться для чего? То, то есть разного уровня боты - понятно.
С большинством из них нет особого резона бороться, потому что конкретной полезности это не принесет.
Ну, например, мы заблочим ещё полтора десятка технических ботов парсящих данных для каких-то своих служебных целей. В плане снижения нагрузки - это какие-нибудь десятые или соты доли процента. На позиции это никаких не повлияет. Т.е. если бы мы о них не знали, то результат был бы тот же, а также + время и усилие на выявление и доп. заградительные меры.
Разве что удовлетворение от чистого знания, что само по себе конечно может мотивировать.
Конечно другая. Такая картинка будет не только с Яндекс Метрикой, но и с любой другой статистикой, которая усредняет и формализует статистические данные.
Да и это будет доп. повод для волнения.
Что планируете делать с этим знаниями?
Иногда то, что отдельная сессия - это бот может быть понятно только по фактическому наблюдению за характером и способом перемещении мыши.
По логам мы заранее это никак не узнаем.
Александр, со стартового поста я не понял, какую задачу для себя ставили? Просто отсортировать данные логов и добиться более наглядного представления?
Есть же статистика, которая выполняет функция мониторинга код 200, код 404, код 500. Да, тот же Яндекс выводит её с задержкой, но зато нужным образом агрегирует данные.
Отвечая на вопрос, что по логам - заходы с конкретного IP, иногда смотрю индексаторы (Гугл временами любит долбиться по одним и тем же адресам - полезно контролировать его поведение и результативность).
+ всякого рода бот сборщики, пробивальщики, но когда это не перегружает сервер - хай себе ходят, от всего не закроешься.
Можно конечно постоянно вылизывать htaccess на предмет доп. запретов, но как правило рабочее время лучше потратить на более очевидные точки роста по трафику.
Здесь вот что необходимо добавить.
Рынок постоянно в динамике и есть такое явление как естественная убыль поставщиков товара, поэтому конкуренция - это не то, что по экспоненте растёт вверх.
Периодами спрос может превышать предложение и это хороший момент, чтобы зайти на рынок.
Не фейк. Просто надо понимать о чём тут идёт речь.
Речь идёт о инструкциях в robots.txt на то, чтобы роботы, которые представляются указанными (в поле User-Agent) по возможности не индексировали сайт.
Так вот.
Указанные сервисы просто игнорируют данные инструкции, во-вторых, здесь речь про ботов - сборщиков данных. Они (кроме доп. нагрузки на сервер) не создают серьёзных проблем.
Серьёзные проблемы создают поведенческие боты, которые имитируют действия пользователей в браузере и при умелом использовании (того, кто ими управляет) засчитываются статистикой как люди.
Простеньких нет, простенькие работают по простеньким принципам на уровне отсева IP-шников по готовым базам и серым подсетям.
Парсинг, ботогенерация (и задачи связанные с ними) - это теперь отдельные специализации и простых решений взять и избавить свой сайт от всего этого здесь нет.
Даже CF обходится поведенческими ботами, когда очень надо.
"Оптимизм - это наш долг" - говорил один известный немецкий политик.
Однако этот оптимизм только по части возможностей подкрепленных упорным трудом, пустой оптимизм - это введение в заблуждение :)
Соглашусь с вами, в варианте разработки стратегии продвижения маркетплейсы выглядят более подходящими для старта и практического понимания возможностей бизнеса.
Вполне может быть и так, но может быть и иначе.
Человек с возможностями не обязан годами сидеть на Серче с неясной специализацией, а потом взять и надумать открыть магазин. Возможно человек искал информацию о продвижении сайтов, попал на форум, решил зарегистрироваться и задать вопрос. А может быть он представляет интересы целой группы собственников.
Так или иначе, есть вопросы и есть ответы в виде частных мнений. А прокачка это или не прокачка - это пусть модераторы разбираются :)
Повторюсь, про возможности ТС мы ничего не знаем, поэтому какой гриф подразумевается мы можем только гадать.
Для любого большого дела нужны знания и компетенции.
Конечно, ecom сейчас и ecom 15 лет назад - принципиально разные вещи.
Отчасти соглашусь, соб-но, я и предлагал начать с анализа конкурентных преимуществ.
Начать с маркетплейсов или с узкого вида конкурентных товаров - возможно и то, и другое, и третье и остальное.
В любом случае придётся разбираться с тем какие есть возможности.
Что очевидно совершенно точно - это то, что на старте ему нужна рабочая команда, среди которых необходим консультант, чтобы проанализировать ситуацию и разработать стратегию развития. С нуля и до первых позитивных результатов может пройти много времени и неизвестно сколько TC потеряет, решая всё самостоятельно.
Но так или иначе я всё равно не сторонник позиции - забудь и даже не пытайся.
Из этого ответа можно сделать вывод, что не стоит и пытаться.
В действительности мы не знаем возможности TC и насколько он мотивирован. Текущее незнание и непонимание ситуации ещё не говорит о том, что у человека нет и не будет шансов. В этой логике вообще нет смысла ни за что браться, если возникают незрелые вопросы.
Всё зависит от того сколько у человека мотивации, какие ресурсы и какая трудоспособность долгими месяца/годами бороться за лидирующие позиции в поиске.
Очевидно, что это вопрос не ближайших месяцев.
Если есть конкурентные преимущества - стоит.
Если намерены сделать типовой интернет-магазин, залить типовые товары по неконкурентным ценникам и ждать, что попрут заказы из поиска - не стоит.
Всё заканчивается на том, что треть сайта не индексируется, половина скачет в индексе - туда/сюда, трафик неубедительный, заказов почти нет - вот типичная картина ecom сайта начинающего осваивать рынок.
Всё дело исключительно в том, кто как работает.
Большинство работать не могут и не умеют, просто ожидают чудес от сайта. Чудес не бывает.