Начните с Recuva, она проще и более наглядная.
Ссылку в личку вам отправил.
Котирую R-Studio, много лет с ней работаю.
Смотрите. Здесь важно разобраться в базовых вещах.
Структура - это организация частей целого. Структура не нарушается тогда, когда не возникает логических противоречий в связах частей её образующих.
Меню - это объект вывода данных. Оно (меню) может быть полным, может быть неполным и дополняться вспомогательными меню.
Меню не обязывает вас выводить все элементы структуры, следовательно, если вы через меню выводите только часть данных, то это вполне допустимо.
Но если в URL-ах в одном случае вы используете один принцип адресации, а в другом случае (в меню) - другой, то здесь могут возникать проблемы, потому что вы создаете разные ветви URL адресации. Здесь могут быть и дубли, и циклические ссылки, надо разбираться на конкретном примере, а не на примерных описаниях.
Keys.so - российский. Конкретно сейчас лично использую - никаких проблем с доступом.
В общем, я согласен с тем, что адекватность данных нужно проверять, используя альтернативные инструменты аналитики.
Но тут надо для начала разобраться с чем мы имеем дело. Если бурж и Гугл, то мой свой вариант выше я уже озвучил (у них базы полнее), если РФ с учётом Яндекса, то, безусловно, Keys.so, Букварис, Мутоген.
Что касается бесплатных подборов и анализов, то там как правило кастрированные данные для заманухи в платные тарифы.
Sem Rush + Ahref (как альтернатива - Majestic).
Но и то, и другое и третье для резидентов РФ недоступно, поэтому обзаводитесь VPN сервисом, либо, лучше, закажите выгрузку рабочих данных с Кворка.
Если весь трафик будет постоянной аудиторией, будет большимМожешь на практике проверить)
Это, кстати, весьма хорошее, резонное замечание, но такого практически не бывает, чтобы у развивающегося сайта из 30 посещений за месяц все заходы - из числа постоянной аудитории.
Но в целом, если гипотетически представить, то, пожалуй :) Правда большим он всё равно не будет, но заметным - наверняка :)
Конкретика была и в прошлом сообщении, вы просто воспринимаете то, что вам ближе.
А тезис там указан весьма важный (пускай лично не для вас), - а для тех, кто думает, что для Яндекса есть какие-то отдельно взятые боты, которые "проскакивают" и есть пользователи. Так вот Яндекс их просто не различает, если не отсеивает.
Это ключевой важный момент, даже если кажется очевидным - многие его не осознают.
CF в целом оценивает легитимность пользовательского захода, начиная с анализа фингерпринта браузера. Если он сомнительный, то CF срабатывает на капчу. Это сродни эвристическому методу потенциальных угроз и при этом в потенциально опасные могут попадать обычные пользователи - это-то и вызывает неудобство.
Это самый базовый метод проверки. Технические боты не поддерживают запись куки (им и не надо), реффер - это всего лишь указатель источника, его несложно подделать. Прогревающие боты поддерживают запись куки, могут имитировать любой реффер, поэтому данная проверка их не остановит.
Заходы с нежелательных рефферов вы можете отсеять через htaccess, проверку куки - через скрипт.
Я в третий раз говорю. Регрессирующие сайты не показательны. Их хостовые характеристики связаны с возрастным трастом, тематическими линками и устойчивой ЦА (как на форумах).
И это естественно, потому что ИКС это не производная от трафика, она наверняка калькулируется по массе дополнительных внутренних метрик, связанных с ядром аудитории, тематическими сигналами и т.д.
В этом смысле молодому коммерческому сайту даже с трафиком тяжело увеличивать ИКС кратно, тогда как старое увядающее тематическое комьюнити может еще пару лет плавать, плавно сбрасывая ИКС.
Я никогда и не говорил, что это ключевой множитель для ИКС-а, я уже года три говорю, что ИКС зависит от роста аудитории и роста качественных метрик ядра аудитории.
Однозначно. Минимальный трафик - это 30-50 пользователей / месяц.
Вы решили перебрать всё, что вам попадается.
Открываете сервисы, смотрите на прогноз трафика.
Все эти старые СМИ, сообщества, городские порталы - всё это не в фокусе внимания.