Макс, постоянно пользуюсь, причём не только для первичного анализа, но и в прикладном назначении.
Вот конкретно на днях с командной расширяли товарную ветку каталога, внедряли переменную цены в title, чтобы цена попадала в заголовок сниппета, с учётом ассортимента в родительских категориях. Программист сделал, проверка естественно на мне.
Пересканировал (благо сайт небольшой), вывел данные в отчёт, просмотрел выборочно сниппеты, добавил комментарий в CRM-ку, закрыл рабочую таску, зафиксировал рабочее время. Себестоимость задачи - только мой труд.
Кроме того парсинг конкурентных цен, тоже всё через Frog.
Я от Лабрики в целом отскочил за ненадобностью (я когда с ней познакомился уже другой платный сервис использовал), а что касается Я.Вебмастера - так это уже несколько другой тип данных, это данные после обхода Я бота, а с Frog-ом ты можешь анализировать любые обновлённые данные в моменте.
В общем-то, каждый сам определяет свой инструментарий. Для меня в части задач Frog не заменим 😎
Макс, информации море, Frog продолжает активно развиваться, в нём сейчас можно и текстовую плотность измерять и много разных других фич реализовано. И в сети по ним довольно много обзоров есть, советую посмотреть почитать и довольно заметно расширить свой практический инструментарий.
В любом случае лучше, чем годами нудеть про теоретиков 😊 я тебе сейчас в личку хороший ресурс скину на эту тему, прокачаешь скил.
Володь, сервис ориентирован на региональную выдачу (это сам понимаешь, не моя прихоть, а политика сервиса).
Это актуально для международного продвижения.
Здесь уже тогда SimilarWeb.
Всё верно. Это уже тренировки на усиленную мышечную гипертрофию. Проще говоря - бодибилдинг. Это требуется массу времени, усердия и что примечательно - денег. Сходу таких результатов не добиться, да и генетика соответствующая нужна.
О бодибилдинге, культуризме (в нашем фокусе разговора) речи не было. Нам больше подходит атлетизм, умеренное атлетическое развитие. Без перегибов и химии.
Здесь уместно вспомнить древнегреческий культ тела.
Вот это красиво,
Вот это уже перебор и уродство,
В реальной жизни я считаю идеальной формой примерно такое телосложение и развитость,
Доступно на выбор,
В PageSpeed Insights вижу Largest Contentful Paint (LCP) - 8 сек, раньше было в районе 2 сек.
Изменений по сайту и серверу не было.
По факту полная загрузка страницы включая метрику в районе 500мс
У кого как?
В различных сервисах по-разному и это нормально, потому что условия проверки разные.
Теперь к рекомендациям.
В GooglePageSpeed, см. детализацию,
Это вряд ли. 500мс - это 0,5 секунд.
Полная загрузка за 0,5 секунд при LCP - 8 секунд быть может. Вероятно вы что-то путаете, либо смотрите не на те показатели.
Скорее всего 500 мс у вас показатель TTFB.
Да, МегаИндекс похоже, всё...
Честно говоря, впервые слышу такую характеристику. Могу понять - сложная (для новичков), но неудобная - это странно.
Screaming Frog своего рода стандарт пользовательских SE краулеров.
Попробуйте Site Analyzer. В принципе как аналог, до 500 страниц обработки - бесплатно.
Можно ещё поднять из архивов старенькую Xenu. Если понравится, почему бы и нет.
Для больших сайтов (условно свыше 1K страниц) в бесплатном варианте не найдете.
Из продвинутых - да, Лабрика, Site Report, можно ещё повспоминать менее известные, но везде одна и та же схема - либо сразу тариф на анализ, либо бесплатный вариант до N кол-ва страниц.
Скорее всего объясняется необходимостью автоматизированного управления данными поддоменов.
Это нередкое явление, исполнители по ПФ нагуливают профили, накликивая брендовые запросы, кликая в том числе по остальным сайтам.
Всё верно, именно так.
Если вы поднимите видимость сайта в Вебмастере, вы также увидите наплывами показы по чужим брендовым запросам, которые пытаются накрутить.
Упрямо стараются 😎
Не факт, они могут просто фильтроваться по поведенческим в самой же Метрике.
Те кто накручивают, нередко это делают вслепую через соответствующие сервисы.
Если хотите, можете поставить в известность Яндекс о попыткам манипуляции поиском.
Как минимум это привлечет внимание Яндекса к конкретным действиям конкретного сайта.
А можно применить широко известный "принцип Софтерры" - удалить Метрику 😊 и вновь присоединиться к идее, что ботов нет, всё это злокозненные происки сеошников 😎
Я сейчас про размещение статьей, а не ссылок на трафиковых страницах. Причём, не дорогих PR статей, где возможен трафик, а статей для ссылок, где трафик в лучшем случаев пару переходов в пол года, а то и вовсе нет. Тут именно для ссылочного эффекта.
Последние лет 10 я прихожу к выводу, что ключевая.
Если трафик от месяцу к месяцу катастрофически падает и с ним кратно падает видимость, то я на таком сайте не размещаюсь. При активной линко-торговле для меня понятно, что сайт на излёте из него выжимаются все соки. Через год - два его уже не будет и то какие у него показатели не так важно.
Условно, разместиться за 300-500 рублей, где и статья, и ссылка и сам донор ещё протянут годика два - имеет смысл, за 10K рублей активно падающий сайт не нужен даже при самых привлекательных текущих пузомерках.
Накручивается многое, причём подавляющим большинством из того, что предлагается.
В данном моменте важно - от чего оттолкнуться и что сразу отсеять.
Человек же спрашивает про вариант пакетной обработки доноров, вот я этот вариант наглядно и демонстрирую.
А то, что в линк-билдинге масса проблем с имитацией и фальсификацией, тут уж ни для кого особо не секрет.