Всё верно. Это уже тренировки на усиленную мышечную гипертрофию. Проще говоря - бодибилдинг. Это требуется массу времени, усердия и что примечательно - денег. Сходу таких результатов не добиться, да и генетика соответствующая нужна.
О бодибилдинге, культуризме (в нашем фокусе разговора) речи не было. Нам больше подходит атлетизм, умеренное атлетическое развитие. Без перегибов и химии.
Здесь уместно вспомнить древнегреческий культ тела.
Вот это красиво,
Вот это уже перебор и уродство,
В реальной жизни я считаю идеальной формой примерно такое телосложение и развитость,
Доступно на выбор,
В PageSpeed Insights вижу Largest Contentful Paint (LCP) - 8 сек, раньше было в районе 2 сек.
Изменений по сайту и серверу не было.
По факту полная загрузка страницы включая метрику в районе 500мс
У кого как?
В различных сервисах по-разному и это нормально, потому что условия проверки разные.
Теперь к рекомендациям.
В GooglePageSpeed, см. детализацию,
Это вряд ли. 500мс - это 0,5 секунд.
Полная загрузка за 0,5 секунд при LCP - 8 секунд быть может. Вероятно вы что-то путаете, либо смотрите не на те показатели.
Скорее всего 500 мс у вас показатель TTFB.
Да, МегаИндекс похоже, всё...
Честно говоря, впервые слышу такую характеристику. Могу понять - сложная (для новичков), но неудобная - это странно.
Screaming Frog своего рода стандарт пользовательских SE краулеров.
Попробуйте Site Analyzer. В принципе как аналог, до 500 страниц обработки - бесплатно.
Можно ещё поднять из архивов старенькую Xenu. Если понравится, почему бы и нет.
Для больших сайтов (условно свыше 1K страниц) в бесплатном варианте не найдете.
Из продвинутых - да, Лабрика, Site Report, можно ещё повспоминать менее известные, но везде одна и та же схема - либо сразу тариф на анализ, либо бесплатный вариант до N кол-ва страниц.
Скорее всего объясняется необходимостью автоматизированного управления данными поддоменов.
Это нередкое явление, исполнители по ПФ нагуливают профили, накликивая брендовые запросы, кликая в том числе по остальным сайтам.
Всё верно, именно так.
Если вы поднимите видимость сайта в Вебмастере, вы также увидите наплывами показы по чужим брендовым запросам, которые пытаются накрутить.
Упрямо стараются 😎
Не факт, они могут просто фильтроваться по поведенческим в самой же Метрике.
Те кто накручивают, нередко это делают вслепую через соответствующие сервисы.
Если хотите, можете поставить в известность Яндекс о попыткам манипуляции поиском.
Как минимум это привлечет внимание Яндекса к конкретным действиям конкретного сайта.
А можно применить широко известный "принцип Софтерры" - удалить Метрику 😊 и вновь присоединиться к идее, что ботов нет, всё это злокозненные происки сеошников 😎
Я сейчас про размещение статьей, а не ссылок на трафиковых страницах. Причём, не дорогих PR статей, где возможен трафик, а статей для ссылок, где трафик в лучшем случаев пару переходов в пол года, а то и вовсе нет. Тут именно для ссылочного эффекта.
Последние лет 10 я прихожу к выводу, что ключевая.
Если трафик от месяцу к месяцу катастрофически падает и с ним кратно падает видимость, то я на таком сайте не размещаюсь. При активной линко-торговле для меня понятно, что сайт на излёте из него выжимаются все соки. Через год - два его уже не будет и то какие у него показатели не так важно.
Условно, разместиться за 300-500 рублей, где и статья, и ссылка и сам донор ещё протянут годика два - имеет смысл, за 10K рублей активно падающий сайт не нужен даже при самых привлекательных текущих пузомерках.
Накручивается многое, причём подавляющим большинством из того, что предлагается.
В данном моменте важно - от чего оттолкнуться и что сразу отсеять.
Человек же спрашивает про вариант пакетной обработки доноров, вот я этот вариант наглядно и демонстрирую.
А то, что в линк-билдинге масса проблем с имитацией и фальсификацией, тут уж ни для кого особо не секрет.
Для любопытной и полезной наглядности.
Вот конкретно сейчас выполняю выбор донорских площадок в Миралинксе по теме стройка.
Один из ключевых критериев,
обращаем внимание вот на этот столбец,
эти данные рекомендует Миралинкс и выглядит вроде как убедительно (но это данные за месяц) 😉
А теперь собираем URL-ы и проводим групповую проверку в Кейсо,
и сразу понятно, что требует внимания, а на что и не стоит тратить время.
Вы уже согласились года 4 назад, что ни Canonical, ни Clean-param не запрещают не только ходить и анализировать, но и индексировать страницы выкидывая из индекса нужные страницы.
Естественно Яндекс как и сейчас ИИ - извиниться за ошибку и будет ее исправлять. Вопрос только во времени.
Владимир, меня не занимает разбор чужих интерпретаций, фантазий, заблуждения и частные эпизоды, где кто-то что-то прочитал на форуме, увидел за окном, подслушал на лестничной площадке и т.д.
Да, я говорил, что тег canonical не более, чем рекомендательный и это действительно так. Сlean-param имеет другую механику работы, выше она описана, повторяться не буду.
Запись canoniсal определяет канонический адрес для документа (страницы), инструкции clean-param позволяют выполнять групповую обработку данных с get параметрами (т.е. для множества адресов). Это важно понимать.
Я вам уже говорил, когда вы пишите свои умозаключения, не надо вписывать меня в свои персональные, сложноподчинённые выводы и эмоционально-окрашенные причинно-следственные связи. Пишите по делу - по данному вопросу [то-то], [то-то], в соответствии с [тем-то] и [тем-то].
4-е года или 20-лет - это в данном случае не вносит никакой полезности для ТС.
Поэтому. И canonical, и инструкция clean-param существуют и активно применяются гораздо более 4-х лет, поэтому в данный момент актуально то, что я написал и подрезюмировал выше.
Нет никакой теории Яндекса, запомните пожалуйста, это сугубо ваше изобретение.
Есть рекомендации поисковых систем, и в SEO практике они полностью или частично согласованно используются для эффективного достижения поставленных рабочих целей.
Не надо в каждом форумном комментарии в мой адрес пытаться спровоцировать меня на словесную перепалку.
Поберегите свои нервы и моё время.
Если что-то не поняли, просто уважительно спросите. Если с чем-то не согласны, просто сухо и детализировано напишите своё мнение. Я естественно не против, что оно тоже будет в рабочих ветках. Это будет лучше для всех.