ПавелPHP

ПавелPHP
Рейтинг
1
Регистрация
10.02.2026
Огромное спасибо за подсказку. Просто список того, что поддерживается, а что нет, соответствует https://developers.google.com/search/docs/appearance/structured-data/search-gallery?hl=ru. Поэтому схему WebSite упустил.
Vladimir SEO #:
а зачем они все ? это же даже не сканер сайта ) 

Они копируют друг друга и пытаются срубить бабла на этом. Они не привносят что-то новое. LightHouse использует знаменитый google page speed insight. Я где-то читал (но уже не смог найти ссылку), что у Google PSI 8 миллиардов проверок в месяц. Такие цифры никого не оставят равнодушным, вот люди и пытаются мучить возможности LightHouse немного поменяя интерфейс.

Кстати, проверка у гугла на размер изображений (чтобы размер исходника соответствовал отображаемой области) появилась после меня 😀 так что они у меня копирууют 🤣 Но они не проверяют DPI разрешения (чтобы для 4К был размер х2 от изображения FullHD) в отличии от нас.

Vladimir SEO #:
это делают сканеры давно уже. Что тут нового добавить ? 

Куча всего нового, у меня просто времени нехватает всё реализовать. У моего проекта уже на 30-50% больше функционала, чем у конкурентов. Просто все конкуренты используют LightHouse в своей основе. Это бесплатный опенсорс проект. И все его используют и выдают один и тот же анализ, включая pr cy. У меня своя разработка и там проверок больше.

Например, на этом форуме есть блокирующий скрипт pagead2.googlesyndication.com/pagead/js/adsbygoogle.js. Те, кто заходят на сайт без блокировщиков рекламы 15 секунд видят, что вкладка браузера грузится. Потому что этот домен заблокирован в России, а соединеие не сбрасывается. И браузер ждёт 15 секунд пока не сбросит загрузку этого файла по таймауту и показывает статус загрузки во вкладке браузер. Вы можете посмотреть мой блог на хабре, я там подобные вещи описываю. Правда времени нет на то, чтобы все статьи опубликовать, они уже готовые лежат у меня 😀

Справочная информация - это хорошо. Но получить вести с полей от практиков тоже очень важно.

Я ищу такие проверки, чтобы они были гарантированными к исправлению. То есть, не рекомендации и данные для анализа выдавать. Именно "вот ошибка, нужно исправить", вместо "вот тут присмотритесь и проверьте" или "вот что мы узнали о вашем сайте, теперь думайте что с этим делать и как это применить". Инструмент, скорей, для того, чтобы уберечь людей от лажи, а не для творческих изысканий по придумыванию новых идей.

Идея такая: что если не делать очевидные технические ошибки (которые и проверяет мой сервис) и руководствоваться базовой логикой (не делать очевидные ошибки в дизайне и контенте), то каждый сможет сделать себе крепкий сайт под свою нишу.

Vladimir SEO #:

кароче онлайн чеклист + аназизатор сайт аля пр ци 

но с багами

Спасибо за отзыв. Вообще хочется, чтобы первый вывод пользователей был "но больше проверок", а не "но с багами" 😊 Но, видимо, баги так в глаза бросаются, что пользователи не успевают заметить за ними богатый функционал. Теперь баги станут приоритетным направлением работы.

Постскриптум. Эта ошибка с сервер не ответил 10 секунд - переодическая. Переодически просто соединение не проходит. Можно пересканировать и заработает. То ли в провайдере проблема, то ли магистральные фаерволы шалят. Буду собирать отладочную информацию, чтобы отправить провайдеру на проверку.

Vladimir SEO #:
не пользуюсь 
Вообще, вообще? А битые ссылки хотя бы проверить, вдруг перелинковка сломалась? Или на части страниц description просто не заполнен, либо очевидно кривой. Вот дали вам сайт, там куча контента за годы скопилась. Удалять его нельзя и стоит задача хоть что-то из него выжать. Или такие задачи редко ставятся?
Vladimir SEO #:
ПС вопрос - инструмент на ИИ верно ? ( слай ты ? 😂) 

Нет. Инструмент на программной логике. Строгой. Если ИИ анализирует текст, то это лишь добавляет работы, так как человеку теперь нужно проанализировать ещё и то, что ИИ написао 😂

Раз вы спросили вбейте в яндексе Site Alarm. Вот для него идеи накапливаю для следующей итерации обновлений.

Vladimir SEO #:
какие именно ? конкретика нужна

Например, бывает такое что тошнота слова 5% и она индексируется? Я говорю про обычные, не авторитетные сайты с ручной модерацией вроде stackoverflow. Если  правильно понял, слово может встречатся часто, если это корректно. Например товар - видеокарта. И там название модели видеокарты 5060 будет в концентрации 5-7%. Или страница с данными о биржевых индексах, там слово "котировки" будет 10% и это нормально. Откуда вообще пошёл миф про тошноту слов? Есть подозрение, что этот фильтр применяется для новых сайтов, чтобы исключить попадание дарвеев в индекс. А если сайт объективно рабочий, то поисковик забивает на тошноту.

Vladimir SEO #:
валом кликабильные и с трафиком - пример - товары в магазинах

Наверно это низкоконкурентные запросы просто. На таких можно просто текст заваленный ключевиками удалить, пустой оставить и ничего не изменится. Скорее всего, пользователями он фильтруется, так же как баннерная слепота. Я к тому, что при ранжировании такой текст с высокой тошнотой слов просто игнорируется, а данные берутся из заголовка, хлебных крошек, характеристик товара и блоков "так же рекомендуем". Или это лишь мои предположения и страницы с такими текстам действительно ценятся выше чем без него?

Vladimir SEO #:
я выборочно проверяю - если в выборке лажа - сношу все и заново 

Вы какими-нибудь инструментами массового тестирования страниц сайта пользуйтесь? Мож раньше пробовали какие-то инструменты, но перестали пользоваться за ненадобностью?

devtime58 #:

Как минимум эта страница в head должна отдать noindex)) 

Да, круто. Не знал. Можете привести примеры других страниц, которые нужно noindex делать? Первое я понял: очевидно пустые страницы.
Vladimir SEO #:
Вот мой заголовок "Хрень и бред при сочинении гавнотекстов под видом seo оптимизации" - и че надо "Хрень и бред при сочинении" вставлять в текст ? конечно нет. 

Из заголовка в тексте должны быть слова "сочинении", "seo оптимизаци". А это 30%. Я говорю не про какие-то конкретные слова, а про то что ВПРИЦИПЕ должны быть слова из заголовка в тексте. Я хочу сделать сервис который бы помогал исключить совсем уж очевидно гавёные проблемы. Так он среагирует и выдаст ошибку, что на странице гарантированно нет ключевиков, раз слова из заголовка не встречаются в тексте. Понимаете?

это все колхозный развод сеоблохеров

Я веб программист и всю карьеру считал это незыблемой правдой. Могли бы вы для меня и для других смежных специалистов дать пояснения? Для вас это очевидно, а мы в это массово верим. Прям реально интересно.

не научились, валом таких текстов везде

Они ищутся по прямому запросу с site: и т.д. Что показывает, только то, что эти страницы индексируются, а не присутствуютв результатах выдачи на хоть сколько-то кликабельных позициях.

хочешь сделать хорошо - нужен контроль максимальный.

А если нужно массово страницы проверять? 10 000 страиниц не проверить. Вот для таких случаев и делается инструмент. Так же, плохие специалисты делают ерунду, и нужен инструмент который позволит показать бредовые ошибки. Так владелец бизнеса бысттрее откажется от плохого спецлиатста и не успеет разочароваться в СЕО. Поэтому и прошу мне помочь. Чем быстрее отсеяться плохие специалисты, тем быстрее бизнес доберётся до заказа услуг у хороших.

12
Всего: 11