Изменились правила валидации HTML?

1 23
Антоний Казанский
На сайте с 12.04.2007
Offline
740
#21
YmersY #:
То, что все поголовно забивают

Поголовно - вряд ли. Есть перфекционисты, есть убеждённые ревнители кода, есть те, кто уверен, что это очень важно для ранжирования. Опять-таки, вот есть вы :)

Дело в том, что если бы этот фактор был значимым, мы бы видели чёткую статистическую корреляцию c ранжированием, однако в действительности этого не происходит, мы видим, что сайты с погрешностями в валидаторе вполне успешно (при прочих конкурентных достоинствах) занимают топы и недостатки в w3c валидаторе им не мешают.


YmersY #:
Главное в моем тезисе выше было, что лучше чистому коду уделять внимание, чем параметрам типа CLS которые не влияют на выдачу от слова "совсем"

И снова здесь не соглашусь. Метрики Web Core Vitals хоть хоть и не оправдывают себя с точки зрения какого-то точечного перфекционизма, но тем не менее, если загрузка страницы реально долгая и создаёт ощутимый дискомфорт для пользователя, пользователь в свою очередь испытывает раздражение и перестаёт пользоваться сайтов, то здесь систематические отказы и несут и прямые убытки в трафике, и в последующем влияют на ранжирование.

Так что я придерживаюсь позиции - есть значимые проблемы WCV, а есть нюансы, которыми вполне можно пренебречь.  


√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
YmersY
На сайте с 29.01.2007
Offline
255
#22
Антоний Казанский #:
(при прочих конкурентных достоинствах) занимают топы и недостатки в w3c валидаторе им не мешают.

Естественно. Мы ж про Гугл говорим? Если ссылок навалить, то в принципе на всю техничку можно забивать, но это не всем подходит так как ссылки таки денег стоят.

Антоний Казанский #:
если загрузка страницы реально долгая и создаёт ощутимый дискомфорт для пользователя,

А я про скорость и не говорю. В первую очередь я именно о CLS (смещение макета бла бла бла и всё такое). Хотя у меня клиентские сайты в ТОП-1 стоят со скоростью в "красной" зоне и это им опять же не мешает ни разу. При этом сайт может быть реально быстрым, но "скорость" по этому самому чудному тулу у них будет в красной зоне. Почему? - Потому что тул этот не рабочий первоначально, возможно инженеры Гугла когда-то допилят его и сделают нормальным, то есть показывающим адекватные данные. А пока сайты стоят в ТОП-1 (а в некоторых тематиках и большинство из первой десятки) со скоростью в "красной" зоне, то я лучше буду следить за валидностью кода, чем пользоваться этим тулом в принципе

Ссылки под Google со СМИ - дешевле, чем в биржах - Пиши в личку, не стесняйся! Если же у вас есть ссылки под Google дешевле бирж - тоже пишите, куплю!
W1
На сайте с 22.01.2021
Offline
306
#23
YmersY #:
я лучше буду следить за валидностью кода

Валидность валидности рознь. И вообще, нужно понимать, что такое валидность вообще, и как она может влиять на индексацию, в частности. Одно дело, когда есть незакрытые теги, и другое дело - та хрень, которая описана в стартпосте и которая к валидности вообще не имеет никакого отношения. Нада понимать, что роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент сайта. 

Мой форум - https://webinfo.guru –Там я всегда на связи
Антоний Казанский
На сайте с 12.04.2007
Offline
740
#24
webinfo #:
Нада понимать, что роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент сайта. 

Совершенно верно, здесь надо также понимать, что поисковый робот для себя очищает содержание страницы от ненужной для него разметки и работает непосредственно с содержимым. Варианты <br> или <br />, а также степень влияния предупреждений на подобные ошибки в W3C индексирующему роботу глубокого безразличны.

Так что код страницы нужно конечно стараться делать чистым, но измененные правила W3C относительно отдельного синтаксиса уже точно не влияют на ранжирование, поэтому уделять такое пристальное внимание этой проблеме я бы не стал. Всегда есть куда более приоритетная очередь рабочих задач. 

YmersY
На сайте с 29.01.2007
Offline
255
#25
Антоний Казанский #:
Всегда есть куда более приоритетная очередь рабочих задач. 

Приведете пример 2-3 таковых?

Антоний Казанский
На сайте с 12.04.2007
Offline
740
#26
YmersY #:
Приведете пример 2-3 таковых?

Контент, расширение семантики, добавление новых кластеров, проработка коммерческих и поведенческих факторов, проработка CJM, работа с конверсионностью, работа с пользовательским фитбэком, ссылочное, работа со сниппетами и т.д.

богоносец
На сайте с 30.01.2007
Offline
768
#27
webinfo #:
роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент

Анализировать будут другие олгоритмы, позже... а индексатору надо из  кода (не только html-)  сделать некую запись в базе данных (при этом не требуется всего, что нужно браузеру), и парсить html-xml (и xhtml) он может проще (что не исключает появления в БД ПС странностей, с которыми браузеры справляются проще).

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий