- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
То, что все поголовно забивают
Поголовно - вряд ли. Есть перфекционисты, есть убеждённые ревнители кода, есть те, кто уверен, что это очень важно для ранжирования. Опять-таки, вот есть вы :)
Дело в том, что если бы этот фактор был значимым, мы бы видели чёткую статистическую корреляцию c ранжированием, однако в действительности этого не происходит, мы видим, что сайты с погрешностями в валидаторе вполне успешно (при прочих конкурентных достоинствах) занимают топы и недостатки в w3c валидаторе им не мешают.
Главное в моем тезисе выше было, что лучше чистому коду уделять внимание, чем параметрам типа CLS которые не влияют на выдачу от слова "совсем"
И снова здесь не соглашусь. Метрики Web Core Vitals хоть хоть и не оправдывают себя с точки зрения какого-то точечного перфекционизма, но тем не менее, если загрузка страницы реально долгая и создаёт ощутимый дискомфорт для пользователя, пользователь в свою очередь испытывает раздражение и перестаёт пользоваться сайтов, то здесь систематические отказы и несут и прямые убытки в трафике, и в последующем влияют на ранжирование.
Так что я придерживаюсь позиции - есть значимые проблемы WCV, а есть нюансы, которыми вполне можно пренебречь.
(при прочих конкурентных достоинствах) занимают топы и недостатки в w3c валидаторе им не мешают.
Естественно. Мы ж про Гугл говорим? Если ссылок навалить, то в принципе на всю техничку можно забивать, но это не всем подходит так как ссылки таки денег стоят.
если загрузка страницы реально долгая и создаёт ощутимый дискомфорт для пользователя,
А я про скорость и не говорю. В первую очередь я именно о CLS (смещение макета бла бла бла и всё такое). Хотя у меня клиентские сайты в ТОП-1 стоят со скоростью в "красной" зоне и это им опять же не мешает ни разу. При этом сайт может быть реально быстрым, но "скорость" по этому самому чудному тулу у них будет в красной зоне. Почему? - Потому что тул этот не рабочий первоначально, возможно инженеры Гугла когда-то допилят его и сделают нормальным, то есть показывающим адекватные данные. А пока сайты стоят в ТОП-1 (а в некоторых тематиках и большинство из первой десятки) со скоростью в "красной" зоне, то я лучше буду следить за валидностью кода, чем пользоваться этим тулом в принципе
я лучше буду следить за валидностью кода
Валидность валидности рознь. И вообще, нужно понимать, что такое валидность вообще, и как она может влиять на индексацию, в частности. Одно дело, когда есть незакрытые теги, и другое дело - та хрень, которая описана в стартпосте и которая к валидности вообще не имеет никакого отношения. Нада понимать, что роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент сайта.
Нада понимать, что роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент сайта.
Совершенно верно, здесь надо также понимать, что поисковый робот для себя очищает содержание страницы от ненужной для него разметки и работает непосредственно с содержимым. Варианты <br> или <br />, а также степень влияния предупреждений на подобные ошибки в W3C индексирующему роботу глубокого безразличны.
Так что код страницы нужно конечно стараться делать чистым, но измененные правила W3C относительно отдельного синтаксиса уже точно не влияют на ранжирование, поэтому уделять такое пристальное внимание этой проблеме я бы не стал. Всегда есть куда более приоритетная очередь рабочих задач.
Всегда есть куда более приоритетная очередь рабочих задач.
Приведете пример 2-3 таковых?
Приведете пример 2-3 таковых?
Контент, расширение семантики, добавление новых кластеров, проработка коммерческих и поведенческих факторов, проработка CJM, работа с конверсионностью, работа с пользовательским фитбэком, ссылочное, работа со сниппетами и т.д.
роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент
Анализировать будут другие олгоритмы, позже... а индексатору надо из кода (не только html-) сделать некую запись в базе данных (при этом не требуется всего, что нужно браузеру), и парсить html-xml (и xhtml) он может проще (что не исключает появления в БД ПС странностей, с которыми браузеры справляются проще).