Вов, похоже ты пропустил,
Топ региональный?
от части услуг я хотел бы отказаться,
но при этом логично было бы сменить домен, т.к. изначально я занимался заборами, и домен взял созвучный с заборами
Здесь важен принципиальный вопрос - старый с частью услуг по заборам вы оставляете в доступном для пользователей виде или целиком можно склеить с новым по решёткам, отбросив ненужное?
Совершенно верно, здесь надо также понимать, что поисковый робот для себя очищает содержание страницы от ненужной для него разметки и работает непосредственно с содержимым. Варианты <br> или <br />, а также степень влияния предупреждений на подобные ошибки в W3C индексирующему роботу глубокого безразличны.
Так что код страницы нужно конечно стараться делать чистым, но измененные правила W3C относительно отдельного синтаксиса уже точно не влияют на ранжирование, поэтому уделять такое пристальное внимание этой проблеме я бы не стал. Всегда есть куда более приоритетная очередь рабочих задач.
Поголовно - вряд ли. Есть перфекционисты, есть убеждённые ревнители кода, есть те, кто уверен, что это очень важно для ранжирования. Опять-таки, вот есть вы :)
Дело в том, что если бы этот фактор был значимым, мы бы видели чёткую статистическую корреляцию c ранжированием, однако в действительности этого не происходит, мы видим, что сайты с погрешностями в валидаторе вполне успешно (при прочих конкурентных достоинствах) занимают топы и недостатки в w3c валидаторе им не мешают.
И снова здесь не соглашусь. Метрики Web Core Vitals хоть хоть и не оправдывают себя с точки зрения какого-то точечного перфекционизма, но тем не менее, если загрузка страницы реально долгая и создаёт ощутимый дискомфорт для пользователя, пользователь в свою очередь испытывает раздражение и перестаёт пользоваться сайтов, то здесь систематические отказы и несут и прямые убытки в трафике, и в последующем влияют на ранжирование.
Так что я придерживаюсь позиции - есть значимые проблемы WCV, а есть нюансы, которыми вполне можно пренебречь.
Увы, но нет. Я сам морально за чистоту кода :) но значимого влияния это, увы, не оказывает.
Не стоит тратиться. Лучше проверьте следующим образом. Возьмите какой-нибудь небольшой город, например, Тула.
Составьте список из 20-30 коммерческих тематик. Cпарсите (или перенесите вручную) все 30-ать. Последовательно проведите валидацию. Уверен, от 80% и выше сайтов будут содержать ошибки по валидации.
Соглашусь. Чистый код - это хорошо и его надо исправлять в случае ошибок, но в моей практике также не было случаев, чтобы эти изменения давали какие-то значимые улучшения в ранжировании.
Поэтому эти задачи я отношу к 80% работ по правилам Парето.
Соглашусь с Володей, ещё посоветую пересмотреть контентное наполнение страниц по части структурного содержания: здесь рекомендую детально проанализировать конкурентов и собрать полезные идеи как ещё можно структурно насытить страницу в пределах выбранного интента.
Далее - всё верно, добавляйте внешние ссылки, трафик, прямые переходы, есть можете/умете (точечные целевые накрутки) с поиска именно на проблемные страницы (само собой, когда они будут/восстановятся в индексе и будут ранжироваться).
Да, форумOK, буксы, различные сервисы по исполнению заданий. В поиске найти не проблема.
Основная сложность организовать комплексную работу в этом направлении и поддерживать процесс.
Не обязательно ГС, вполне может быть адекватный корпоративный сайт, но как верно заметил genjnat такое явление нередко бывает, когда 30% рабочих ссылок - это основная часть, а 70% - это образованные фильтрами страницы, состоящие из повторов информации первых 30. И тогда как раз возникают все описанные проблемы.
Я с таким с клиентской практике встречаюсь довольно часто.
Согласен с ходом мысли коллеги. Если большая часть страниц генерируется фильтрами и эти посадочные не доработаны до полноценных офферов, а трафик на них имеет тенденцию к резкому сужению, то безусловно возможны случаи со смещением релевантности и вылетом по МЦ и МВС.
Доп. ссылки, трафик (как вариант целевые накрутки на нужные страницы), в меньшей степени - целевая перелинковка из основной текста страницы помогают.
Чисто субъективно, у меня Frog работает существенно быстрее.
Старый добрый Xenu уже довольно древняя программа, которая, по-моему, не обновлялась и конечно даже и близко не подходит к функционалу Frog-а. К тому же у Xenu есть проблема, она нередко определяет неверный статус страницы.
Ответ - да, за одну итерацию поисковая система может проиндексировать сайт целиком. И теоретически, и практически (в моей практике такие случаи в разные годы неоднократно были) это, безусловно, возможно.