Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Vladimir SEO #:
как раз логично

Вов, похоже ты пропустил,

Сергей :
и домен взял созвучный с заборами
Сергей :
Хотя сайт собрал и вывел в топ ))

Топ региональный?


Сергей :

от части услуг я хотел бы отказаться,

но при этом логично было бы сменить домен, т.к. изначально я занимался заборами, и домен взял созвучный с заборами

Здесь важен принципиальный вопрос - старый с частью услуг по заборам вы оставляете в доступном для пользователей виде или целиком можно склеить с новым по решёткам, отбросив ненужное?

webinfo #:
Нада понимать, что роботу глубоко наплевать, что там пишут валидаторы; робот читает код страницы, и этот код должен дать ему возможность анализировать контент сайта. 

Совершенно верно, здесь надо также понимать, что поисковый робот для себя очищает содержание страницы от ненужной для него разметки и работает непосредственно с содержимым. Варианты <br> или <br />, а также степень влияния предупреждений на подобные ошибки в W3C индексирующему роботу глубокого безразличны.

Так что код страницы нужно конечно стараться делать чистым, но измененные правила W3C относительно отдельного синтаксиса уже точно не влияют на ранжирование, поэтому уделять такое пристальное внимание этой проблеме я бы не стал. Всегда есть куда более приоритетная очередь рабочих задач. 

YmersY #:
То, что все поголовно забивают

Поголовно - вряд ли. Есть перфекционисты, есть убеждённые ревнители кода, есть те, кто уверен, что это очень важно для ранжирования. Опять-таки, вот есть вы :)

Дело в том, что если бы этот фактор был значимым, мы бы видели чёткую статистическую корреляцию c ранжированием, однако в действительности этого не происходит, мы видим, что сайты с погрешностями в валидаторе вполне успешно (при прочих конкурентных достоинствах) занимают топы и недостатки в w3c валидаторе им не мешают.


YmersY #:
Главное в моем тезисе выше было, что лучше чистому коду уделять внимание, чем параметрам типа CLS которые не влияют на выдачу от слова "совсем"

И снова здесь не соглашусь. Метрики Web Core Vitals хоть хоть и не оправдывают себя с точки зрения какого-то точечного перфекционизма, но тем не менее, если загрузка страницы реально долгая и создаёт ощутимый дискомфорт для пользователя, пользователь в свою очередь испытывает раздражение и перестаёт пользоваться сайтов, то здесь систематические отказы и несут и прямые убытки в трафике, и в последующем влияют на ранжирование.

Так что я придерживаюсь позиции - есть значимые проблемы WCV, а есть нюансы, которыми вполне можно пренебречь.  


YmersY #:
Это намного больше влияет на выдачу, чем "скорость сайта" и эти всякие новые хитрые и совершенно невсравшиеся параметры типа CLS.

Увы, но нет. Я сам морально за чистоту кода :) но значимого влияния это, увы, не оказывает. 


YmersY #:
Готов спорить на деньги!

Не стоит тратиться. Лучше проверьте следующим образом. Возьмите какой-нибудь небольшой город, например, Тула.

Составьте список из 20-30 коммерческих тематик. Cпарсите (или перенесите вручную) все 30-ать. Последовательно проведите валидацию. Уверен, от 80% и выше сайтов будут содержать ошибки по валидации.


slimcat #:
Как-то давно, кажется, в лохматом 2012-м пытался адаптировать сайты под эти идеальные требования валидации. Причем, в принципе, грубых ошибок не было. В общем, убил пару дней, выправил почти что все ошибки. Результата - ноль в квадрате :) пустая трата времени

Соглашусь. Чистый код - это хорошо и его надо исправлять в случае ошибок, но в моей практике также не было случаев, чтобы эти изменения давали какие-то значимые улучшения в ранжировании.

Поэтому эти задачи я отношу к 80% работ по правилам Парето.

Vladimir SEO #:
был анонсирован ап гугла именно по контенту - теперь реально есть аналог МЦ/МВС как у яши. Гоните трафик, ссылок надо больше на порядок

Соглашусь с Володей, ещё посоветую пересмотреть контентное наполнение страниц по части структурного содержания: здесь рекомендую детально проанализировать конкурентов и собрать полезные идеи как ещё можно структурно насытить страницу в пределах выбранного интента.

Далее - всё верно, добавляйте внешние ссылки, трафик, прямые переходы, есть можете/умете (точечные целевые накрутки) с поиска именно на проблемные страницы (само собой, когда они будут/восстановятся в индексе и будут ранжироваться).


Delbud #:
Откуда Вы трафик закупаете в таких случаях?
Delbud #:
Раньше пользовался forumok, может, сейчас есть что-то более "человечное".

Да, форумOK, буксы, различные сервисы по исполнению заданий. В поиске найти не проблема.

Основная сложность организовать комплексную работу в этом направлении и поддерживать процесс.

Vladimir SEO #:
99,999999% ГС , чисто по интуиции

Не обязательно ГС, вполне может быть адекватный корпоративный сайт, но как верно заметил  genjnat такое явление нередко бывает, когда 30% рабочих ссылок - это основная часть, а 70% - это образованные фильтрами страницы, состоящие из повторов информации первых 30. И тогда как раз возникают все описанные проблемы.

Я с таким с клиентской практике встречаюсь довольно часто.

genjnat #:
Если у вас 50, 70, 90... ХЗ сколько % страниц генерятся на автомате, то пересечения по релевантностям и их постоянная миграция неизбежны. Вего со всем. 
Если МПК страницы подавляющее большинство, то для ПС весь сайт будет МПК, т.е. мало полезным. Поэтому вы ранжируетесь только по НЧ запросам, по которым показывать больше нечего. А не потмоу что "не доросли до нормальных позиций"... Конекурентные запросы у вас нормально ранжироваться и не будут.

Согласен с ходом мысли коллеги. Если большая часть страниц генерируется фильтрами и эти посадочные не доработаны до полноценных офферов, а трафик на них имеет тенденцию к резкому сужению, то безусловно возможны случаи со смещением релевантности и вылетом по МЦ и МВС.

Доп. ссылки, трафик (как вариант целевые накрутки на нужные страницы), в меньшей степени - целевая перелинковка из основной текста страницы помогают.   

slimcat #:
а чем этот  screamingfrog лучше

Чисто субъективно, у меня Frog работает существенно быстрее.


slimcat #:
вроде как  Xenu's практически то же самое делает, в чем тогда проблема?

Старый добрый Xenu уже довольно древняя программа, которая, по-моему, не обновлялась и конечно даже и близко не подходит к функционалу Frog-а. К тому же у Xenu есть проблема, она нередко определяет неверный статус страницы.

Vladimir #:
Ответ будет?
Vladimir #:
Можно ли зарегистрировать домен вот в этом сентябре этого года, наполнить его, и в течении где то недели проиндексировать полностью в Яндексе

Ответ - да, за одну итерацию поисковая система может проиндексировать сайт целиком. И теоретически, и практически (в моей практике такие случаи в разные годы неоднократно были) это, безусловно, возможно. 

Всего: 12684