Яндекс "Проксиму" свою выкатывает - выдачу будет трясти ещё долго. Как в Гугле с медицинскими апдейтами, но думаю, что ещё похуже. Забегут толокеры с заданием определить авторитетность страницы - и если чего-то не найдут или не увидят, тогда ой.Так что прорабатывайте профили авторов: биография, дипломы, аккаунты в соцсетях, если можно - учетки в "Вики", всё по "руководству по качеству" от Гугла, пока от Яндекса внятных требований не будет. А от него может и не быть, Першина опять скажет "Делайте сайт лучше".Факт, что им проще сайт клиники на медицинскую тематику или справочник в топ поставить, чем любой другой ресурс, с чьей репутацией они в два клика не разберутся. Я думаю, что это только начало - будут масштабировать и на другие тематики.
Однозначно. В подавляющем большинстве случаев она не нужна.
Я тебе про Ерёму - ты мне про Фому.На продвижение приходят чаще всего уже готовые сайты, как есть - и чаще всего сделаны они плохо, как умел разраб и нафантазировал маркетос. Так что все разговоры про UX, структуру, краулинговый бюджет - это вот и приходится разбирать уже готовое. И вот эти все мега-меню, любимые народом - может, и удобны на больших дисплеях, но реализовано даже в рамках юзабилити так, что выкинуть, а лучше сжечь.Ну и я тебе ещё раз повторю: избыточная навигация - это проблема семантического плана, когда на сайте в результате под один запрос - 2-5 страничек, и у всех одинаково высокая релевантность по тому же tf*idf. По итогам - "колбаса" с переклейкой запросов туда-сюда, недостаточно высокие позиции по нескольким кластерам и прочий гимор. Из практики: я только в минувшем году на пяти, что ли, клиентских сайтах лишнюю вложенность и дополнительные меню поубивал. Во всех случаях сказалось в плюс - и серьёзно. Потому что каннибализация - это вам не здесь.
Ну и чтоб два раза не вставать: мониторь вебвизор, смотри, есть ли траблы с навигацией. Если есть - и карта сайта в html может быть вариантом. Кроме того, ей всё таки пользуются. Тут можно тупо по метрике посмотреть - есть заходы или нету. Было бы из-за чего шорох поднимать.
Не только, не только.Вопросы UX вообще мало отношения имеют к SEO, а вот куча левых ключей на достаточно "тонких" страничках - это проблемы с семантикой и выбором целевой странички под кластер для ПС. Режешь менюху - становится хорошо.Менюшка твоя сквозная, как правило. А карта сайта в html - это одна отдельная страничка, которая никому не мешает, починяет примус.
Так это ещё только просела. Вангую, что вообще из видимости вылетит. Хотя бы потому, что в топах - институтики, сервисы яндекса, достаточно серьёзные справочники - а тут "мама троих детей" с загадочными дипломами и без вот такого даже на страничке:
Тогда это явно лишнее. Лучше за актуальностью xml смотреть. Карты сайта в формате html чисто под ботов сейчас точно не нужны, это что-то из времен "Альтависты" и каталогов вместо поисковика.
Однозначного ответа нету, вам решать. Просто учитывайте, что субдомен - это отдельный сайт, и того же ссылочного веса от основного домена вы не получите. Это совершенно автономный ресурс, требующий умножения бюджетов на поддержку и продвижение. Есть, конечно, программные решения, позволяющие работать с субдоменами в рамках физически одного сайта (тут пример под Битрикс), но что касается хостовых - всё равно это отдельный сайт.Второй момент - это целевая ПС. Гугл реально не любит субдомены по причине своеобразного понимания региональности.Я бы предложил использовать папки. Для крупных целевых регионов можно попробовать и субдомены, но если ваше УТП, цены, особенности доставки и т.д. не отличаются от аналогичных в других регионах - лучше использовать папки.
Для примера: зашёл ко мне интернет-магазин без физических представительств на продвижение. Практически на все российские города - субдомен. Гугл ранжирует основной домен даже по региональным запросам с топонимами. Яндекс - субдомены. И едва ли тут удастся найти баланс, структура не позволит и объём работ.
Треду 3 года почти, за это время много чего поменялось и добавилось.По факту из-за удаления мусорных страниц съехать можно только в том случае, если удаление мусора сказалось на семантике оставшихся страниц - то есть были выкинуты какие-то ключи с посадок (теги, карточки товаров, подкатегории - то есть ссылки на удаленные страницы). Ну, либо процесс обрезки был проведен немного неправильно с технической точки зрения, и это негативно отразилось на сканировании сайта.