TC, вот Володя отметил важную особенность.
Именно поэтому логика текстовой оптимизации: под Яндекс, под Гугл, под Яндекс и Гугл могут заметно разниться.
Это не всегда так, но в случае, когда вы усиливаете релевантность прямым вхождение по тексту - да, в Гугле это хорошо заметно.
Давать - даёт, но действительно Яндекс не настолько зависим от текстовой плотности.
Пф могут передавливать текстовую плотность и там, где текста может быть мало или текст некачественный/спамный, релевантность может быть высокая, благодаря ПФ сигналам. Такой пример вы и сами недавно видели.
Ваши наблюдения верны. Яндексу до топового ранжирования не обязательно иметь высокую ключевую плотность.
Более того, топовый результат могут заниматься страницы, состоящие из картинок. Здесь конечно важно конкурентное окружение, но в целом для сайтов например фотографов не нужно вымучивать из себя тексты, чтобы иметь высокие позиции.
Везде конечно есть свои нюансы, но общая логика именно такая.
Если же мы говорим о каком-то частном информационном сайте, где вы стартуете с какого-то вполне понятного технического базиса и потом просто добавляете новые материалы, то лучше сначала доведите до конца всю рабочую техничку (которую есть возможность реализовать здесь и сейчас), а уже потом выкладывайте.
Конечно не нужно предлагать пользователям "сырые" страницы. Оформляйте до готового вида и размещайте.
Они будут индексировать всё то, что будет доступно им для индексации.
А здесь уже сами делайте выводы, чего вам в случае индексации будет не доставать.
Сайты были нужны на этапе взлёта рынков и экономики.
"Великая депрессия" в прошлом веке за океаном - житейская мелочь в сравнении с уже накрывшей волной.
Огромная ставка, риски по сайтам высоки, ожидаемый ROI отрицателен.
Сайты уже позапрошлый век. Соцсети - прошлый. Маркетплейсы - уходящий.
Ближайшее будущее - в развитии бесчеловечных гиперплейсов.
Хорошо и довольно точно сформулировали, однако с вашим результирующим выводом я не соглашусь.
Будущее в диверсификации web рекламы - в точечном и нишевом позиционировании для каждого бизнеса.
Для кого-то основным рекламным каналом продолжают быть сайты, для кого-то идут лиды из соц. сетей, кто-то принимает решение направлять усилия в маркетплейсы, кто-то продолжает довольствоваться Директом.
Надо уметь и хотя бы обзорно разбираться и в первом, и во втором и в остальном.
Соб-но, комплексный интернет-маркетинг и предполагает освоение всех возможных рекламных каналов.
В ряде случаев - возможно. Особенно если это вариант регионального продвижения и сайт не требует серьёзных переработок.
Однако в серьёзном конкурентном продвижении модернизация и продвивижение сайта на Tilda сопряжено с рядом довольно серьёзных ограничений.
p.s. Я лично за Tilda-у не берусь, потому что проще пересобрать страницу на конструкторе внутри CMS и в этом случае всё гораздо удобней и доступнее.
Вы сами для себя определяется важность и приоритетность рабочих дополнений.
Поэтому смотрите по обстоятельствам, в чём видите нарастающую проблему, туда и направляйте силы :)
Да, совершенно верно, это имеет более приоритетное значение.
Тогда замечу. Что XML карта тоже всего лишь инструмент, который конечно во многом помогает ПС обнаружить новые страницы. Но если у вас всё в порядке с индексацией и ранжированием, то тоже имеет место быть :)
p.s. Хотя я лично за то, чтобы XML карта всё же была и генерировалась корректно :)
Колхоз или не колхоз - это уж личные оценочные характеристики :)
Суть в чём. Суть в том, что для некоторых сайтов - это действительно важно и нужно, поэтому на это действие имеет смысл потратить ресурсы и время.
Для других сайтов - небольших, мало обновляемых - это не обязательный инструмент, поэтому здесь уже по желанию, потому что сравнительного полезного эффекта это не возымеет.
Смотрите, вы ответили,
Я докажу, что не во всех случаях это имеет смысл, следовательно обязательности здесь нет.
Берем умозрительный случай. Совсем небольшой магазин на несколько сотен товаров.
Допустим, в конкретный момент времени происходит обновление - добавляется два десятка новых товаров.
В самом базовом случае CMS сгенерирует XML карту сайта (обновит её) и включит туда два десятка новых URL-ов с новыми текущими датами. ПС скачает в очередной раз XML карту и увидит новые URL-ы и их даты.
В таком незначительном объёме ПС зайдет и проиндексирует эти страницы.
В этом случае LM не даст никаких преимуществ, потому что полезное содержание текущего обновления - это два десятка новых URL адресов, даты на которые сформируются автоматически на момент создания XML карты.
Условно говоря.
С LM мы сообщаем поиску - у нас есть обновление на 20 страниц, с датой обновления (условно) 1.10.2023 и при этом остальные страницы не обновлялись.
[Робот] - Ok, понял, иду индексировать новые 20 страниц, на остальные бюджет не трачу.
Без LM сообщаем - у нас есть обновление на 20 страниц с датой генерации XML карты т.е. та же 1.10.2023, по остальным страницам - неизвестно, потому, что у всех проставляется новая дата равная текущей даже генерации XML карты.
Выше мы говорили, что когда LM не поддерживается, робот перестаёт их учитывать.
[Робот] - Вижу 20 новых URL-ов в XML карте - иду индексировать, дальше по обстоятельствам.
И в том, и в другом случае 20 новых страниц будут первыми.
Важный нюанс. Технологически LM не заставляет индексировать страницу быстрее, LM передаёт роботу информация о датах изменения страниц, поэтому анализируя эту информацию индексатор сможет более правильно определить очередность в индексации.
LM - это инструмент приоритизации данных.