Вы сами для себя определяется важность и приоритетность рабочих дополнений.
Поэтому смотрите по обстоятельствам, в чём видите нарастающую проблему, туда и направляйте силы :)
Да, совершенно верно, это имеет более приоритетное значение.
Тогда замечу. Что XML карта тоже всего лишь инструмент, который конечно во многом помогает ПС обнаружить новые страницы. Но если у вас всё в порядке с индексацией и ранжированием, то тоже имеет место быть :)
p.s. Хотя я лично за то, чтобы XML карта всё же была и генерировалась корректно :)
Колхоз или не колхоз - это уж личные оценочные характеристики :)
Суть в чём. Суть в том, что для некоторых сайтов - это действительно важно и нужно, поэтому на это действие имеет смысл потратить ресурсы и время.
Для других сайтов - небольших, мало обновляемых - это не обязательный инструмент, поэтому здесь уже по желанию, потому что сравнительного полезного эффекта это не возымеет.
Смотрите, вы ответили,
Я докажу, что не во всех случаях это имеет смысл, следовательно обязательности здесь нет.
Берем умозрительный случай. Совсем небольшой магазин на несколько сотен товаров.
Допустим, в конкретный момент времени происходит обновление - добавляется два десятка новых товаров.
В самом базовом случае CMS сгенерирует XML карту сайта (обновит её) и включит туда два десятка новых URL-ов с новыми текущими датами. ПС скачает в очередной раз XML карту и увидит новые URL-ы и их даты.
В таком незначительном объёме ПС зайдет и проиндексирует эти страницы.
В этом случае LM не даст никаких преимуществ, потому что полезное содержание текущего обновления - это два десятка новых URL адресов, даты на которые сформируются автоматически на момент создания XML карты.
Условно говоря.
С LM мы сообщаем поиску - у нас есть обновление на 20 страниц, с датой обновления (условно) 1.10.2023 и при этом остальные страницы не обновлялись.
[Робот] - Ok, понял, иду индексировать новые 20 страниц, на остальные бюджет не трачу.
Без LM сообщаем - у нас есть обновление на 20 страниц с датой генерации XML карты т.е. та же 1.10.2023, по остальным страницам - неизвестно, потому, что у всех проставляется новая дата равная текущей даже генерации XML карты.
Выше мы говорили, что когда LM не поддерживается, робот перестаёт их учитывать.
[Робот] - Вижу 20 новых URL-ов в XML карте - иду индексировать, дальше по обстоятельствам.
И в том, и в другом случае 20 новых страниц будут первыми.
Важный нюанс. Технологически LM не заставляет индексировать страницу быстрее, LM передаёт роботу информация о датах изменения страниц, поэтому анализируя эту информацию индексатор сможет более правильно определить очередность в индексации.
LM - это инструмент приоритизации данных.
Давайте поможем вам разобраться.
Да, при дополнительном условии, что сайт сравнительно немаленький (от несколько десятков тыс. страниц) т.е. порталы, крупные СМИ, большие интернет-магазины.
Объём магазина какой? В целом, если вы добавляете товары до нескольких сотен в каждой рабочей итерации, то заморачиваться с настройкой LM особого смысла нет. Достаточно будет того, что вы будете обновлять XML карту сайта.
Множество сайтов, включая топовые интернет-магазины вполне обходятся и без LM.
Да, конечно.
Смотрите. Важный нюанс. ПС не берут на себя ответственность в определении оригинальности текста (есть прямые Платона по этому вопросу).
Те, которые не будут иметь трафика на данных страницах.
Да, верно. Я об это и говорил, что уник, рерайт - это всё условные конструкции.
Если в целом страница собирает устойчивые позитивные метрики, она имеет потенциал к развитию.
Даже если там и не будет текстового контента, а информация представлена графически.
Нет, здесь пожалуйста не смешивайте копирайтерские техники и дублирование контента.
ПС действительно не важно, как автор "собрал текст" - писал из головы или рерайтил сторонние источники, а вот фактическое дублирование - это уже негативный признак, однако и не 100% предопределяющий (это важная оговорка).
А это наиболее часто ошибка. Вместо реальных данных сервер просто отдаёт текущую дату.
Результат - ПС перестаёт учитывать эти данные.
Это не Яндекс выбрал эту стратегию, это исполнители ПФ выбрали такую стратегию.
Они крутят аномальное кол-во заходов, отрабатывая на первичный интерес клиента, как вышеуказанный пример с бытовками,
Клиент не понимает опасности, а такому исполнителю всё равно, что будет потом. Будет ли МПК или залёту по стуку.
Элементарно нет даже желания помочь клиенту сформировать нормальный поясняющий текст.
Разве Яндекс виноват в такой безответственности и пренебрежительности в работе?
Не нужно кому? Тому кто зарабатывает на накрутке? Да, не нужно, ибо это лихой и безответственный бизнес до первых проблем с ранжированием. Через год вы вернемся к этому сайту и подведем итоги.
Но всё это не имеет отношение к заявленной теме.
К заявленной теме имеет отношение тезис о том, что рерайт сам по не является чем-то недопустимым.
Рерайт - это вообще слэнговое понятие, ПС им не оперирует.
Если это качественный авторский рерайт более удачно раскрывающий рабочую тему, то Яндекс вполне может его высоко отранжировать. Эта мысль уже проговаривалась и фиксировалась пруфами с Яндекса здесь.