Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Kaavain #:
Я раз в пару лет делаю sitemap полуручками и скармливаю его поисковикам. Я теперь уже не тот чайник что 17 лет назад и мог бы уже и сам написать скрипт генерации XML но тут тоже мне кажется это не приоритет. 

Вы сами для себя определяется важность и приоритетность рабочих дополнений.

Поэтому смотрите по обстоятельствам, в чём видите нарастающую проблему, туда и направляйте силы :)

Kaavain #:
СПС. Ну и я обойдусь. Лучше вдарю по 404, 301 и canonical.

Да, совершенно верно, это имеет более приоритетное значение.


Kaavain #:
Кстати, хочу отметить, что у меня полностью рукописная CMS и ничего она сама не генерит. Но новые товары (всего порядка 6000, новых по 3-5 в неделю) появляются в Я черед 24-48 часов, в гугле примерно через сутки.

Тогда замечу. Что XML карта тоже всего лишь инструмент, который конечно во многом помогает ПС обнаружить новые страницы. Но если у вас всё в порядке с индексацией и ранжированием, то тоже имеет место быть :)

p.s. Хотя я лично за то, чтобы XML карта всё же была и генерировалась корректно :)

Mr. 301 #:
Это не повод тоже делать по-колхозному. Особенно учитывая то, что топовые ИМ в топе вообще по другим причинам, нежели середнячки.

Но это ИМХО, если хотите делать колхоз – делайте, это сугубо личное.

Колхоз или не колхоз - это уж личные оценочные характеристики :)

Суть в чём. Суть в том, что для некоторых сайтов - это действительно важно и нужно, поэтому на это действие имеет смысл потратить ресурсы и время.

Для других сайтов - небольших, мало обновляемых - это не обязательный инструмент, поэтому здесь уже по желанию, потому что сравнительного полезного эффекта это не возымеет. 

Mr. 301 #:
Никто не говорил, что наличие заголовка ускоряет индексацию.

Смотрите, вы ответили,

Mr. 301 #:
Для ИМ надо обязательно, чтобы новые товары индексировать быстрее.

Я докажу, что не во всех случаях это имеет смысл, следовательно обязательности здесь нет.

Берем умозрительный случай. Совсем небольшой магазин на несколько сотен товаров.

Допустим, в конкретный момент времени происходит обновление - добавляется два десятка новых товаров.

В самом базовом случае CMS сгенерирует XML карту сайта (обновит её) и включит туда два десятка новых URL-ов с новыми текущими датами. ПС скачает в очередной раз XML карту и увидит новые URL-ы и их даты.

В таком незначительном объёме ПС зайдет и проиндексирует эти страницы.

В этом случае LM не даст никаких преимуществ, потому что полезное содержание текущего обновления - это два десятка новых URL адресов, даты на которые сформируются автоматически на момент создания XML карты.

Условно говоря.

С LM мы сообщаем поиску - у нас есть обновление на 20 страниц, с датой обновления (условно) 1.10.2023 и при этом остальные страницы не обновлялись.

[Робот] - Ok, понял, иду индексировать новые 20 страниц, на остальные бюджет не трачу.

Без LM сообщаем - у нас есть обновление на 20 страниц с датой генерации XML карты т.е. та же 1.10.2023, по остальным страницам - неизвестно, потому, что у всех проставляется новая дата равная текущей даже генерации XML карты.

Выше мы говорили, что когда LM не поддерживается, робот перестаёт их учитывать.

[Робот] - Вижу 20 новых URL-ов в XML карте - иду индексировать, дальше по обстоятельствам.

И в том, и в другом случае 20 новых страниц будут первыми.

Mr. 301 #:
Для ИМ надо обязательно, чтобы новые товары индексировать быстрее.

Важный нюанс. Технологически LM не заставляет индексировать страницу быстрее, LM передаёт роботу информация о датах изменения страниц, поэтому анализируя эту информацию индексатор сможет более правильно определить очередность в индексации.

LM - это инструмент приоритизации данных.

Kaavain #:
Ну вот я озадачился теперь.

Давайте поможем вам разобраться.


Kaavain #:
Выходит имеет это смысл только с часто МЕНЯЮЩИМСЯ контентом.

Да, при дополнительном условии, что сайт сравнительно немаленький (от несколько десятков тыс. страниц) т.е. порталы, крупные СМИ, большие интернет-магазины.


Kaavain #:
А мне, например, с интернет-магазином вообще нет смысла заморачиваться - существующие товары неизменны годами, а новые и так новые. 

Объём магазина какой? В целом, если вы добавляете товары до нескольких сотен в каждой рабочей итерации, то заморачиваться с настройкой LM особого смысла нет. Достаточно будет того, что вы будете обновлять XML карту сайта.


Kaavain #:
У мен сейчас вообще ласт-модифайт не отдается. Я так понимаю и не надо трогать. 

Множество сайтов, включая топовые интернет-магазины вполне обходятся и без LM.

Vladimir #:
Прежде чем писать и советовать, может ответить на вопрос вначале?

Да, конечно.


Vladimir #:
- Автор пишет контент, публикует на сайт
- "Соавторы" копируют контент на свои 9 сайтов ( в том числе и epp )

Вопрос
- какой сайт для ПС будет с "оригинальным" контентом

Смотрите. Важный нюанс. ПС не берут на себя ответственность в определении оригинальности текста (есть прямые Платона по этому вопросу). 


Vladimir #:
- какие сайты с большой вероятностью попадут под МПК

Те, которые не будут иметь трафика на данных страницах.

Vladimir #:
Если это качественный дубль - этого авторского рерайта, Яндекс также вполне может высого ранжировать.

Да, верно. Я об это и говорил, что уник, рерайт - это всё условные конструкции. 

Если в целом страница собирает устойчивые позитивные метрики, она имеет потенциал к развитию.

Даже если там и не будет текстового контента, а информация представлена графически.


Vladimir #:
PS Для ТС, для ПС без разницы что это копирайт, рерайт, или полный дубль

Нет, здесь пожалуйста не смешивайте копирайтерские техники и дублирование контента.

ПС действительно не важно, как автор "собрал текст" - писал из головы или рерайтил сторонние источники, а вот фактическое дублирование - это уже негативный признак, однако и не 100% предопределяющий (это важная оговорка).

Kaavain #:
А вот дурацкий вопрос, что, стоит настроить чтобы сервер отвечал  last-modified всегда сегодняшним числом?

А это наиболее часто ошибка. Вместо реальных данных сервер просто отдаёт текущую дату. 

Результат - ПС перестаёт учитывать эти данные.

Албена #:
Потому что Яндекс выбрал оптимальную для него стратегию: Накрутка ПФ

Это не Яндекс выбрал эту стратегию, это исполнители ПФ выбрали такую стратегию.

Они крутят аномальное кол-во заходов, отрабатывая на первичный интерес клиента, как вышеуказанный пример с бытовками,

Клиент не понимает опасности, а такому исполнителю всё равно, что будет потом. Будет ли МПК или залёту по стуку.

Элементарно нет даже желания помочь клиенту сформировать нормальный поясняющий текст.

Разве Яндекс виноват в такой безответственности и пренебрежительности в работе?


Албена #:
И не нужна никакая головная боль) Какие-то "оригинальные тексты", алгоритмы и прочая чепуха). 

Не нужно кому? Тому кто зарабатывает на накрутке? Да, не нужно, ибо это лихой и безответственный бизнес до первых проблем с ранжированием. Через год вы вернемся к этому сайту и подведем итоги.

Но всё это не имеет отношение к заявленной теме. 

К заявленной теме имеет отношение тезис о том, что рерайт сам по не является чем-то недопустимым. 

Рерайт - это вообще слэнговое понятие, ПС им не оперирует. 

Если это качественный авторский рерайт более удачно раскрывающий рабочую тему, то Яндекс вполне может его высоко отранжировать. Эта мысль уже проговаривалась и фиксировалась пруфами с Яндекса здесь

Всего: 12575