Именно так. Имеет доступ, но в зависимости от спроса будет решать - использовать ему ресурсы для индексации и хранения страниц, которые имеют спрос в частотности после запятой или нет.
Вопрос не в хранении как в таковом - вопрос в эффективности использования.
Если несколько лет назад тот же рабочий сайт имел, условно 95-98% процентов индексации, то за последний год я вижу тенденцию, что порядка 15-20% процентов в статусе "Страница просканирована, но пока не проиндексирована" при том, что сайтам в среднем несколько лет, они активно развиваются и страницы которые выпали вылизаны по внутрянке, имеют полновесные уникальные тексты. С Яндексом - всё нормально, там есть и точечный трафик и никаких колебаний с индексом, Гугл - медленно но верно сбрасывает из индекса то, на чью долю не попадают клики (фактически спрос в Гугле на эти товары очень слабый).
А с учётом того, что Гугл и его сервисы вообще теряют в РФ свои позиции (понятно в связи с чем), то мы имеем тенденцию постепенного сжимания спроса и поискового трафика с Гугла.
Можем ли мы повлиять на это - нет не можем, поэтому к слову "привыкать" имелось ввиду следующее -> увидеть, осознать и принять реальность, где в Гугле будет и спрос падать, и часть индекса тоже будет скорее всего теряться.
Поэтому все эти общие рекомендации с Console-ем - это всё для новичков, я же понимаю и вижу (и фактически мониторю заходы Гугла по логам), что проблем доступа к материалам нет, просто Гугл экономит ресурсы и снижает себе нагрузку индексации те страниц, которые по его мнению, имеют спрос, сильно стремящий к нулю.
Так понятно?
Потому что он формальный и общий, не имеющий отношения к реальной проблеме.
Можно порассуждать и на эту тему, схожие признаки не только в Гугле.
"Привыкать" имелось ввиду, что Гугл и не обязан хранить все доступные для индексации страницы в индексе.
Многих сайтов. Тенденция повсеместная.
Не вместо. Необходимость работы никто не отменял.
Надо привыкать к новым реалиям.
Выпадают из индекса страницы с уникальным полновесным контентом, предварительно делаю выводы, что ввиду отсутствия спроса на отдельные страницы Гугл сокращает объём индекса. Эта тенденция в общем наметилась уже давно.
С 26-го августа глобальный апдейт идет.
Значит они ему более не нужны.
Cпасибо, весьма интригует!
У вас есть возможность практически проверить.
Не всего инструкции htaccess одинаково работают (зависит от настроек сервера), поэтому в вашем случае лучше самостоятельно протестировать и будет понятно.
Я бы выбрал первый вариант.
Не думаю, что здесь есть какая-то большая загадка. Приведите конкретный пример, разберем.
Логика в том, что поисковые системы ранжируют не по обязательному включению запроса в заголовок (это лишь один из способов улучшить релевантность страницы), а по совокупным сигналам, определяющим итоговую конкурентную релевантность.
Так например, страница без включения ключа в заголовок может ранжироваться выше страницы, где данный ключе в заголовке присутствует.
Чтобы осмыслить вышенаписанное уточню - Яндекс будет выше ранжировать страницу, где есть хорошие поведенческие и фактические конверсии (но контекстно запроса в заголовке у неё может не быть), чем ту, на которой трафика крайне мало и конверсий нет, хотя ключ во всех заголовках есть.
Более того, даже при контекстных изменения мета тегов её тоже важно обновлять, чтобы сформировать новую дату <lastmod> и обновлённую дату Last-Modification в коде ответа сервера.
Вы форум-то почитайте, этот вопрос тут чуть ли ни каждый день обсуждается.
Масса тем и непролазные дебри комментариев и измышления на эту тему.
Коротко - кто может, тот делает.