Напишите эту светлую мысль в тех. поддержку Гугла вот на этот контекст:
Вы либо не понимаете разницы между техническим регламентом работы поискового робота и пользовательскими настройками, либо просто троллите.
Ежу понятно, что для того, чтобы учесть noindex, поисковому роботу нужно скачать документ. Равно как и изменение meta информации на другое значение поисковик поймет через скачивание документа, даже если стоит noindex.
И закроем тему, потому что мне общаться в таком тоне никакого удовольствия не доставляет.
То, что человека беспокоит я ответил в первом же ответе.
Вы понимаете, что автору не нужны лишние адреса в индексе хоть с проиндексированным содержанием, хоть нет?
Или вам принципиально нужно поспорить на предмет ваших искаженных выводов с чужих слов?
Я даю честные и внятные советы на основе своего многолетнего опыта.
Я не знаю, какие у вас логические механизмы срабатывает на мои слова, но еще раз - прочитайте про классическую структуру html документа. Есть служебная часть документа и есть пользовательская. Это данность.
Далее, я не говорил, что при сканировании и индексации документа поисковик их разделяет, я лишь говорил, что при индексации пользовательская часть в кэше проиндексированного адреса может отсутствовать.
Далее - title и meta-description вы отнесете сами куда вам надо без меня.
Не существует. Я (ещё раз) и не говорил, что существует такой запрет. Но есть механизм при котором, получив служебную информацию (например, ответ на запрос "if-modified-since"), поисковик может не скачивать/сканировать/индексировать документ.
Есть в этом случае разделение на служебную информацию которую поисковик получил и не стал индексировать содержание? По факту конкретного рабочего эпизода - есть. Но из этого не следует, что поисковик делит title, description и зону <body> на разные части и как-либо регламентирует их раздельную индексацию.
Потому что есть разница между предположениями и конкретной SEO практикой.
Гугл может проиндексировать страницы запрещенные через robots и выведет предупреждение, что указанные страницы закрыты для индексации в robots.txt. Нужно это человеку? Очевидно не нужно! Если вы об этом знаете, зачем давать вредные советы?
Предлагаю издать «1001 ночь seo-сказок».
А что такое "пользовательская часть документа"? А как её можно 'не сканировать', если в случае с метаноиндекс - документ придётся запросить с сервака (весь. Расходуя на это лимит обращений)...
Предлагаю не хамить и не выпендриваться, а прочитать про зоны служебной информаций и пользовательской. Про коды ответов сервера, мета информацию, зоны <head> и <body>.
Также желательно не выкручивать сказанное и не вводить читающих в заблуждение. Есть общий технический регламент, когда поисковая система обращается по указанному адресу и скачивает документ (вне зависимости какие инструкции стоят в meta), а есть режим индексации определённый пользовательскими настройками: в robots, в мета, в коде ответа сервера и т.д.
Так что не наводите тень на плетень.
Это понятно. Екатеринбург - полуторамиллионный город.
Но всё-таки полтора миллиона москвичей это не совсем тоже самое, чем полтора миллиона жителей уральского округа.
Простите, но никакие "если" не работают. Есть контроль и мотивация контроля - будет порядок. Нет должного контроля и необходимой мотивации, сразу вылезает "если невоспитанный контингент".
Те кто будучи из провинции прожили хотя бы несколько лет в Москве, то столичные развлечения их уже не интересуют. Зато приходит чёткое понимание, когда городские власти работают для людей так, как должно работать, чего невозможно сказать про небольшие города и уж тем более про отдалённые регионы.
Отсюда московские "извините, разрешите пройти" от каждого первого и приглашение на похлебальники в нищих городах и опасных кварталах.
Главные плюсы мск - это достойная трудозанятость и по зарплатам, и по проф. задачам. Всё остальное - производные.
Ибо в регионе,
И что особо важно добавить - для неполных дублей.
Не сканирует и не индексирует пользовательскую часть документа. Служебные области поисковик в любом случае посмотрит (Гугл даже явный Disallow может проигнорировать).
Я надеюсь в индексе Гугла каперайторы видели пустые по содержанию страницы, которые вроде как запрещены к индексации, но почему-то в индексе всё же оказываются (на некоторое время).