Т.е. под KC теперь тоже надо будет греть аккаунты Яндекса? Я пока справляюсь основным аккаунтом, но объёмы небольшие, я работу по семантике разбиваю на рабочие периоды и пока справляюсь, но в случае переключения на крупную и продолжительную задачу в короткие сроки пока не знаю как масштабировать. Похоже одной покупкой проксей здесь не обойтись.
Я теперь в них вообще особой надобности не вижу, без смены аккаунта в Яндексе.
Возможно со временем появятся предложения под парсинг КС.
И да, корректность хелпов сотрудниками перепроверяется и корректируется. Это вам не свободный копирайтинг под ключ на бирже для свободной продажи, где можно наплести всё что угодно и тебе за это ничего не будет.
Оф. справочная информация даже и близко не одной весовой по значимости в сравнении с единичным частным мнением пользователя на форуме.
Так что позиционировать мысль, что кто-то из нас знает лучше, чем сами разработчики этих механизмов я бы не стал и вам не советую.
Ещё раз. Нет иного механизма сохранения страниц в индексе, кроме индексирования. Хоть целиком, хоть частью, хоть одним адресом. Спорить просто глупо, выдержки я вам привел выше.
У меня у самого есть такие примеры на рабочих сайтах и там фиксируется даже не текст ссылки, а просто адреса. Так что это не более, чем частный случай индексации.
Как ни крути - это самостоятельный элемент в индексной базе и плодить такие страницы в индексе точно не стоит.
Потому что выглядеть это будет вот так,
У частного случая индексации страницы есть конкретная причина,
Мне прикрываться нет никакой надобности, я вам чётко и конкретно даю указания на справки, чтобы вы не изобретали новые смыслы и понятия тем процессам которые описаны и без моего опыта. Не говоря о том, что к вашему опыту в отсутствие каких-либо рабочих пруфов стоит отнестись как минимум с критической осторожностью.
А как вы себе это представляете? На основе каких признаков?
Глупости какие. Результат (даже тот, который вы указали) может быть только в результате индексации.
Если путаетесь с понятиями, в частности Яндекс напоминает,
и никаких других магических механизмов появления страниц сайта в индексе нет.
То, что вышеуказанный документ не ищется по контентному содержимому это ещё не значит, что он попал в индекс как-то иначе в обход общего механизма индексации. Здесь уже вы занимаетесь совершенно ненужным мифотворчеством.
В данном случае ситуация вполне конкретно разъясняется,
А чем ваш или мой копирайтинг на форуме принципиально отличается от их?
Правильно, регламентированной ответственностью написанного. Однако если написанное в справке вызывает недопонимание, то возможно они найдут для вас более убедительные объяснения. Полагаю в общении с ними у вас будет хватать такта не упоминать сказочные мотивы.
Путаницу, простите, вносите вы, задавая наводящие вопросы из неправильно понятых рассуждений.
Про бред - опустим, препирательство неинтересно, а экономию краулингового бюджета, если уж на то пошло вы совершенно не раскрыли в том объёме, в котором требует данный вопрос.
Принципиально я от настройки запретов в robots.txt не отговариваю - здесь у меня с вами никаких острых противоречий нет, но это далеко не всё, что необходимо рассматривать в вопросе про экономию краулинга бюджета. Впрочем, это уже совсем другая тема.
Напишите эту светлую мысль в тех. поддержку Гугла вот на этот контекст:
Вы либо не понимаете разницы между техническим регламентом работы поискового робота и пользовательскими настройками, либо просто троллите.
Ежу понятно, что для того, чтобы учесть noindex, поисковому роботу нужно скачать документ. Равно как и изменение meta информации на другое значение поисковик поймет через скачивание документа, даже если стоит noindex.
И закроем тему, потому что мне общаться в таком тоне никакого удовольствия не доставляет.
То, что человека беспокоит я ответил в первом же ответе.
Вы понимаете, что автору не нужны лишние адреса в индексе хоть с проиндексированным содержанием, хоть нет?
Или вам принципиально нужно поспорить на предмет ваших искаженных выводов с чужих слов?
Я даю честные и внятные советы на основе своего многолетнего опыта.
Я не знаю, какие у вас логические механизмы срабатывает на мои слова, но еще раз - прочитайте про классическую структуру html документа. Есть служебная часть документа и есть пользовательская. Это данность.
Далее, я не говорил, что при сканировании и индексации документа поисковик их разделяет, я лишь говорил, что при индексации пользовательская часть в кэше проиндексированного адреса может отсутствовать.
Далее - title и meta-description вы отнесете сами куда вам надо без меня.
Не существует. Я (ещё раз) и не говорил, что существует такой запрет. Но есть механизм при котором, получив служебную информацию (например, ответ на запрос "if-modified-since"), поисковик может не скачивать/сканировать/индексировать документ.
Есть в этом случае разделение на служебную информацию которую поисковик получил и не стал индексировать содержание? По факту конкретного рабочего эпизода - есть. Но из этого не следует, что поисковик делит title, description и зону <body> на разные части и как-либо регламентирует их раздельную индексацию.
Потому что есть разница между предположениями и конкретной SEO практикой.
Гугл может проиндексировать страницы запрещенные через robots и выведет предупреждение, что указанные страницы закрыты для индексации в robots.txt. Нужно это человеку? Очевидно не нужно! Если вы об этом знаете, зачем давать вредные советы?
Предлагаю издать «1001 ночь seo-сказок».
А что такое "пользовательская часть документа"? А как её можно 'не сканировать', если в случае с метаноиндекс - документ придётся запросить с сервака (весь. Расходуя на это лимит обращений)...
Предлагаю не хамить и не выпендриваться, а прочитать про зоны служебной информаций и пользовательской. Про коды ответов сервера, мета информацию, зоны <head> и <body>.
Также желательно не выкручивать сказанное и не вводить читающих в заблуждение. Есть общий технический регламент, когда поисковая система обращается по указанному адресу и скачивает документ (вне зависимости какие инструкции стоят в meta), а есть режим индексации определённый пользовательскими настройками: в robots, в мета, в коде ответа сервера и т.д.
Так что не наводите тень на плетень.