rel="canonical" является кривым костылём, расходующим лимит обращений бота к сцайту,
не должно быть дулей / сцылок на дубли (даже если вы по ним ответите 301)
Как им должен быть «Аминь!!!» — читайте хелпы, там не помянуто «ранжирования»...
Для не-индексирования в хелпах есть другие средства.
Нельзя писать про политику и постить фотки Грея в вышиванке.
Как «взвешивали»?
А искатели знают слово «официальный»?.. судя по списку ваших запросов.
Вам бесполезно что-то объяснять, вы не услышите. Хотя оно в выдаче много лет
https://www.yandex.ru/yandsearch?text=url%3Awww.seo-dream.ru+%D0%B0%D0%B4%D0%B5%D0%BA%D0%B2%D0%B0%D1%82%D0%BD%D1%8B%D0%B5+%D1%81%D1%80%D0%BE%D0%BA%D0%B8
https://www.yandex.ru/yandsearch?text=url%3Awww.seo-dream.ru+%D0%B1%D0%B5%D1%80%D0%B5%D0%BC+%D0%B4%D0%B5%D0%BD%D0%B5%D0%B3+%D0%B7%D0%B0+%D0%BD%D0%B0%D0%BF%D0%B8%D1%81%D0%B0%D0%BD%D0%B8%D0%B5
Вот это реальная проблема.
А по тому, что в индексе появиться не может (ибо закрыто в роботсе)
проблем быть не может.
И из Яндекс.Карт бывали звонки... по уже абсолютно мёртвым сайтам (но объяснить ей это не получалось, звонившая не была настроена что-то слушать).
Смысл в том, что «вы не ручаетесь за енту сцылку»... типа боту говорится «не учитывай её... при расчете священного PageRank» — уже давно засунутого куда поглубже.
Лучше прикиньте что яндексоидам приходится делать при обнаружении признаков накрутки... каким-то эмулятором пользователя: банить целые подсети для учёта поведенчиских с них. Т.е. для нейтрализации одного накрутчика — перестать учитывать поведение десятков тыс ползателей. Либо научиться действовать корректнее... а это вложения, а расковаловы с садовскими свали, одни першины остались, но до колмановских им далеко.
В какой искалке нет?
А в гугле зависеть это может и от закрытости файлов.JS от бота.
Вроде бы много чего Гугл умел, но не всё, что умеют браузеры.
Можете попробовать поискать левое меню на странице https://www.google.ru/search?q=site:seo-xslt.narod.ru/Indexing-XML-documents.xml т.е. повторяющийся контент виден пользователю, но его нет в коде индексируемого файла.
И ещё пропаганда всемогущества https://www.google.ru/search?q=site%3Asearchengines.ru+Google+JavaScript%7CAJAX%7CXML
а кроме пропаганды в растрепанном мозгу био-масс ничего не задерживается.
Вот смотрю за вами ... и неужели не хочется поискать https://www.google.ru/search?q=jquery%7Cajax%7Cjavascript%7Cxml+%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B0%D1%86%D0%B8%D1%8F+site:searchengines.guru
А вы ограничьте поиск одним документом и поищите (в кавычках) что-то характерное для выводимого замеченным вами aJax... заодно и проверите.
Или у вас проблема скорее в целеполагании / постановке задачи?
Саму проблему (скрыть от индексации) решать научились, хоть так www.unmedia.ru/shablon-sajta.html хоть ещё варианты есть // просто JS держать в отдельном файле — закрытом в robots.txt
// Яндекс JS не исполняет, у него .Такси/Еда/Гавно
Как и что выполняет Гугл — это тоже нечто растяжимое / не как все браузеры.., и у разрабов нет уверенности в том, что это нужно
хотя пиарить всемогущество нужно. Иначе паствы поубавится...
В крайнем случае:
Ещё есть подсказки | новости | чужие сайты / отзовики...