Робот видит HTML вне зависимости от того, как этот HTML генерируется.
А в третьих, поисковики плевать хотели на эти заголовки. Им интереснее реальное обновление страницы, а не какие-то там сказки от сервера. (по крайней мере, применительно для Google, в подфоруме о котором заведена эта тема)
Смайлик заметил, тем не менее уточню - Вы это тему до конца прочли?
Пошёл валить конкурентов...
Почитайте ещё этот комментарий. Там уточняется, что речь идёт об источниках тИЦ.
Так экспериментально вычислить, наверно, можно? :)
Так! Народ!
Я понимаю, что пятница...
Но с каких это пор Яндекс за внешние факторы вдруг стал банить или пессимизировать?!
Тысячи ссылок в день могут не дать положительного эффекта. А вот насчёт отрицательного... Сомневаюсь.
Мне кажется, что для любого запроса важна связка "внутренняя оптимизация + внешние факторы"... Понятно, что иногда можно и без внешних обойтись. Но внутренняя - самое первое дело! :)
Честно говоря, я тоже.
Но обратите внимание, каталожные сайты упомянуты отдельно. Стало быть, под исключением подразумеваются другие ресурсы.
Если ошибки ("утечки" тИЦа :) ) нигде не было, то получим, что домены (хотя бы один) 3го уровня, которые участвовали в эксперименте, попадают в список исключений.
Определить список популярных доменов 3го уровня, которые являются исключениями, понятно, не составит труда.
Я имел в виду то, что можно бы проследить за их бэками :)
А что, в Яндексе есть песочница?!
Вот точная цитата:
http://forum.yandex.ru/yandex/?message_id=1278064#m1278064
Насколько мне помнится, говорилось о наличии неких исключений для доменов 3го уровня.