Не очень хорошо ясен смысл изучения реакции поисковиков на фуфло в данном конкретном случае.
Можно-то можно, но посетитель читать это не будет и уйдёт навсегда. Потому что ститистика, в которой написан текст -- это страшно.
принято-принято :) Но браузеров много -- и появляются новые, и мне не очень хочется, чтобы страницу не было видно в каком-нибудь IE 5.5 SP 1, например, или в Опере 6.01 -- всё не протестируешь :))))
Мне без разницы: если HTML будет парситься криво даже роботом -- он может неправильно отпарситься и браузером (клоакинг в расчёт брать не будем). А это уже ни в какие ворота не лезет.
а пользы от этого приёма?
Ну смотря как писать :)
Только это не нужно :)
Едва ли это возможно.
И не только они -- всякие вкусные надстройки над IE тоже это делают (NetCaptor -- точно) :)
Определить, ходят ли роботы -- можно по логам сервера :)
Ни в коем случае не гарантируется :)
Тем, например, что на *nix'ах он не работает :)