Похоже так оно и есть (сам в блогирровании замечен не был)
http://www.webplanet.ru/news/internet/2004/3/11/blogs.html
Причем линки распространяются оочень хорошо (а это уже проверено).
1 и 2 - бредовые идеи :)
3 - хозяин блога решил что это действительно fun и от широты души поставил.
4 - кто то тебя держит за подопытного кролика и проверяет что можно с блога выцепить
5 - конкуренты и черный pr
p.s.
а ссылочки тоже заинтересовали, опубликуй?
Как пример того, как не надо делать - сойдет :D
lamb - выгружай html + xls + zip(xls), причем статикой.
это лучше всего (если место есть, конечно).
Пользователь, он разберется.
Я уже поднимал эту тему ранее, и приводил те же доводы, что и Nikolai Popkov
Более того,
1 - своими глазами видел логи своего сайта, где гугл брал запрещенные url, и шел через внутренний редирект (302) дальше, запрашивая страницы которые ему также были запрещены.
2 - связывался с одним из своих партнеров, и обьяснял что платить деньги за то что гугл "проиндексировал" сто ссылок-редиректов с его сайта я не собираюсь (выяснилось разбором логов с его сайта).
В обоих случаях страницы были запрещены, и запрещающие записи были старыми.
Вывод - гугл кладет на robots.txt
Редкий сайт пройдет валидатор ... А сайтов - мильён.
Ты только чудес не жди.
То что у меня что то вылазит - так запросы такие что больше теоретический интерес предоставляют чем коммерческий.
цифры в студию!
Для преобразований "динамика в динамику" - RTFM на тему
RewriteCond %{QUERY_STRING}
:D
Может наборщик (или редактор) ошибся?
Жареные новости известно как готовятся...
Отличный эффект дает.
Настолько что русскоязычные сайты вылазят по английским запросам (слова запроса - только в URL)