Не в компетенции сотрудника (если, конечно, это был кредитный инспектор, а не руководство) списывать штрафы. Даже если он и переговорил с руководителем представительства - не факт, что разговор не забылся и т.д.
Ничем, скорее всего, если сумма невелика. Ну и в блек-лист попадете, наверное :)
Ну вариантов, как минимум, два.
Первый - взять xml/rss/какой-нибудь еще информер (например, http://informer.gismeteo.ru/ или http://developer.yahoo.com/weather/), распарсить его и вывести на своем сайте. Только создатели информеров все-таки просят обратную ссылку и, по-моему, имеют на это полное право.
Второй - периодически выглядывать в окно и фиксировать значения на уличном термометре, выдавая наблюдения на сайт.
Ну зайдите на любой forex-сайт и найдите хоть одну валютную пару с долларом, по которой не было серьезных падений в течение последних двух недель :)
Когда-то, когда поисковые системы были еще маленькими и неопытными, то они не очень жаловали длинные и некрасивые урлы с параметрами. Существует даже мнение, что их родители пугали этими самыми ужасными урлами и наказывали, если они все-таки их посещали. Некоторые даже писали у себя на страницах помощи - "если у вас на сайте есть страницы с ?id=, то они не проиндексируются" или "поисковый робот ходит только по станицам типа .html, .shtml и т.п.".
Однако, сейчас 2006-й год заканчивается, они уже не путают swf и pdf, да и страницы, обладающие нечеловекопонятными урлами вполне нормально индексируют и ранжируют.
Так что, если есть возможность сделать ЧПУ - сделайте. Если нет, то и необязательно.
PS
Лично у меня в базе гугла сейчас сайт (каталог) - там страницы вида index.php?param=1,2,3 и все, других нет. Показывает, что порядка 40 000 знает.
Была похожая ситуация в августе-сентябре - не помню точный ip, хотя вроде заканчивался тоже на тройку. У меня это был картиночный бот - так что гляньте логи, посмотрите, что он качает. Съел около 250 гигабайт за месяц, хостер был рад выставить счет в полтора раза больше, чем обычно :)
Виноват, конечно, был я сам - потому как писать скрипты надо аккуратнее :)
Вы согласны с тем, что тематику документа с достаточно высокой степенью точности можно определить по совокупности ключевых и набору дополнительных (уникальных или особенных для темы) слов?
Или у нас с Вами разные представления о "тематичности"? :)
Я согласен, что ЯД - это не совсем то. Но это достаточно близко к тому, о чем тут весь спор разгорелся.
Ну с этим сложно спорить, вон справа висит блок яндекс-директа, причем тематичный :)
Кроме того, даже в открытом доступе (http://company.yandex.ru/grant/list.xml) лежит, как минимум, несколько вариантов определения тематичности страницы. И ничего особенно сложного там нет.
ultraedit используйте - он такие и открывает нормально, и редактирует неплохо :)
Наверное имеется ввиду что-то типа такого:
создается файл click.php
<?
header("Location: http://линк.на/партнерку");
exit;
?>
и все прямые линки на партнерку меняются на click.php. Его же можно еще запретить в robots.txt для индексации.
По-моему таки стоит хвалить не за время реакции на просьбу ребута, а за время, в течение которого такой просьбы не было :)