Сами сео не занимаемся, поэтому выскажемся с т.з. клиента.
По "правильному", если договор составляется исходя из продвижения в топ10-5-3, то должен быть полный возврат денег в случае если сайт не окажется там где должен. Включая "затраты", например, на ссылки - потому что клиенту по большому счету всё равно за что с него берут деньги и за что возвращают если результат не достигнут.
Профессиональный оптимизатор должен уметь просчитывать риски того, что сайт не окажется в топах, должен уметь со своим багажом опыта представлять вероятность изменения алгоритма и т.д.. Тем более алгоритм (судя по форуму) меняется так часто, что называть это неожиданным событием даже странно. Поэтому эти риски никак нельзя списывать на форс-мажор, а следовательно эти риски надо просчитывать и учитывать при калькуляции стоимости.
А уж если оптимизатор может просчитать эти риски, то он может и описать их и предложить клиенту, например, несколько вариантов стоимости в зависимости от того, насколько он согласен застраховать клиента от этих рисков своим профессионализмом.
По поводу "доказательств" клиенту. Тут имхо всё достаточно просто. Если клиент грамотный, то он сам должен сказать оптимизатору что для него будет являться доказательством и если оптимизатора это устроит - хорошо. Если клиент неграмотный, то ему совершенно не нужно и не хочется влезать в какие-то тонкости, для него всё просто - топ или не топ, и исходя из этого и надо составлять договора. Не нужно грузить его не нужной информацией, т.к. фразы про алгоритмы он просто не поймет и просто обманется.
Да, безусловно, тут есть момент цены, т.к. не все клиенты готовы будут платить столько, что бы покрыть риски. Но тут самое смешное, что у профессионалом, с опытом работы, цены могут оказаться ниже, т.к. просчитываемость риском у них выше. И потом - никто же не заставляет хвататься за клиента который не согласен платить достаточно? Рынок вроде не пустой отнюдь.
По поводу гарантий.
Часто встречали рекламные фразы "гарантия топ10" и т.д.. Ни разу не видели что бы они оказывались правдой, да и не могут они быть правдой. Сама эта фраза уже как красный флаг. Могут быть гарантии возвращения средств, могут быть гарантии проводимой работы, но никак не топа. А мы простите, если видим гарантию топа, мы хотим гарантированно получить топ, а не просто услышать "ну не шмогла я, не шмогла, вот Вам назад деньги за вычетом ссылок".
Интересно что такими фразами манипулируют не только "начинающие студенты", но и некоторые крупные фирмы, отчего становится ещё грустнее.
P.S.: Заранее сорри если выступили не совсем в формате топа, может быть просто не уловили суть вопроса.
Наконец-то сегодня грамотно лопухнулись на бирже:)
Поэтому вводим для себя новое правило - никогда не выдавать кредит на всю затребуемую сумму , всегда оставлять недоданными пару центов. Тогда больше времени остается на отмену заявки, если вдруг ошиблись/промахнулись.
Фишка с exec/system и т.п. ещё и в том, что php-шные лимиты (за исключением возможности запускать эти команды конечно) этих команд не касаются. Т.е. даже если дамп будет делаться 5 минут и займет 120Мб, то лимит php в 30 секунд и 16Мб никак не повлияет, будут влиять только "шелловые" лимиты, т.к. php скрипт просто запускает шелл команду и всё.
Восстановление производится полное и с замещением существующих текущих файлов/баз (и удалением вновь появившихся с момента изготовления резервной копии)? И просто скачать резервную копию нельзя? Т.е. по сути откат?
Если так, то это не всегда годиться - иногда нужно именно покопаться в бакапе или поднять его на новом месте (по тем или иным причинам).
Art-Host,
На многих хостингах делать дамп хоть сколько-нибудь большой БД на php провальная идея из-за тайм-лимитов и мемори-лимитов, ненадежно.
А удаление файлов можно сделать просто сканом всех файлов в директории (например через opendir/readdir) и удалением всех кроме последних Х.
Miracle,
Мы делали так. Скрипт на php. Запускается через wget по крону в нужное время.
Сам скрипт банально
system (или exec или аналоги) ("mysqldump ..... > ".date("Ymd")...
Удалять можно по тому же принципу.
писатель,
100-200к документов это не так много, далеко не так много как в "настоящих" поисковиках. Да и алгоритмы судя по всему у Вас будут попроще. При таких объемах скорее всего упрётесь в морфологию русскую. Но в принципе можете и осилить отнюдь не при бюджете в миллионы долларов.
Посмотрите risearch - risearch.org - возможно что-нибудь оттуда "позаимствуете".
Если по крону запускаете вызовом интерпретатора, нечто вроде
/usr/bin/php index.php
то
1) Может запускаться другой интерпретатор чем при запуске по http
2) Могут быть другие настройки php чем при запуске по http
3) Может скрипт кушать больше памяти будучи запущенным в режиме cgi
4) Могут срабатывать ограничения на количество памяти под процесс действующие на cgi приложения
В общем случае надежнее (для одинаковых настроек) запускать по крону используя get или wget команды - дергая скрипт по крону точно так же по http.
boga@voxnet.ru,
А куда Вы письмо писали?
У нас тоже sape не открывается, ни одно из зеркал.
Через проксик окей при этом.
IP выделенный, в том что не ddos-или уверены:)
На сайте у sape адресов e-mail ТП не нашли.
Можно mb_convert_encoding (чаще бывает проставлен чем iconv по нашему опыту)
Можно "руками" (смотрите в комментах к convert_cyr_string) если "лишних" либ не стоит.