RedirectPermanent /1/1/ http://www.mysite.ru/2/2/
Сперва указываем откуда, затем куда. Как-то так.
Из офиса запускал Язла. У других пользователей к обеду переодически появлялась форма с просьбой доказать, что ты не робот.
На сколько я понял, если с одного ip-шника идет большое кол-во запросов.
А если у пользователя отключена поддержка js?
Для форм делал проще. "От руки" рисовал картинку. Перед записью проверял скриптом. Делов то.
Другой способ. Делаете одно скрытое поле. Робот как правило его заполняет. Посетитель нет.
И еще способ. Делаете картинки, к примеру, зверей. Посетителю остается выбрать нужного.
header('Refresh: 5; url='.$_SERVER['PHP_SELF']);
И каким это макаром она (страница) сама обновляться будет. В этом варианте как минимум нужен заход посетителя ☝
Через Cron делать нужно.
Это боты. Поставьте каптчу.
P.S. По поводы каптчи. Не обязательно ее делать постоянно изменяющейся. Я делаю проще. Рисую одну единственную картинку с текстом. Нагрузки на сервак практически ни какой. Года за три пока еще не один бот не прошел.
С sweb'ом работаю давно. Сайтов, которые хостятся у него чуть меньше десятка. До этого аналогичных проблем не возникало. Хотя возможно они и были, просто этого никто не замечал.
Одно дело когда ресурс в сутки посещает около 100 посетителей, и другой, когда в сутки заходят около 2.5к активных посетителей. Первый тревожный звонок как раз и поступил от посетителей. Сперва сам не поверил, пока не наткнулся на аналогичную проблему.
А в целом, на мой взгляд, ситуация ясна. Серваки sweb'а перегружены. Знакомый системщик каким-то образом по SSH смог посмотреть загруженность сервака, на котором находиться данный сайт. Как мне он сказал: "Норма - единица". А на тот момент нагрузка была в пределах 18. Не слабо?
Соответственно, нужно снизить нагрузку на серваки. Каким образом? Можно наложить фильтр на боты. Пускаем только доверенных ботов, а остальным отправляем 403 ошибку. Можно в момент проседания сервака вырезать часть текста и отдавать урезанный документ. Да мало ли еще чего можно. Но вот только владельцев ресурсов они забыли об этом предупредить.
Сегодня только общался с вашей тех. поддержкой (Алексей Якушевич), результат нулевой. Одна заученная фраза: "Такого не может быть, потому что такого не может быть". Железная логика.
P.S. По поводу почтовых серверов наша компания давно потеряла надежду, поэтому давным-давно перешли на собственный почтовый сервак.
Основная проблема у sweba это в железе, поэтому и пытаются наложить различные фильтры, чтобы хоть как-то повысить производительность своих серваков.
1. Проблема не только у меня на машине.
2. Банерорезка не стоит
3. Даже если она и стояла, то резала бы коды постоянно. А так от случая к случаю.
4. Вырезаются не только баннеры, но и счетчики. А на днях заметил, что код на браузер загрузился без формы поиска.
Лучше через $_GET, пусть ссылка будет выглядеть немного коряво, зато на 100%.
Основные проблемы за последние несколько месяцев:
1. Постоянно падаем в 503
2. Где-то с месяц назад около 80% страниц для Яши показали 403 ошибку. Только с неделю назад опять стали доступны в поиске.
3. Не знаю для чего Вы это делаете? Наверное с целью оптимизации трафика. Но... Переодически сервер выдает полностью загруженные страницы с вырезанными ява-скриптами.
К примеру.
Закачиваем на сервер документ следующего содержания
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=windows-1251">
<title>Сайт</title>
</head>
<body>
<!--TopList COUNTER--><script language="JavaScript"><!--
d=document;js=10;a='';a+=';r='+escape(d.referrer)
//--></script>
</body>
</html>
А сервер при просмотре через браузер выдает уже следующее
Одно дело счетчики. Хотя тоже не приятно. Но другое дело клиенты, которые заплатили деньги за размещения баннера.
P.S. Вопрос к топикпастеру. Вы назвали тему: "SpaceWeb (Sweb)- Диалоги о профессиональном платном Хостинге". Что Вы подразумеваете под словом "профессиональный"?