Достаточно, чтобы платить за хостинг, интернет и на работу не вставать по утрам.
А зачем кидать? Мне форум приносит денег на сегодняшний день больше, чем файлообменники. Хоть я и должна получать процент от продаж на файлообменниках со своего ресурса, как вебмастер, я их больше не получаю. Так что не зря здесь все жалуются на шейв. Прошли сотни тысяч переходов на популярные здесь ФО (типа рапидгатора), и представьте себе - ни одной покупки за все время :)
Так что заработок на ФО сейчас - это должен быть второстепенный вид дохода.
Заходят понемногу. Форуму просто еще и года нет, Москва не сразу строилась. Алекса на сегодня #250,000. Еще в апреле была #800,000. К своей первой годовщине есть все шансы выбиться в ТОП #100,000.
Добавила на днях аудиоплеер внизу каждой страницы. Теперь будут не только заходить, но и оставаться на несколько часов cлушать музыку в свернутой вкладке.
Так как это тема про файлообменники, напомню лишний раз, что у меня разрешены все условно-беслатные ФО (из живых, конечно).
Как раз на гумно сейчас пошел повышенный спрос. А также на зверюшек.
На депозите намного больше можно заработать, чем на летитбите с его КПД.
Baidu получилось забанить. Была неточность в регулярном выражении, его останавливает следующая запись (в его User-agent в начале, видимо, еще что-то присутствует):
SetEnvIfNoCase User-Agent "^.*Baiduspider" SearchBots
или просто (как описал del_im выше):
SetEnvIfNoCase User-Agent "Baiduspider" SearchBots
В Mozilla Firefox есть очень замечательный плагин, который позволяет на лету изменять User-agent и заходить на сайты под видом телефона или Googlebot (список агентов большой и может дополняться). Называется User Agent Switcher.
Вчера забанила еще около 5 предположительно поисковиков, нагрузка форума в часы пик уменьшилась в 2 раза.
Боты вычисляются в логах следующим образом:
1. Если бот послушный, будет периодически встречаться запись "GET /robots.txt HTTP/1.0".
2. Среди общего набора URL присутствует большое количество адресов, по которым обычные пользователи не переходят: просмотр профилей пользователей одного за другим, RSS-новости, справка.
3. Очень малая задержка между переходами на протяжении длительного времени.
Пыталась блокировать бота Baidu двумя описанными в Интернете способами, но так ничего из этого не вышло. Сама захожу с его User-agent - меня сайт не впускает, а на форуме в списке ботов Baidu все равно активен. Придется изучать код SMF для того, чтобы выяснить, как форум его идентифицирует: по длинному списку IP-адресов или по какому-нибудь другому специфическому признаку. Этот противный китайский бот может грузить сайт парой сотен своих клонов одновременно.
Мои попытки:
RewriteEngine OnRewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]RewriteRule .* - [F]
SetEnvIfNoCase User-Agent "^Baiduspider" SearchBotsOrder Allow,DenyAllow from AllDeny from env=SearchBots
На фильтрацию по User-Agent в .htaccess Baidu, например, не отреагировал. Для его блокировки уже нашла немного модифицированное решение. Да и названия не всех ботов получается выяснить. Видно только, из диапазонов каких IP-адресов идет нагрузка, а кто за ними скрывается можно и не узнать.
Админы "топовых" на данный момент ФО пьют валидол и обливаются холодным потом :)
Спасибо за совет. Пока еще не хватает знаний по iptables, но уже пытаюсь разобраться.