Понял, спасибо. Вообще хорошая идея фильтровать спамеров на стадии регистрации.
Но я бы лучше проверял по IP
http://www.stopforumspam.com/api?ip=xx.xx.xx.xx
Емейл штука не надежная, легче поменять/подделать.
А в идеале загружать к себе на сервер черный список ИП (раз в сутки, например) и искать уже в нем, а не обращаться к сторонним сервисам.
Анализируйте внешнии факторы - ссылки, +1 и т.п.
А если не секрет, про какие конкретно черные списки идет речь? Обычно, в такие списки заносят IP, а не емейлы.
Абсолютно все поддомены можно получить только от днс сервера который держит соотвествующий домен. Если рассматривать чисто технические способы то это либо трансфер зоны (который обычно закрыт), либо взлом днс сервера, либо взлом админки днс сервера (если она есть) :)
ИМХО Что-то самописное,
http://www.vitamax-rostov.ru/registr.php - название скрита выглядит слишком аляповато для серьезной цмс, ну и я явно писали ру-кодеры.
А разве у вас постфикс установлен?
ИМХО проблема дублей контента не в АГС и прочих в фильтрах, а в том, что в индекс попадают страницы, которые конкурируют(с точки зрения поисковика) с "основными" страницами сайта. Т.е. вы как оптимизатор, теряете контроль над тем, что окажется в выдаче.
Если цель сделать сайт под сапу, то важно большое кол-во страниц в индексе.
Если же нужна некая конкретная реакция посетителей (конверсия), то важно принимать посетителей на конкретные лендинги. Чтобы не ронять поведенческие факторы и т.п.
Вообщем, все как всегда относительно и зависит от целей :)
Есть уже готовые решения, например:
http://exim4u.org/
http://www.xams.org/index.php/features
Если не подойдет копайте по запросу "web interface for exim"
По поводу реализации, все зависит от вашего ПО, погуглите, например, "nginx кэширование"
Я про те страницы, что "глубже" :)
Как пример - http://blog.us.playstation.com/tag/recap/