вот manual: http://fantomaster.com/fantomasSuite/manuals/smhelp_en.txt
вот описание: http://fantomaster.com/fashadowmaker0.html
там идея такая: есть shadowGenerator - контрольный хаб, желательно на dedicated сервере(иначе, скорее всего, работать не будет). он делает всю черновую работу: ищет контент, фильтрует, изучает статистику и управляет другими доменами - генерирует и обновляет контент, регистрирует в поисковиках(через crontab), ведет мониторинг и т.д. там куча всяких тонкостей и возможностей.
скорость - большая проблема. говорят, начальная подготовка занимает часов 10(подбор слов и обработка текста), зато потом он может генерить по 10000 страниц в час.
пока написал скрипт генерации текста: по заданному кл. слову изучает первые 10 страниц, собирает все слова и их частоты, по этому "спектру" генерирует новый текст. можно задавать число слов в тексте, плотность ключевых слов(точность до десятых) и среднюю длину предложения. кто хочет посмотреть - пишите в личку.
пример:
слово - "search engine", всего слов - 200, средняя длина предложения - 10(с этим проблемы: стандартная rand() дает плохое распределение), плотность -2%
как у меня репутация с +14 до -12 скакнула в этой теме :)
2 RiKO: попасть в этот список мне не грозит. ссылки никуда не пропадают и страница не запрещена в robots.txt
т.е. по крайней мере в яндексе это работает? хотя яндекс меня не интересует..
повторю еще раз: проблема бана меня не волнует. to all: пожалуйста, прочитайте хотя бы одно из предыдущих сообщений прежде, чем отвесать. так сэкономите и мое, и свое время.
сомнительный метод..и вообще, это для яндекса. но, по-видимому, это и есть единственная проблема
😂 сам-то хоть понял, что написал? если ip адреса этих "левых user-agent'ов" есть в базе, то какие проблемы? и повторю еще раз: проблема бана меня не волнует
не получится. нужно знать ip адреса всех модераторов, а для этого нужно кучу сайтов в каждом каталоге зарегистрировать. хотя, например, у меня есть адреса link-cheker'ов dmoz'а и looksmart'а, но ведь есть еще и модераторы..и вообще, надо что-то отдавать, а не только брать, поэтому ссылки показываются реальным посетителям..т.е. у меня как будто каталог с непрямыми ссылками.
всем спасибо!
на результаты это никак не влияет - сам гугл видит страницу правильно.
если хотите, чтоб не было вопросиков, перекодируйте страницу в юникод. веб-интерфейс тут
кстати, помогает от роботов-сборщиков email 🚬
1. по-моему, это что-то из области фантастики. в любом случае не думаю, что таких модераторов много.
2.как они это делают? страница будет проиндексирована. интересное предположение, спасибо..
3.главное-хорошая база роботов. такие роботы бывают, но они учтены и продолжают учитываться. повторю, проблема cloaking'а меня мало волнует.
я пока попробовал один такой сервис. проверку уже прошел..кстати, предупредил модераторов, что у меня cloaking. но вот что их страница(сайту-участнику нужно разместить у себя полную версию их каталога) у меня скрыта они не знают. вроде получил кучу сайтов pr=6 и ниже, ссылающихся на меня бесплатно, но уж больно много исходящих ссылок на каждом из таких сайтов. о результатах доложу потом
проблема бана меня ябсолютно не беспокоит: домен можно купить долларов за 5-7, хостинг примерно за столько же - не велика потеря. да и клоакинг у меня надежный. про cloaking даже утверждают: a technology used by thousands of top positioned sites including the majority of Fortune 500 domains!
меня больше волнует потеря человекочасов на регистрацию каждого домена в куче каталогов. стоит ли овчинка выделки?
а можно ссылку хоть на один такой блог?
и мне, подалуйста, кусочек на пробу.. может, выложите куда, чтоб не дергали? :)
а как насчет интерфейса автоматической регистрации?
он назывался shaman.yandex.ru (user agent не помню), ip адрес тот же. хотя, возможно, я не прав.
так что с ним лучше делать: редиректить, или ждать, пока сам не отвалится?