Я уже разобрался)))
По 300-400 доменов с поддоменами на каждом IP
Тот кусочек что я привел выше - это кусочек статистики запросов к серверу для всех доменов привязанных к нему.
xpro2004, а если не секрет, для чего собирается данная база? Я видел описание, типа поисковая система и т.д. А где она сейчас используется, или для какого проекта будет использоваться? Вы конечно не обязаны отвечать, просто интересно.
ТС, попробуй adskape.ru с оплатой за посетителей и прицелом на Украину
У меня там даже эротика неплохо конвертилась
Явно не один запрос в секунду :D
Но в любом случае ничего страшного. Злой IP уже в бане))
Наверное 1 раз в секунду к каждому поддомену. А если их 100 000 на одном сервере....
Если бы у меня яша так глотал страницы, наверное был бы уже миллиардером :D
Я не открывал сайт, т.к. антивирус не дал его открыть, но не сильно и хотелось.
Но в большинстве случаев схема такая:
1. Юзер ищет эротику
2. Попадает на вирусный платник и успешно получает вирус на комп
3. Далее в любом последующем поиске к платнику любой партнерки добавляется рефкод автора вируса, а иногда платники с рефкодами добавляются в результаты поиска по любому запросу на 1е места
Выгода заключается в том, что пойманный один раз на крючок юзер все время будет попадать на нужные партнерки. А если через какое-то время не оплатит, то можно еще как-нибудь выжать с него бабло косвенно. Например проспамом с его компа чего-нибудь или использованием его как прокси для взлома и кардинга.
Минусы - это незаконно
А по-моему симпотичные девушки на картинках
Или вопрос в другом?
Можно прогонять через экспорт закладок в каждом сервисе, только аккуратно. Раньше работало. Не знаю как сейчас.
Самый эффективный способ привлечь роботов и чтоб они по достоинству оценили Ваши творения.
Пишеться простенький скриптик на PHP(ловец роботов)
Например что-то типа такого:
<?php date_default_timezone_set('Europe/Kiev'); $ip = (getenv('HTTP_X_FORWARDED_FOR'))?getenv('HTTP_X_FORWARDED_FOR'):getenv('REMOTE_ADDR'); $param='-none-'; if (isset($_GET['from']))$param=$_GET['from']; $flog=fopen('log.txt','a'); fwrite($flog,strftime('%d.%m.%Y %H:%M:%S', time())."\t".$ip."\t".$_SERVER['HTTP_USER_AGENT']."\t".getenv('HTTP_REFERER')."\t".$param."\r\n"); fclose($flog); ?>
Загружаете на сервер например как in.php
Размещаете ссылки где только можно такого плана:
вашсайт.ру/in.php?from=soczakladka1
вашсайт.ру/in.php?from=soczakladka2
вашсайт.ру/in.php?from=forum1
вашсайт.ру/in.php?from=sapa1
и т.д.
Через пару часов/суток заходим в файл вашсайт.ру/log.txt(который тоже нужно было создать и поставить разрешение на запись).
И вуаля, в нем сохранены абсолютно все ссылки, которые для робота играют хоть какое-то значение. Чем быстрее робот посетил данную ссылку после ее размещения, тем она для него важнее.
Итого получаем со 100 размещенных ссылок 5-6 нормальных. Смотрим где они были размещены, и тупо заспамливаем этот ресурс ссылками на свои доры, картами своих сайтов и т.д. Главное не переусердствовать. А то уйдут в баню и ваши сайты, и не ваши. А еще лучше разбавлять ссылки текстом.
Хорошие места таким образом обеспечены в выдаче. В следующий раз придется искать другие сайты для спама ссылок, т.к. эти будут уже под подозрением у ПС или в бане.
Это всё касается гугля.
Подтверждаю. И то, не факт что нужной тематики, т.к. дальше просмотра 1-2 страниц дело не доходит.
5.5 баксов за кило укр роботрафика :D
У меня сайты по 15 июля зашли в индекс. Те что делал позже, ни одной странички