Разместился на нескольких сайтах. Спасибо. Сайты понравились. Спасибо за написание статей. Эх, побольше бы таких услуг у остальных размещающих статьи. :)
Нужно, чтобы описание было как можно более разнообразным при регистрации. Это предотвратит склейку.
вместо
file_get_contents
написал
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL,$partnersURL);
curl_setopt($ch, CURLOPT_RETURNTRANSFER,1);
curl_setopt($ch, CURLOPT_CONNECTTIMEOUT,2);
$htmlString = curl_exec($ch);
curl_close($ch);
и получилось здорово - скорость возросла и никаких задержек и сбоев!
Это www. Ознакомился. Думаю, перепишу на curl. Большое спасибо за дельный совет.
А может, вот это подойдёт:
http://www.php.net/manual/ru/function.file-get-contents.php
Хм...
Подсказка: Не используйте функцию preg_match(), если необходимо проверить наличие подстроки в заданной строке (прим. - мой случай). Используйте для этого strpos() либо strstr(), поскольку они выполнят эту задачу гораздо быстрее.
http://www.php.net/preg-match
Да, это www. Спасибо за подсказку. Пойду читать про curl и fsockopen. Это я обратки проверяю через file_get_contents и eregi. :) Вернее, делаю так, чтобы проверка очередной ссылки не блокировала время.
И да, и нет, 404 ошибка не обязательно может быть, может быть другая ошибка - например долгое считывание страницы - я с таким сталкивался. Страница загружается через несколько минут, и "failed to open stream" возникает раньше по времени.
Однако, давайте рассмотри случай 404 ошибки.
Нужно не остановиться, а предварить возникновение Warning, и проскочить к следующему действию.
Побольше контента на главный сайт, ну, и конечно, сайты-спутники сделать, да побольше. Учтите данные whois должны быть разные ;) .Желательно, чтобы все было в яке и дмозе. Прогнать по белякам и доскам и т.д., в общем, по 3-4-м тыс. сайтов (с учетом серых). :) и желательно не автоматом, а ручками с уникальными названиями. :)
Вам повезло.
Жаль, что каталог стал черным.