Почитал здесь про Прокудину и про Tevron Ltd и понял, что денег на их домены у меня не хватит. Да и ладно, обойдусь как-нибудь и без их киберсквотства.
Спасибо всем
А у меня вопрос. Какой предполагается график изменения цены в период свободной регистрации? Где-то я читал, что цена будет постепенно снижаться, но начнется с 300000 рублей😕
Хочу уточнить пункт: Массовый сабмитт постов в DLE
Она, что и DLE-капчу обходит? С какой вероятностью и временем распознавания?
Думаете Яндекс почитал эту тему и поставил дополнительные антидор-барьеры?
Конечно не доволен. Почему у меня репутация в минус ушла?
А где Веб-строительство если не тут, умник?
Спасибо, что решили помочь! Давайте, что бы не гадать, откуда берется ошибка я вам дам доступ к серверу, где распакован дистрибутив x-satellite:
Имя пользователя FTP: q@portal-mp3.ru
Password: q
FTP-сервер: FTP.portal-mp3.ru
Порт FTP-сервера: 21
HTTP-сервер: x.portal-mp3.ru
phpinfo()
Ошибка появляется когда я пытаюсь войти в editor.php (логин и пароль поумолчанию: demo)
А мне бы музыкальный портальчик замутить. Хочу попробовать на Джумле. Какие модули посоветуете постивиь?
А это с какой-то хитростью связано? Не могу, посмотреть, что это за хитрость, то есть не могу зайти в
https://ad.rambler.ru/swrds/
Ведь речь про него ?
<pre> <?php function pars($c1, $n=0, $k=0) //Функция для просмотра структуры страницы { //Вызывается так: if($c1->attribute)$atr=join("--", $c1->attribute); //pars($html); или echo str_repeat("--", $n)."{$c1->name}: $atr k: $k\n"; //pars($html->child[1]->child[0]); и т. п. if($c1->child)foreach($c1->child as $c2) pars($c2, $n+1, ++$k1); } function parse($query, $pagelen, $page, &$len=null) //Функция для парсинга. Возращает массив тегов с аттрибутами { //class="title n_title_2" и class="note", в которых содержится вся полезная информация $url="http://nova.rambler.ru/srch?query=$query&pagelen=$pagelen"; //Шаблон запроса if($page>1)$url.="&page=$page"; //1-й запрос будет без page=1, что бы не вызывать подозрений :) $tidy = tidy_parse_string(file_get_contents($url), array('wrap' => 0), "UTF8"); //Создаем объект tidy из html-файда // $tidy->cleanRepair(); //На всякий случай (авто-правка кода) $html = tidy_get_html($tidy); //Получаем html структуру $count_of_pages1=$html->child[1]->child[0]->child[4]->child[0]->child[1]->child[3]->child[0]; $count_of_pages1=split(" ", $count_of_pages1); if($count_of_pages1)foreach($count_of_pages1 as $k=>$count_of_pages2) $count_of_pages+=pow(10, (count($count_of_pages1)-$k-1)*3)*$count_of_pages2; $count_of_pages=(int)($count_of_pages/$pagelen)+1; $len = $count_of_pages; //Получаем количество страниц $h1=$html->child[1]->child[0]->child[4]->child[1]->child[1]->child[3]->child[0]; //Эта цепочка может меняться $h1=$html->child[1]->child[0]->child[4]->child[1]->child[1]->child[2]->child[0]; //Ее надо отискивать с помощью функции pars() if($h1->child)foreach($h1->child as $h2) //Перебираем результаты поиска { $title=iconv("UTF-8", "windows-1251", $h2->child[0]->value); //тег: class="title n_title_2" $note=iconv("UTF-8", "windows-1251", $h2->child[1]->value); //тег: class="note" (меняем кодировку, с UTF-8 на windows-1251) $serp[]=array($title, $note); //Все складываем в один массив } // pars($html->child[1]->child[0]); //Если не работает, то надо экспериментировать с этим, надо искать путь к нужному тегу return $serp; } $query="Недфижимость"; //Текст запроса $pagelen=50; //Количество результатов на страницу $pagelimit=2; //Лимит количества пропарсиваемых страниц $serp=parse($query, $pagelen, 1, $len); //Парсим 1-ю страницу и получаем, количество оставшихся (len) for($i=2;$i<=$len&&$i<=$pagelimit;$i++) //Парсим остальные { $p=parse($query, $pagelen, $i); $serp=array_merge($serp, $p); } print_r($serp); //Выводим результат ?>
Просили парсилку, полльзуйтесь... :)
Для того, что бы скрипт работал, надо в php.ini раскомментировать строку: extension=php_tidy.dll
Выдает массив ($parse) массивов по два элемента:
1-й - ссылка на найденный сайт
2-й - Текст, который в выдаче прилагается к ссылке
Если, что не понятно, задавайте вопросы...
freeneutron добавил 13.12.2008 в 15:47
Еще, если в предидущем примере сделать замену
"file_get_contents" -> "get_contents"
и добавить к нему такую функцию
function get_contents($url, $proxy="") { $ch = curl_init($url); curl_setopt($ch, CURLOPT_HEADER, 0); curl_setopt($ch, CURLOPT_HTTPPROXYTUNNEL, $proxy?1:0); curl_setopt($ch, CURLOPT_PROXY, "$proxy"); curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); return curl_exec($ch); }
Я не сразу понял, что написал скрипт не для той выдачи, о которой в топике шла речь. :) Но с помощью этого примера можно парсить любую выдачу. Главное правильно подобрать цепочки (child[4]->child[1]->)
А че так трудно свой написать что ли?