Программа для массовго сбора Title сайтов

zver777
На сайте с 18.02.2009
Offline
36
2318

Видел темы на форумах где люди искали программу для сбора title.

Сделал на досуге.

http://file.qip.ru/file/128157390/c5bd8fad/title_.html

Весь мой паблик софт (http://zver777.ru/)
pssoft
На сайте с 12.04.2010
Offline
37
#1

Спасибо не плохая консольная програмка на делфи. Но я думаю она не очень практичная. Лучше залить скрипт на хост, запустить сборщик там, чем парсить со своего компьютера. Вот моя реализация на php:

<?php

$urls = fopen ("urls.txt", "r");
while (!feof ($urls))
{
$url = trim (fgets ($urls));
$content = file_get_contents ($urls);
if (preg_match("!<title>(.*?)<\/title>!si", $content, $title))
{
file_put_contents ("titles.txt", $url." ".$title [1]."\r\n", FILE_APPEND);
}
}
fclose ($urls);
?>

Перед запуском нужно пропсать урлы в файл urls.txt. Результаты скрипт ложит в titles.txt.

Интернет магазин активированных по смс аккаунтов (http://www.accs4sale.ru/) Вконтакте / Одноклассники / Loveplanet / Mamba / Gmail / Yandex и пр.
[Удален]
#2

zver777, сделай сайтик, где все проги аккурат сложи. А то блин бегай по форуму твои софтинки выискивай ;-)

Ps: спасибо обоим

TAFF
На сайте с 28.08.2008
Offline
140
#3

zver777, Собирает только тайтл главной, или бегает по урлам и собирает все тайтлы?

✓ Администрирование (/ru/forum/494299) | ✓ Домены (/ru/forum/298049) | ✓ Продажа аккаунтов narod.ru (/ru/forum/585347)
zver777
На сайте с 18.02.2009
Offline
36
#4

Собирает той страницы, урл которой дадите.

O
На сайте с 08.11.2008
Offline
45
#5
pssoft:
Спасибо не плохая консольная програмка на делфи. Но я думаю она не очень практичная. Лучше залить скрипт на хост, запустить сборщик там, чем парсить со своего компьютера. Вот моя реализация на php:

<?php

$urls = fopen ("urls.txt", "r");
while (!feof ($urls))
{
$url = trim (fgets ($urls));
$content = file_get_contents ($urls);
if (preg_match("!<title>(.*?)<\/title>!si", $content, $title))
{
file_put_contents ("titles.txt", $url." ".$title [1]."\r\n", FILE_APPEND);
}
}
fclose ($urls);
?>

Перед запуском нужно пропсать урлы в файл urls.txt. Результаты скрипт ложит в titles.txt.

Да, чтож такое:

Warning: file_get_contents() expects parameter 1 to be string, resource given in
Магазин аккаунтов с балансом Litres,DNS,Ozon,Rotapost и еще 50+ других сервисов тут - vk.cc/7QK0Sk
pssoft
На сайте с 12.04.2010
Offline
37
#6

Прошу прощения писал на коленке :)

file_get_contents ($urls); за менить на file_get_contents ($url);
Grohman
На сайте с 23.05.2009
Offline
14
#7

file_get_contents() работает довольно медленно, лучше использовать curl

Bazzinga! (http://bazzinga.org) - новый бесплатный сервис уникализации текстов. Подробности тут ().
pssoft
На сайте с 12.04.2010
Offline
37
#8
Grohman:
file_get_contents() работает довольно медленно, лучше использовать curl

<?php

$urls = fopen ("urls.txt", "r");
while (!feof ($urls))
{
$url = trim (fgets ($urls));

$c = curl_init ();
curl_setopt ($c, CURLOPT_HEADER, 0);
curl_setopt ($c, CURLOPT_RETURNTRANSFER, 1);
curl_setopt ($c, CURLOPT_FOLLOWLOCATION, 1);
curl_setopt ($c, CURLOPT_URL, $url);
$content = curl_exec ($c);
curl_close ($c);

if (preg_match("!<title>(.*?)<\/title>!si", $content, $title))
{
file_put_contents ("titles.txt", $url." ".$title [1]."\r\n", FILE_APPEND);
}
}
fclose ($urls);
?>

Вот реализация с использованием curl'a :)

D
На сайте с 09.04.2009
Offline
75
#9
Вечные ссылки (http://www.gogetlinks.net/?inv=k9a4pk) | VPS за 8.99 € - 4 ядра, 12 память, 300гиг SSD -Германия (https://goo.gl/9ZgvyP)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий