- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нужна какая-то программа, в которую вводишь список урлов, а она сохраняет из этих страниц все ссылки в txt файл, каждую ссылку с новой строки. Может есть уже готовое решение? Подскажите, кто знает...
Нужна какая-то программа, в которую вводишь список урлов, а она сохраняет из этих страниц все ссылки в txt файл, каждую ссылку с новой строки. Может есть уже готовое решение? Подскажите, кто знает...
на 5м php типа того
$urls=file("spisok.txt");
foreach($urls as $url)
{
$content=file_get_contents(trim($url));
$dom = new DOMDocument;
if ($dom->loadHTML($content))
{
$as = $dom->getElementsByTagName("a");
foreach ($as as $a)
{
$allurl.=$a->getAttribute('href')."\r\n";
}
}
}
$handle = fopen("endfile.txt", 'w');
fwrite($handle, $allurl);
Instructor, спасибо. Работает!
Только почему-то ошибки выдает. Или так и должно быть?
И еще - как быть в тех случаях, когда надо собрать неактивные ссылки на указанных страницах?
weblancer.net
free-lance.ru
А можно вот так... Ещё и ссылки в абсолютные преобразовав.
function correct_link($home_link,$link) {
if (!preg_match("#^http://#",$link)) {
$strip_link = preg_replace("#\?.*?$#","",$home_link);
$home_link = preg_replace("#^(.*/).*?$#","\\1",$home_link);
preg_match("#^(?:http://)?(.*?)/(.*)/?.*?$#",$home_link,$match);
if ($link{0} == "?") {
$link = $strip_link.$link;
}
$link = preg_replace("#/.*//#is","/","/".$match[2].$link);
$path = array();
$pathA = explode('/', $link);
if (!$pathA[0])
$path[] = '';
foreach ($pathA AS $key => $dir) {
if ($dir == '..') {
if (end($result) == '..') {
$path[] = '..';
} elseif (!array_pop($path)) {
$path[] = '..';
}
} elseif ($dir && $dir != '.') {
$path[] = $dir;
}
}
if (!end($pathA))
$result[] = '';
$path = implode('/', $path);
$link = "http://".$match[1].$path;
}
return $link;
}
$url = "http://jeck.ws/";
$page = file_get_contents($url);
preg_match_all("'<\s*a\s.*?href\s*=\s*([\"\'])?(?(1) (.*?)\\1 | ([^\s\>]+))'isx",$page,$links);
$links = $links[2];
foreach ($links as $n => $link) {
$links[$n] = correct_link($url,$link);
}
$links = array_values(array_unique($links));
Только почему-то ошибки выдает. Или так и должно быть?
Это не ошибки, это варнинги что html кривой.
И еще - как быть в тех случаях, когда надо собрать неактивные ссылки на указанных страницах?
Неактивные это какие?
это которые просто написаны, но не заключены в <a> </a>
это которые просто написаны, но не заключены в <a> </a>
По моему это называется УРЛ, а не ссылка. Если надо выбрать все урлы со страницы, то делается это еще проще.
По моему это называется УРЛ, а не ссылка. Если надо выбрать все урлы со страницы, то делается это еще проще.
ну вот мне кажеться ТС и нужно все Урлы сграбить со страницы.