- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
могу дать скрипт который регуляркой со всех страниц в папке выдернит то что тебе нужно, а страницы можешь спарсить телепортом
а мне можно?? 🙄
а мне можно??
можно :)
кидай строки что собрать нужно, дам регулярку
<?php
set_time_limit(0);
$set = 2;//1 - заменить удалить, 2 - собрать
$out = "out";//папка с файлами
$reg1 = "#<a href=\"/(id[0-9]*)\">#U";//найти
$reg2 = "<a href=\"/$1.html\">";//на что заменить(если нужно)
$arr_file = scandir($out);
foreach($arr_file as $val){
if($val != "." and $val != ".."){
$str = file_get_contents("$out/$val");
if($set===1)
{
$str = preg_replace($reg1,$reg2,$str);
if(!file_exists("result")) mkdir("result");
file_put_contents("result/$val",$str);
}
if($set===2)
{
if(preg_match_all($reg1,$str,$arr_lines))
{
foreach($arr_lines[0] as $val2)
{
file_put_contents("result.txt",$val2."\r\n",FILE_APPEND);
}
}
}
}
}
?>
ps можно конечно и подпапки добавить, но имхо телепорт в одну всё умеет скидывать
}
}
}
}
}
?>
Эта пять... :)
Я вижу тут любят простые решения. Если xml-карта уже есть, то зачем предпринимать еще какие-то действия?
А вы легких путей не ищите?
Еще можно плагином ScrapBook от FireFox собрать все ссылки. 🙄
Dos3, вот если бы написали скрипт-паук, который облазит все страницы сайта в поисках внутренних ссылок, проверяет на наличие дублей и скидывает результат в файлик - цены бы вам не было ;)
Еще можно плагином ScrapBook от FireFox собрать все ссылки
Неа, не сделаешь это скрэпбуком (при всём уважении к вам...:))
Неа, не сделаешь это скрэпбуком (при всём уважении к вам...:))
Да вы правы, много гемороя. Но если сильно захотеть то можно выпарсить весь сайт или подождать пока плагин соберет все ссылки и поставить на паузу, а затем пройти по адресу:
C:\Users\username\AppData\Roaming\Mozilla\Firefox\Profiles\username.default\ScrapBook\data\последняя созданная папка
найти файл sb-file2url.txt
и получить ссылки, правда там мусору куча еще...
Тему закрыть можно, купил прогу Content Downloader II - она сразу все сделала..
А вы легких путей не ищите?
А я мало сплю. Из-за этого иногда нахожу в сообщениях то, чего автор не писал и пишу глупости. Исправлюсь когда-нибудь.
Вот так ключики друг у друга и тырим))