- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Раньше я так тоже делал, но теперь хрефер рулит!
потри пожалуйста свой пост.
чем меньше людей его пользуют, тем дольше он будет работать.
потри пожалуйста свой пост.
чем меньше людей его пользуют, тем дольше он будет работать.
Если есть мозг, можно найти замену любому способу.
Если есть мозг, можно найти замену любому способу.
зачем изобретать велосипед, если пока что есть готовые способы решения?
зачем изобретать велосипед, если пока что есть готовые способы решения?
Чтобы развиватся дальше и иметь в запасе на экстренный случай...
Для парсинга понадобятся 2 программы:
1. Download Master (бесплатная).
2. Extract Link (скачать). Программа не требует установки, просто скачиваете и запускаете.
Допустим, нам нужна база блогов. Покажу на примере рейтинга блогов, как ее получить.
1. Прокручиваем страницу рейтинга вниз и копируем ссылку на последнюю страницу:
2. Открываем Download Master и добавляем группу закачек:
3. Вставляем скопированный урл последней страницы, заменяем «111» на «$» и говорим, что переменная должна меняться от 0 до 111, нажимаем ОК, потом еще раз:
4. Выбираем, куда сохранить html-файлы и начинаем закачку:
5. После того, как все html-страницы сохранились, нам нужно выдрать из них ссылки на блоги, для этого используем Extract Link. Нажимаем кнопку «New Search», выбираем папку с сохраненными html-страницами, на вкладке Option отметьте галочками «Remove duplicate results» и «Remove duplicate base», на вкладке Exclude/Exclude Text напишите построчно feedburner.com и blograte.ru, чтобы в базе было меньше ненужных урлов:
6. После парсинга html-страниц получим список урлов, встречающихся на сохраненных страницах. У меня получилось 3343 урлов вместо 3337 (6 ссылок на главной странице лишние). Результат сохраняете в txt или excel-файл:
Аналогично можно парсить выдачу поисковиков
Вот, пожалуйста, человек не пожалел время и выложил полезную инфу. И не пишет - потри, а то не дай Бог еще кто то спалит, не дай Бог кому то будет полезно.
Вот, пожалуйста, человек не пожалел время и выложил полезную инфу. И не пишет - потри, а то не дай Бог еще кто то спалит, не дай Бог кому то будет полезно.
бери пример
Да я то причем, я репу постами не набиваю.
Ну да, тебе больше нравится загаживать раздел. Я это уже понял.
Вот сам бы стал нарезать картинки и мануалы писать для не знакомого человека ?
Раньше писал что-то полезное. Сейчас просто уже не для кого. Из-за клонов и тонн флуда исходящих от них, из раздела давно все разбежались кто куда.
думаю телепорт про при правильной настройке сможет собрать с первых 20 сайтов все ссылки
ну а если нет, написать можно рублей за 100 (американских)