- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Какая есть прога, для выдергивание всех страниц по урлу?
Не сами страницы а адресс.
Элементарный скрипт, который собирает все, что находится между тегами <a...> и </a>
Уважаемый "Electronik" все сообщения на емаил и в личке игнорируете, я Вам заказывал скрипт по работе с текстовыми файлами, якобы он сделан, деньги получили сполна и наперед, но работу не выполнили, так как то что сделанно не понятно как работает, может и сделанно без скрипта, а просто вручную. Хотя утверждали, цитрирую "Пожалуйста, не волнуйтесь: я не жлоб и не живоглот. Всегда помогу, проконсультирую или сам переустановлю, если потребуется." Так что или возращайте деньги или заканчивайте работу.
Элементарный скрипт, который собирает все, что находится между тегами <a...> и </a>
Какая есть прога, для выдергивание всех страниц по урлу?
Не сами страницы а адресс.
Вы сайт хотите полностью выкачать? Тогда Teleport Pro - указываете урл, указываете что качать (html, картинки, звуки и т. д., либо по каким-то другим параметрам) и запускаете.
Вы сайт хотите полностью выкачать?
Неа, в первом посте ответ на ваш вопрос: :)
Не сами страницы, а адрес
sanitarn, как вариант для своего сайта: создать карту каким-нибудь сервисом и выдернуть урлы оттуда.
sanitarn, как вариант для своего сайта: создать карту каким-нибудь сервисом и выдернуть урлы оттуда
Спасибо напомнили, есть же СЕМОНИТОР
Какой уже есть "контингент", тут большенство таких. Результат работы выложен на сайт, только мы договаривались что эта работа будет выполнена при помощи скрипта, такой уверенности у меня нет, так как до сих пор с 3.02.08 не полученно инструкций. И от своих слов не отказываюсь, если это действительно выполненно скриптом, то меня вполне устраивает, только пришлите наконец инструкции, уж найдите немного времени отработать деньги до конца.
rwr, ну Вы, извиняюсь за выражение, и контингент!
Как это я работу не выполнил?
Полностью выполнил и Вы ее приняли с благодарностью и без замечаний!
Другое дело, что я описание скрипта еще не отдал - так, напишу и отдам. Никак времени не хватает...
У меня есть прога, которая извлекает из html-страницы все ссылки. Называется Url Detective.
У меня есть прога, которая извлекает из html-страницы все ссылки. Называется Url Detective
Блин причем здесь ссылки, мне нужны УРЛЫ всех внутренних страниц нннннн сайта