- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
У меня есть список урлов сайта.
Мне нужно: вывести титлы ко всем этим урлам.
Подскажите скрипт или программу.
видимо нужно к урологу обратиться
А от куда вобще берутся страницы?
И как вы их формируете?
Чистый HTML или CMS какая то недоделанная?
видимо нужно к урологу обратиться
А от куда вобще берутся страницы?
И как вы их формируете?
Чистый HTML или CMS какая то недоделанная?
Очепятка вышла )
Страницы берутся с карты сайта. Чистый нтмл, тость сами урлы вида: site.ru/test.html
стандартным методом
text.html
Или это не подходит?
стандартным методом
text.html
Или это не подходит?
Не подходит, потому что урлов много, вручную на это дело уйдут годы )
Не подходит, потому что урлов много, вручную на это дело уйдут годы )
а у вас по другому не получится, т.е. даже если на php написать скрипт для титлов (что уже попахивает бредятиной :)) вам все равно придется править все файлы что бы вставить в них написанный код, к тому же нужно будет менять разрешения файлов с .html на .php (желательно) и в .htaccess уже заменять разрешение на html (чтобы урлы не менялись)
не совсем понятна поставленная задача, если нужно получить титлы с определенного Урл с сайтмапа сайта:
попробуй Content Downloader там по шаблону можно отпарсить прямо с сайтмапа.
не совсем понятна поставленная задача, если нужно получить титлы с определенного Урл с сайтмапа сайта:
попробуй Content Downloader там по шаблону можно отпарсить прямо с сайтмапа.
Допустим есть 10000 урлов вида:
http://site.ru/test.html
http://site.ru/test1.html
http://site.ru/test2.html
...
http://site.ru/test10000.html
На выходе надо получить 10000 титлов с каждой страницы:
Тест 1
Тест 2
Тест 3
...
Тест 10000
Чем это лучше сделать?
Content Downloader сделает на ура, в настройках указать что получать титл и сохранять весь результат в один файл.
в нете можно найти ломаную старую версию.
я его когда увидел сам офигел стоко кнопок и тд... но через 1 час он уже делал то че мне нужно было.
Content Downloader сделает на ура, в настройках указать что получать титл и сохранять весь результат в один файл.
в нете можно найти ломаную старую версию.
я его когда увидел сам офигел стоко кнопок и тд... но через 1 час он уже делал то че мне нужно было.
Спасибо, разобрался быстро.