- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
И ещё вопрос. Как понял Пандора генерирует статические страницы, есть ли возможность как-то обновить эти страницы быстро без перегенерации? К примеру у меня будет кнопка BUY стоять с ссылкой на платник, и он перестанет работать, а дорвей ещё будет давать трафик. Есть возможность быстро поменять кнопку на всех страницах?
Это решается с помощью ТДС.
Это решается с помощью ТДС.
Действительно неудачный пример, тдску буду юзать в любом случае. А по парсингу не подскажите?
Как сократить количество файлов (кроме как сократить кеи и фото и т.д.) ? у хостинга ограничение в 300к файлов. Возможно ли использовать один файл php с большой базой данных (php+sql) ?
Дорген как понял работает в связке с A-Parser.
Нет, дорген работает без связки с апарсером сам по себе.
Он умеет подключаться к АПИ апарсера, но это совсем не обязательно.
1) Я указываю список сайтов допустим 100 штук
2) Парсер сам обирает все страницы каждого сайта, допустим у каждого сайта 1000 страниц, т.е. получаем 100 тыс страниц
3) Парсит контент со всех этих страниц и раскладывает по папкам с названиями сайтов. Текст каждой страницы ложится в отдельные текстовый файл.
Нет, программа работает от файла ключей или от папки с файлами()которые работают как ключи)
Как сократить количество файлов (кроме как сократить кеи и фото и т.д.) ? у хостинга ограничение в 300к файлов. Возможно ли использовать один файл php с большой базой данных (php+sql) ?
С некоторыми ограничениями это можно реализовать в виде юзермакроса. Напишите в ТП(тикет)
Как сократить количество файлов (кроме как сократить кеи и фото и т.д.) ? у хостинга ограничение в 300к файлов.
тут не файлы сокращать надо, а хостинг менять.
Нет, дорген работает без связки с апарсером сам по себе.
Он умеет подключаться к АПИ апарсера, но это совсем не обязательно.
Нет, программа работает от файла ключей или от папки с файлами()которые работают как ключи)
Понял мой вопрос наверн нужно было задавать на форуме A парсера а не тут.
Ап ContentBox 1.6
Оптимизация работы с капчами - сократился расход капчей
Отчеты о плохих капчах
Добавлена фича автобана проксей
Сейчас парсит 1000 ключей за 7 минут: Google+Yandex
Bing парсится меньше чем за минуту
Это снипеты. Если еще текст, то на сборку и чистку текста уходит еще минут 7..8.
На паблик проксях это. На приватных будет быстрее
--
Замерил:
Это полный парсинг текста+снипетов+тайтлов на паблик проксях двух ПС: яша и гоша
Привет, лицензионная Пандора 2.24, сделал 4 дора с отложенной публикацией на 80 тыс. страниц (50% сразу, 50% отложенная публикация доп. настройки включено только: Динамическая лента RSS и Пинговать ПС ). Соответственно delayeddump.php более 8 мб, сервер стал жрать проц и страницы стали периодически долго открываться. Вопрос: можно ли делить delayeddump.php также как sitemap через Tuning.txt(SitemapSplitSize – По сколько ссылок писать в часть sitemap при разбивке sitemap), или другим способом уменьшить нагрузку при использовании отложенной публикации.
SQLite режим для этого сделан
Ап ContentBox
1.7 - Релиз прокси чекера
1.6.2 - Доработка работы через https прокси
1.6.1 - Поправки интерфейса программы