Без БД можно. информацию хранить в файлах.
насчет различной информации на сайтах.
Можно сделать так:
Есть новостной сайт, на нем публикуется по 15 новостей в день.
Вам надо сделать 10 сайта с различными новостями.
Вы выкладываете на каждый сайт мой скрипт, и в нем указываете ID сайта.
Мой скрипт будет собирать разные новости для каждого ID
к примеру для сайта с ID 1 он будет сохранять 1-вую новость, для ID 2 - вторую итд.
В итоге у вас получиться - один скрипт который будет собирать разный контент для разных сайтов.
Насчет установки скрипта. Сам парсер - скрипт который собирает данные и сохраняет их в БД ( или текстовый файл ) не требует каких-то установок и настроек. его достаточно положить на ваш хостинг и запускать периодически ( можно автоматизировать запуск через CRON или привязать к посетителям сайта )
Но модуль отображения новостей, должен быть настроен под каждый сайт, дизайн, структура URL итд..
Если у Вас свой движок отображения новостей, то тогда мои скрипты никаких настроек не потребуют. достаточно их выложить на хостинг и все.
Я согласен с тем, что с 1пс идет 70% спама, но не думаю что этот макрос сильно повлияет на ситуацию.
В качестве компенсации (за причиненный "ущерб" всем обладателям каталогов) могу предложить скрипт, который будет анализировать информацию о регистрируемых сайтах и стараться не пропускать СПАМ регистрации, а пропускать только сайты с человеческим описанием, правильной категорией итд.
на это у меня не ушла вся ночь. было достаточно 10 минут подправить координаты на новый дизайн. А эту ночь, мне было что делать, если Вы не спали из-за того, что ждали меня, Прошу прощения. Не было возможности, и это никак не связано с 1ПС.
А что на 1ПС можно контролировать руками? Нажатие кнопки "ОТПРАВИТЬ"
Если грамотно составить описание, выбрать нужные категории то тогда этот скрипт только сэкономит время, которое Вы бы потратили на кликанье по кнопочкам.
Точно также можно ругать AllSubmitter с его возможностью авторегистрации.
П.С, без этого скрипта 1ПС лучше не станет. (ИМХО)
кстати, можно с помощью этой программы написать скрипт, который будет кликать по кнопкам из в 10 открытых окошках. и получиться что он автоматически будет прогонять по всей базе 1пс одновременно 10 сайтов. Я такое не делал, так как скорость моего инета такое не позволит :(
Я как-то тоже руками делал. :( Ухожило на это пару часов беспрерывного кликанья.
Потом плюнул и улучшил себе, и вам, жизнь :)
Спасибо за отзыв.
Стараюсь.
Напомню, что делаю любые скрипты под заказ, срок работы очень быстрый.
например:
сделать скрипт который соберет всю базу новостей ( статей ) с сайта который вы выбрали, и также запустить все на сбор данных составляет ~ 3 часа.
делаю срикпты такого плана:
- сбор информации с других сайтов
- сбор всей базы
- постоянное обновление свежих статей/новостей
- сбор товаров в вашу БД с интернет магазинов
- вся база, обновления
- Сбор сайтов из каталогов
итд..
Возможно создание любых скриптов, от опроса до порталов, пишите - договоримся.
mailto:victor@gsub.kiev.ua
Или в аську: 406-326-733
Обычно я в онлайне после 19:00
Витя.
яДирект никак не блок ссылок, хотя-бы потому, что ШТМЛ код ссылок яДиректа вызываеться яваскриптом, и соответственно не будет учтен поисковыми роботами.
А вообще-то я видел на одном сайте такой подход. Вместе я директом был блок 1в1 как директ но постоянных ссылок :)
Спасибо за отзывы.
Стараюсь :)
Возможно создание любого скрипта, пишите - договоримся.
victor@gsub.kiev.ua
я в онлайне после 19:00
в личку отписал.
теперь тут напишу.
скрипт для сбора новостей с двух сайтов стоит 20$
(такой как на gsub.kiev.ua/news/)
дополнительные сайты +5$
если сложный html для парсинга то будет немного дороже.
Ну давай подумаем.
если на всех сайта стоит одинаковый скрипт, который будет собирать инфу с одинаковых сайтов ТО контент будет одинаковый. но можно изменить период сбора контента, тогда инфа на сайтах будет разная. пример работы моего автоконтента для новостей можно посмотреть тут.
так же можно сделать сбор с разных сайтов. тогда, соответственно, контент будет разный.
http://www.gsub.kiev.ua/news/