- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
tco, не знаю, чрезмерно никогда не пинговал :) т.е. я всегда пингую по-честному - когда контент на сайте добавился/обновился, добавляем его сразу и в rss-ленту, плюс делаем это не чаще нескольких раз в день.
BRush v3.2.
Добавлено:
Вот решился закупить этот скрипт и потестить хорошенько. К концу недели думаю выложу расширенный отзыв. По крайней мере по виду и описанию он на голову превосходит старый аналог NO-LIMITS. Да и автор обновления и поддержку обещает бесплатную :)
Вот это новость! НоЛимит это скрипт моего друга. Не знал что Аналог Нолимита - ВРАШ, Зря я с Жекой не обсудил это. Дружба у нас бескорыстная. И если бы я знал, что автар БРАШа своровал идею, ни за что бы не купил
BRush v3.3:
Второй момент - я вообщем-то никак не собирался реагировать на эту заявку оставленную в сообщении выше, так как оправдываться перед каждым школьником считаю глупым занятием, но несколько потенциальных клиентов удивленно спросили - "а правда что тут пишут?", я отвечу - если кто-то знает хотя бы примерные аналоги BRush - покажите, я таких не знаю. Если кто-то когда-то догадался вставить в свой дорген парсер картинок с flickr - то я вообщем-то на новшество этой идеи и не претендовал :) Короче бред это все, не обращайте внимание.
Планирую покупку и пришлось осилить 14 страниц обсуждений.
Первое впечатление - для неопытного человека, не стоит лезть.
Второе охота побыстрее попробовать :) но опять же знаний маловато и лень , это ж столько надо освоить!!!
Буду думать, скидок я так понял под новый год можно дождаться только, но может какая другая акция, например кто купит сегодня или до 19.20.09 19 апреля 2009 г. тому 5 уникальных шаблонов, нч, или еще какие то завлекалки.
В принципе не скидки интересуют , заплатил бы больше если бы все готовенькое получил, указав только куда деньги должны капать, или в какие сроки окупиться, наверное как и все новички :)
____________
когда придумают какой нибудь seo инвест ?, вложил деньги и не думай про апы и т.д.- только деньги получай.
xodapi, с таким подходом - это вам в "МММ" :D или какие там сейчас современные аналоги?..
На самом деле даже для новичка все несложно, и многие новички именно с BRush стартовали и достигли результатов, потому что не нужно дёргаться из одной темы в другую - все проверенно, все работает, выбрано лучшие. С чего-то ведь все-равно нужно начинать. Но конечно желание работать тоже не помешает, под лежачий камень...
Несколько вопросов:
- Возможно ли самостоятельное написание и добавление плагинов для других партнерок?
- Открытый ли код? Это php+mysql или что-то другое?
- Есть ли возможность автоматической замены слов/словосочетаний внутри контента по заданному мэппингу (например, заменять слова на ссылки)?
- Существует ли возможность добавления в тело контента php-кода?
- Есль ли возможность подгружать-выгружать свои словари для синонимайзера?
- Есть ли возможность создания своих шаблонов?
- Подразумевает ли "Эффект разрастания сайта" автоматическое добавление контента на основе rss, новых картинок, статей, видео и пр.?
- Можно ли настроить пинг не автоматически, а по заданному расписанию (ибо как показал опыт, добавление сразу нескольких страниц, например из rss, чревато...)?
- Если цена подразумевает лицензию на один ip-адрес, то можно ли ещё поставить скрипт локально на своей машине для чернового создания и тестирования сайта?
Заранее благодарна.
Nata, спасибо за интерес к скрипту, ниже ответы.
Используя внутренние механизмы скрипта - нет, но можно подключить любой свой php код прямо в шаблон. Разговор про API велся, но как-то мало народу этим интересуется. Если партнерки интересные - можем добавить для всех.
Код закрытый, ибо привязка. php+mysql
Для этого можно использовать синонимайзер - эффект будет такой же.
Да
Свой словарь можно добавить, на счет "выгружать" - не очень понял, наверное ответ нет.
Да конечно, шаблоны на smarty, все интуитивно понятно - html код с вставками переменных.
Каждая страница BRush - это кейворд. Так вот "Эффект разрастания сайта" - это когда мы часть кейвордов/страниц "прячем" при запуске сайта, а потом добавляем в день определенное количество страниц.
У пингатора есть таймаут - время чаще которого пинг проходить не будет.
Кроме того пинг идет только тогда, когда новый контент добавляется/апдейтится на странице.
Если сможете настроить локальную машину так, чтобы ip адрес определялся как IP лицензии.
Короче говоря, лицензию на 127.0.0.1 я выдать не могу.
Большое спасибо за ответы.
Цитата:
- Подразумевает ли "Эффект разрастания сайта" автоматическое добавление контента на основе rss, новых картинок, статей, видео и пр.?
Каждая страница BRush - это кейворд. Так вот "Эффект разрастания сайта" - это когда мы часть кейвордов/страниц "прячем" при запуске сайта, а потом добавляем в день определенное количество страниц.
Правильно ли я понимаю, что тогда информация из всех-всех источников контента (статьи, различные rss-ленты, видео, картинки, реклама и пр.) по одному кейворду получается расположенной на одной странице? Большая тогда должна получиться страница однако...
А rss при этом считывается каждый раз свежий или он считывается единожды и затем хранится в базе? Можно ли указать, например, несколько источников для статей и rss? Если да, то на страницу будут выкладываться наиболее релевантные или как? И что будет в случаях, если rss содержит полный текст страницы и если только аннотацию? Или из rss берется только заголовок? Происходит ли агрегация разных rss-лент?
Т.е. как происходит отбор и отображение контента на странице? И происходит ли это динамически или разово и затем берется из базы? И на каком этапе происходит синонимизация?
Цитата:
- Если цена подразумевает лицензию на один ip-адрес, то можно ли ещё поставить скрипт локально на своей машине для чернового создания и тестирования сайта?
Если сможете настроить локальную машину так, чтобы ip адрес определялся как IP лицензии.
Короче говоря, лицензию на 127.0.0.1 я выдать не могу.
Т.е. при получении лицензии нужно сразу указывать ip-адрес? А если он потом поменяется (например при переезде на другой хостинг), то надо будет оплачивать по новой или перенос на другой ip как-то предусмотрен?
Сначала для понимания основная идея - мы берем понемногу контента с самых разных источников но по одной тематике (кейворду) и замешиваем это все на одной странице (Mashup - web application hybrid), считайте это секрет - почему такие сайты работают в поисковиках, и почему мы имеем много трафа на таких страницах. Я не предлогаю вам просто парсер RSS лент - это пустая трата времени!
Наверное, если включить сразу все плагины и поставить по многу результатов - то будет большая страница, но зачем это делать? :) Все настраивается в зависимости от того, какой конкретно сайты мы хотим получить (а сделать можно блог, магазин, новостной сайт, сайт с обзорами или совмещать разные виды... все ограничивается только вашей фантазией и умением делать шаблоны)
Для парсинга RSS есть отдельный плагинчик. Он просто берет RSS "как есть" и вставляет её на страницы сайта. Т.е. нужно чтобы в url присутствовал кейворд или поиск нужных постов производился вне скрипта, а в скрипт только передавались уже результаты. Пример RSS с результатами поиска по кейворду:
http://api.search.yahoo.com/WebSearchService/rss/webSearch.xml?appid=yahoosearchwebrss&query=ipod&adult_ok=1
Поиск статей происходит через запрос в поисковики по блогам или новостям и затем статья парсится с донора. Заметьте, что при этом статьи могут быть с самых разных источников, и нам не нужно задавать шаблоны для парсинга, как это обычно реализовано в обычных граберах.
Весь контент кэшируется на сервере, а затем берется из кэша или автоматически апдейтится на свежий, если истекло время жизни кэша, в соответствии с настройками для каждого из плагинов.
Указать IP (получить файл лицензии) можно когда угодно. Сменить IP можно два раза бесплатно, при наличии веских на то причин.