SeWork

SeWork
Рейтинг
133
Регистрация
14.10.2007
o_john:
Ну эт мы знаем. В том-то и проблема, что на парсинг выдачи для 700 ключевиков уходит очень много времени. При неработающем Я.XML достойным выходом стал бы мультипрокси. Когда же можно ждать? :)

Осенью, причем мульти прокси будет как для обычной выдачи, так и для XML с автоматической регой IP по цепочке, тее на каждую прокси по 1000 запросов.

Есть такая проблема, 90% ссылок уходят в эрор.

Я в этом сомневаюсь...У многих людей кредо - зачем платить, когда можно нахаляву скачать.

Не буду спорить, тем более я уже привел пример что это не так. Хотя не трудно просто посчитать сопоставив пару величин:

1) Потеря прибыли из-за жесткой политики безопасности скрипта.

2) Потеря прибыли из-за выполнения кода на стороннем сервере, когда данные могут передаваться третим лицам.

3) Потеря прибыли из-за распространения скрипта, процент тех людей которые не купили бы в любом случае в соотношении к тем людям, которые купили бы если не будет нула ("У многих людей кредо - зачем платить, когда можно нахаляву скачать.")

4) Прибавка к прибыли, если скрипт будет прозрачный.

5) Возможное увеличение прибыли из-за принятых мер против несанкционированного распространения продукта.

Также фактор наличия 2-х конкурентов с идентичным продуктами (это те, которые нашел быстро навскидку); одному не хватает чуток функционала до вашего уровня, а второй хоть и с весьма скудным функционалом, но бесплатный.

Очень жаль, что столь долгие ожидания, так и не оправдались, придется как всегда заказывать написание скрипта для себя :(

В любом случае желаю вам удачи, и побольше продаж, как никак у вас пока лучший продукт из всех, что сейчас доступны в сео-софте.

Все-таки зря вы ввели ограничение на 1 IP. Берите пример с Тормоза, уже вроде скрипту больше года, а так нигде в паблике и не появился. Тем более у вас скрипт не спамилка, не парсер чтобы его нулили, софт из разряда "не критичный", тее без которого вполне можно обойтись, единственно приносит некое эстетическое удовлетворение и наглядность для данных. Даже и выйдя скрипт в паблик, это не критично по двум простым причинам:

1) Массовое распространение ни коим образом не навредит и не затронет интересы тех людей, который купили скрипт.

2) Утверждение разработчиков: что "чем больше защиты есть в софте, и чем жестче меры пресечения несанкционированного распространения софта, тем большую прибыль можно извлечь" в корне не верно.

Те люди, которы вместо того чтобы купить ваш скрипт пользуются его нулеными версиями, не будь нуленной версии всеравно бы не купили данный продукт.

Хостерам я не сильно доверяю такие данные, поэтому предпочитаю держать подобные списки у себя на компьютере, а так как IP у меня динамический, думаю как и большинства, то боюсь вашим покупателем не стану.

o_john:
Планируется ли поддержка мультипрокси или, хотя-бы, яндекс xml? А самое главное, как скоро планируется введение данного функционала? А то уже даже не знаю какие таймауты яндексу ставить при проверке 700 НЧ.

Яндекс XML давно есть, точнее с 13.01.09. Просто как Яндекс ввел регионы, через XML выводились не верные данные, поэтому решили пока все не образуется, вовсе убрать эту опцию.

а вот обсудить нужность и функционал той или иной новой фичи с покупателями - было бы разумным.

Новые функции, это и есть на 20% часть пожеланий покупателей, взятые и с этой ветки, и с писем которые приходят нам на e-mail и с ICQ. Остальные 80% полностью новый функционал.

alekzey:
А Google Analytics будете поддерживать?
А то куча сайтов с GA но без LI.

Еще не дошли до этого, хотя если там можно через АПИ обойтись банальным парсером который пишется два\три дня, то включим этот функционал в версию Pro ☝

apple_rom:
В ливинете появилась "Таблица ведущих поисковых запросов" (пункт меню "доля поиск. трафика", путь - /search_share.html). Данные (при снятии параметров "за 7 дней") отличаются, в некоторых случаях значительно. Вопрос - почему?
Предположу, потому что ливинет считает все переходы, а в трафиквебе - только уникальные? Или влияет "глубина поиска" (ставлю обычно "первые 300 ключевых слов")?

Программа парсит данные из экспресс-аудита http://www.liveinternet.ru/stat/liveinternet.ru/24hours.html?popup=on&gosearchsystem=1&searchsystemname=yandex.

SeWork добавил 03.08.2009 в 10:19

Вышло обновление программа, пофиксены проблемы с определением позиций.

Скачать

SeWork добавил 03.08.2009 в 10:42

_________________________________________________________________

Также сообщаю что осенью будет разделение программы на две версии, Базовую и версию Pro.

Цена на Pro будет в районе 80$. Функционал программы увеличится как минимум в 5-6 раз. Подробности пока разглашать не буду (скажу только что подобных функций еще нет ни в одной сео программе)

Всем покупателям обновления до версии Pro бесплатны.

n1g3r:
Цена вопроса?

С подобными фрилансерами, задающие такой вопрос, я сразу отказываюсь работать. Ибо в основном такие люди пытаются сдереть как можно больше денег, даже по самой мелочи, которая занимает одну строчку кода или пару кликов, просто напросто разводят по максимуму. 🙅

Чпу - Тип 2 ссылки на полную новость будут иметь вид http://site.ru/категория/подкатегория/id-имя новости.html

Но когда восстанавливаю с дампа полная новость имеет вот такой вид http://site.ru//категория/подкатегория/id-имя новости.html
Ведете в чём проблема?

Просто очистите кеш после отката дампа. (site.ru/admin.php - кнопка "Очистить кеш"),

Liveinternet тоже не хватает, только не счетчика картинкой, а немного по другому (отписал в ПМ код) и разумеется кеширование с возможностью обновления, чтобы каждый раз не дергать параметр.

Если не знаете в чем ошибка, то проще разложить базу на части, отдельные дампы пост, категории, юзер, и по отдельности их откатывать на ту версию DLE, на которой делалась база. А уж потом апргрейдить до нужной версии. Или самому нужные колонки добавить выполнив запрос в mySQL.

Всего: 1173