Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
zortexx:
Хочу добавить, что как таковой сервис был бы интересен в связке с десктопным анализатором/модулятором веса страниц. Если есть большой онлайн проект, который сервис будет сканировать в 1000 потоков экономя мое время на сканирование, то обрабатывать данные и моделировать веса было бы удобнее в заточенной для этого декстопной софтине, а не в том же экселе.

Во первых в 1000 потоков сервис (и любой десктоп) парсить не будет - у Вас просто сайт ляжет под нагрузкой.

Во вторых рассчитать большой сайт на домашнем компе не так уж быстро, как представляется. Для примера: сайт с 200К страниц и 72млн. ссылок сервер обрабатывает за 8 часов (парсинг занял около суток). Если у честь, что у большинства пользователей комп (а чаще ноутбук) среднего уровня, то это время может увеличится до суток и более.

Т.е. пользователь не сможет выключить копм, не сможет еще что-то на нем делать, т.к. программа расчета и анализа сожрет все ресурсы, и т.д. и т.п.

nickicool:
Добавлю свои 5коп в пользу десктопа - ни один онлайн не сможет спарсить мою локалку, которую мне проще локально доводить до ума, убирая баги, чем вывалить в инет сырой сайт и потом еще париться с чисткой индекса от хлама ))

Да, это железный аргумент.

Добавили принудительный выбор основного зеркала.

sanitarn:
Помоему пользователи это уже больше года слышат, при этом выпускаете онлайн версию сырую, в которой нет, того, что просили доработать в софте, как еще народ верит не пойму вашим обещаниям.

Народ не обещаниям верит, а рекомендациям тех, кто давно и успешно использует программу.

Свои пять копеек про десктоп хочу вставить...

Десктоп будет, хотя бы просто потому, что мы его обещали. Он будет не смотря на то, что его разработка врядли окупится. Он будет не смотря на то, что его использование (заглядывая малость вперед) будет не настолько целесообразна, как использование сервиса. Он будет не смотря ни на что. Это дело принципа.

По поводу того, что дескоп лучше он-лайн сервиса. Это не так.

Скорость - 100Мгб канал лучше любого домашнего интернета, да и стабильнее.

Та скорость, с которой парсеры работают сейчас - оптимальная. Мы можем и 1000 потоков на сайт натравить, но в лучшем случае нас отобьет сервер, в худшем - ляжет ваш сайт. Аналогично и с дэсктопом. Есть определенный предел, выше которого скорость не поднять. Иначе посыпятся ошибки, отбои и баны серверов и т.д. Так что высокая скорость парсинга - скорее иллюзия.

Потом парсинг нескольких сайтов одновременно. У сервиса рабочих потоков много, и количество сайтов в работе ни как не влияет на скорость сканирования каждого сайта в отдельности. С дэсктопом особо не разгуляешся.

далее.. все хорошо и красиво на сайтах объемом до 5К страниц (для дэсктопа). На бОльших объемах уже начинаются "веселые картинки". В том смысле, что вытянуть и рассчитать можно, но вот дальше то что? Ну посмотрели веса, посмотрели ссылки.. и? На больших объемах руками работать не реально. Нужна автоматизация, и автоматизация серьезная, а не полурандомная расстановка ссылок. Разработка автоматизации дешевой быть не может, и единственный выход окупить и заработать - предоставить её в виде сервиса.

Но и автоматизация сама по себе мало даст. Для эффективной работы нужна аналитика. А начало любой аналититки - это достаточные объемы данных для анализа. А эти объемы, в свою очередь, может дать только сервис.

Для примера: наша база на данный момент занимает 283 гига. И это только за период тестирования набралось. И это при том, что несколько раз базу нулили. И поверьте, это ничто. Это даже не капля, это молекула в море...

Вот... извините за многабукафф, но как-то наболело уже...

А дэсктоп будет.. просто потому, что обещали :)

ЕнштеЙн:
пасиб ;) посморю с удовольствием что нового в вашей проге

Там еще и сервис новый Page Weight Online Специально для больших и очень больших сайтов.

igor-008:
Не осилю 44 страницы "обсасать" как Вы выразились. Укажите хотябы примерно страницы

Как скрыть ссылку от поисковиков. Раз ссыль, два ссыль

Однако, прежде чем что-то делать, настоятельно рекомендую разобраться в статье: http://digits.ru/articles/promotion/pagerank.html

при чем именно разобраться, понять принцип. А то можете навредить себе неправильной перелинковкой.

Дмитрий, с Янусом в цене не сошлись? ...

-------------------------------------------------

Сегодня ночью переезжали на новый сервер. Так что если у кого-то сайт не открывался, то сейчас уже должно все работать.

Подходит к завершению тестирование.

Выражаем огромную благодарность всем, кто помогал обнаружить и исправить ошибки.

В ближайшее время все ограничения будут сняты и сервис перейдет на платную основу.

Сейчас выложили тарифы и калькулятор расчета. Т.е. вы можете прикинуть, сколько будет стоить скан и расчет вашего сайта(ов).

Тарифы гибкие и зависят от объема страниц сайта.

Например скан и расчет сайта объемом в 5.000 страниц обойдется в 50 руб., а объемом в 50.000 - 240 руб.

Тарифы и калькулятор доступны в личном кабинете.

Dmitriii33

Желающих нет, т.к. нет ТЗ. "Согласно программе" - это, вобщем то, ни о чем. Вам нужно составить список продвигаемых страниц, список соответствующих ключей с ним, и заказать настроить перелинковку так, что бы на них был сосредоточен максимальный вес.

---------- Добавлено 23.03.2012 в 12:46 ----------

nickicool:
...То что софт существует не означает, что он дает ТАКОЙ результат. К тому же, перелинковка сейчас и года два назад - разный результат, а программа появилась давно. ....

Дает и ТАКОЙ результат тоже :) Но ТОП зависит не только от перелинковки, но и от множества других факторов.

Программа появилась давно, а алгоритм PR еще давнее :) Однако все прекрасно работает до сих пор.

Всего: 2038