Новая версия MassPageChecker 1.5
Изменения:
- добавлены отчеты в Excel (CSV);
- исправлено несколько мелких ошибок;
- автоматизированный прием платежей через WebMoney. Больше не нужно ждать ручной обработки платежа - ключ получаете сразу после оплаты.
Демо версия: http://altseotools.com/download/masspagechecker_setup.exe
Сайт программы: http://www.altseotools.com
Для зарегистрированных пользователей: скачайте обновление по той же ссылке, которую получили при регистрации.
Цена полной версии программы $19.99 или 499р, до нового года действует скидка 10%. Цены указаны без учета скидок.
Да. Но 0% не будет, если нет ни одной ссылкки, в выдаче которой есть только донор и акцептор. В общем-то тут уже все до меня рассказали...
Насчет уменьшения загрузки - тут по моему уже ничего не сделать, все работает достаточно быстро, еще не было жалоб на медленную работу программы. Главным фактором, определяющим скорость работы программы является качество досутпа в интернет, т.к. 99% времени программа ждет пока загрузятся страницы... Обработка данных проходит в общем-то моментально.
А что с многопоточностью? Многопочточность есть :) Или что-то с ней не так?
Новая версия MassPageChecker v1.4.1
- исправлена проверка индексации в Yandex
- исправлено определение наличия сайта в Яндекс.Каталоге
- определение рубрики сайта в Яндекс.Каталоге
Цена полной версии программы $19.99 или 499р, до нового года действует скидка 10%.
mustofik, спасибо за отзыв. Насчет непота - не думаю, что есть смысл делать более точные проценты, ведь сам метод определения не настолько точен.
Это ошибка, проверяется индексация сайта (т.е. главной страницы), об этой ошибке уже известно, и скоро будет исправление.
Ну может яндекс наложил на свой сайт непот или что-то вроде того для каких-нибудь определенных целей? Я не думаю, что было бы лучше, если в программе ввести список "белых" сайтов, для которых показывать 0% без проверки.
А сколько она должна показывать? Кстати где-то в теме уже про это спрашивали, но не помню к чему пришли.
Diplomat, спасибо за развернутый отзыв :)
Да никто не дурит, просто отчет "подробно по ссылкам" делался уже далеко после первой версии, а ручная проверка появилась вообще недавно. Я не стал копировать запрос из того места, где именно он делается (лень было искать), и написал по памяти.
Это будет в следующей версии.
Сначала над этим думали, но просто, некоторые сайты могут получить ненулевой процент за счет того, что например ссылка выпала из индекса, или еще что-то. Но если на сайте много "плохих" ссылок, то процент будет большим.
При получении любой страницы. Страницы с самого сайта, от яндекса, гугла и т.п. Мало ли какая проблема при получении страницы. Если получить страницу за указанный промежуток времени не получилось в отчете программа напишет read timeout.
Будет в следующих версиях как включаемая опция. Ведь это довольно ощутимо поднимет трафик.
Да, если железо не будет меняться по нескольку раз в день...
Внутренние проверять можно. Кол-во сайтов не ограничено. Насчет бана яндексом - тут точно сказать не могу. Чем больше сайтов проверяете, тем больше вероятность, что забанит.
Для избежания этого можно использовать прокси.
Да, программа примерно так и считает. В следующей версии алгоритм будет немного подкорректирован, будет более точно.
Да, ту программу посмотрю, как раз для следующей версии может пригодится пара идей :)
Ключи всем кто оплатил сейчас отправлю.
С поеданием пока ничего толкового пока не придумать. Можно конечно настроить на сервере сжимающий прокси, это позволит снизить кол-во трафика раз в 5, т.к. информация текстовая и очень хорошо пожмется. Но на своем сервере я этого делать не хочу, причин две - IP сервера будет быстро забанен яндексом (хотя можно использовать прокси - но тогда надо где-то брать списки и периодически обновлять), и есть ненулевая вероятность того, что сервер не справится с нагрузкой. Можете попробовать программы вроде traffic compressor (бесплатно) или globax (этот платный, но вроде недорого).
Интересная мысль. Может в следующих версиях что-то такое будет.
А почему?