По поводу тормоза движка, связано с обсчетом статистики для каждого УВ страниц. Ищем решения и обязательно найдем в ближайшее время.
По поводу "не хочет заниматься", факты несколько в иную сторону - за последний месяц мы ввели ежемесячное пересканирование параметров страниц, теперь фокусы с снятием ссылок, добавлением сайта и возвратом ссылок не пройдут, это раз, GAP/YAP будет более точным, это два. Что касается глюков с плагином проверки - я отписал в соответствующей ветке о том, что обновим и пофиксим глюки со скоростью. :)
На минуточку. Месяц назад мы запустили механизм который перепроверяет YAP/GAP страниц автоматически раз в месяц, что позволяет иметь относительно свежие данные.
По поводу YAL - Malcolm, спасибо. Я посмотрю что там не срастается по скорости.
Сайт, где определяется неверное кол-во ВС можно в личку пожалуйста. С тех пор как мы достаточно давно поправили первоначальный алгоритм все было верно.
Спасибо провайдеру за "перебои с питанием". :(
Работаем над устранением последствий. Все данные в сохранности.
Отписали в трекере.
Проблем может быть несколько:
1) В момент прихода бота страница не отдалась вовремя либо же не отдалась вообще.
2) хостер забанил ip
3) ссылка в noindex.
Подозреваю, что в Вашем случае что-либо из первых двух вариантов. Напишите в личку логин. Разберемся.
error'ы, к сожалению неотъемлимое зло любого процесса, связанного с проверками. Нам они точно так же невыгодны как и Вам и мы стремимся свести к нулю с разной степенью успешности для различных хостеров. Чаще всего они бывают связаны с ограничениями самих хостеров на недорогих тарифных планах - когда бот обращается к сайту одновременно к более чем N страницам хостеры типа majordomo или Домишко на самых дешевых тарифных планах просто блокируют запросы. Мы ищем пути для выхода из ситуации - самый простой из них "запрашивать не более 1 страницы с сайта" ведет к тому что к сайту в день будет ограниченное число запросов и возможно не все страницы успеют провериться.
Мы нашли и исправили это узкое место. теперь соединения до БД - широкая магистраль.
Ответили, разобрались.
Для всевозможных SEF модулей джумлы требуется использовать инициализацию вида
if(!defined("UNIPLACE_INITIATED")) { global $up; define("UNIPLACE_URI",getenv('REQUEST_URI')); define( "UNIPLACE_SID", "ВАШКОД"); include $_SERVER['DOCUMENT_ROOT']."/".UNIPLACE_SID."/uniclient.php"; $up=new uniplace(); }
Мы ответили Вам в тикете про джумлу. На всякий случай продублируем здесь, раз это вызывает легкий резонанс обсуждения - если у Вас 1.0.x и включен модуль SEF то необходимо прописать define("UNIPLACE_ADVANCED_REWRITE",true);
чтобы модуль защиты ссылок UniSafety понял адрес страницы, сформированный именно SEF и взял его из REQUEST_URI а не из внутреннего подзапроса.
Все уже есть в клиенте, не надо ничего перенастраивать. Нужно лишь указать правильные параметры. Надеюсь, этот ответ поможет подключить и тот сайт про который мы говорим, и аналогичные из Вашей коллекции. :) Если нет - перемещаемся в тикеты, тут малость другие темы обсуждаются.
И да, спасибо за проявленное терпение на выходных - сотрудники тоже люди :)