- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
А вот еще косяк.
Игрался с импортом бэклинков и автоматическим поиском форм.
Попутно экспериметировал с поиском дупов.
В какой то момент прога рухнула с каким то рантаймом и предложением пожаловаться на это БГ. Перезапустил. Удалил из БД все каталоги.
Создал новый каталог и импортнул тот же сайт на котором все упало. Весь импорт попал в дупы. Упс... Причем после этого программа не может разорвать соединение с БД.
Вообщем так: любые каталоги которые когда либо были в базе и были впоследствии удалены, процедурой импорта всегда опознаются как дупы.
Кстати "Оптимизация БД" в меню сервис что делает? У меня такое ощущение, что ничего. Если делать что-то типа repair tables, то из файла должны физически чиститься удаленные записи, но они остаются на месте, да и размер файла не меняется.
Еще бага:
Когда запускается поиск страниц обновления, то не всегда работает вертикальный скроллбар. Страниц для проверки сотня, то есть он однозначно должен быть.
Еще нужно бы сделать таймаут для операций доступа к страницам.
А то висит пара активных потоков и хжет, пока там эксплорер прочухается со своими ошибками. Когда страниц для проверки тысячи, это сильно тормозит процесс проверки.
Поиск форм добавления пишет типа успешно найдено форм 17.
В каталоге же который проверялся, остается 26 записей.
Как это понимать?
С арифметикой как то плохо - всего например 104 каталога.
При этом в окне с процессами активных 2, успешно 9, не успешно 85.
Получается в сумме 96, а где еще 8 каталогов?
Вообще результат поиска форм добавления неадекватный. Апорт например игнорируется принципиально, простая страница со ссылкой вдруг программу удовлетворяет. Объясните пожалуйста как оно работает.
после последнего апдейта перестал работать импорт информации из xml в каталоге сайтов 😕
Обновление доступно для загрузки. Исправлено абсолютное большинство ошибок, о которых Вы нам поведали в последние дни.
Никаких новых функций не добавлено, только исправление ошибок. Интересная новая функция появится завтра!
Anton, огромное спасибо за такой перечень ошибок, мы исправили кажется все :) единственное - я так и не смог понять, что именно Вас не устроило в работе функции поиска страницы добавления...
Смысл этой функции следующий - предположим, Вы, через "импорт SERP'а", сняли все обратные ссылки некоего сайта в свою базу каталогов, далее, чтобы в ручную не искать страницы добавления, Вы можете поручить это программе. Естественно ее критерии выбора несколько примитивнее критериев выбора страницы опытного человека. Программа откроет страницу, которая в настоящее время установлена для каталога как "Страница добавления", переберет все ссылки на этой странице, проверив каждую из них на удовлетворение одному из регулярных выражений поиска страниц добавления (Файл-Параметры-Пользовательские PCRE) и если некая ссылка удовлетворяет хоть одному из регулярных выражений, то ее href будет назначен новым адресом страницы добавления. Естественно все несколько сложнее, например, прогромма проигнорирует ссылку, если она ведет на другой домен...
apigon, спасибо за ошибку, она тоже уже исправлена.
Anton, огромное спасибо за такой перечень ошибок, мы исправили кажется все :)
Пожалуйста, сейчас еще чего нибудь найду. :)
Пока осталась непонятка с дупами. При импорте беков в абсолютно пустую базу все сайты по прежнему считаются дупами. Я просто загрузил обновления, база осталась та же. Может с ней чего нибудь сделать нужно?
проверил трижды, поиск дубликатов должен работать нормально.... все удаленные ранее каталоги в поиске дубликатов не учавствуют. попробуйте провести поиск дублей, с переносом в какую-либо пустую папку, потом выберите папку "Все каталоги", поставьте галочку "Отображать содержимое вложенных папок" и посмотрите, в каких папках есть каталоги с одинаковыми доменами.
В поиске дублей каталогов естественно учитывается домен страницы добавления ссылки. т.е. если у Вас есть две записи о каталогах с разным значением в поле "Название" или "URL", но их адреса страницы добавления, расположенны на одном и том же домене, то эти записи будут считаться дублями.
проверил трижды, поиск дубликатов должен работать нормально.... все удаленные ранее каталоги в поиске дубликатов не учавствуют. попробуйте провести поиск дублей, с переносом в какую-либо пустую папку
Так как раз это то все работает как из ружья! Дупы ошибочно ловятся при импорте каталогов из беклинков. При импорте в пустую базу, если чекбокс "ловить дупы" отмечен, то все падает в дупы.