- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
1. Запустил сканер, после сканирования сайта, перешло на другой сайт и начало его сканировать, это фича!? (где отключить?
Не сканировать поддомены возможно.
Не сканировать поддомены возможно.
Да, оно. Спасибо.
Пару вопросов:
1. Запустил сканер, после сканирования сайта, перешло на другой сайт и начало его сканировать, это фича!? (где отключить?:)
2. На форум на сайте нужно отдельно регистрировать, сквозной регистрации на сайте нет!?
На первый уже ответили.
2. Да, регистрация раздельная, т.к. на форуме иногда регистрируются что бы просто задать вопрос.
Здравствуйте!
После обновления до версии 2.1.0 программа стала ооочень долго загружаться и работать. Попутно с ней, стал ооочень долго загружаться и сканировать Адвего Плагиатус (совпадение?). 12-и страничный сайт сканировался прогой 28 минут (!!!). Плагиатус проверял 2500 символов с пробелами ~36 минут (!!!). Устанавливал этот дистрибутив PageWeightSetup64RUS.exe
Как вылечил:
1. Удалил прогу и SQL Server как написано здесь: http://www.page-weight.ru/soft/page-weight/pw-desktop/install/
2. Переустановил прогу и SQL Server
3. Программа стала адекватно функционировать, Плагиатус тоже (совпадение?)
4. Не стал обновлять до версии 2.1.0 и сейчас все летает.
Параметры ноутбука:
Процессор: Intel Core i5-2430M CPU @ 2.40GHz и 2.40GHz
Память (ОЗУ): 8.00 ГБ
Винда: Windows 8, х64
Сейчас специально не хочу обновляться, потому что опять заглючит.
Вопрос: что делать?
Мне выгрузка внешних ссылок не нравится как сделана. Если к примеру на сайте сквозняк от блока поделиться. То строчек с ссылками будет масса, при том что будут вести на однии и теже страницы. И ещё сейчас - почему-то ссылаемая страница и акцептор в одной колонке находятся, надо бы их по разным разнести. И как-то групировать по общим акцепторам.
sky-master
Вряд ли это связано с обновлением. Кроме того, после выхода 2.1.0 у нас в разы сократились обращения в тех. поддержку.
Причин такого сбоя может быть великое множество. Может в определенный момент времени был сбой на канале, и банально медленно загружались страницы из интернета, может что-то с чем то конфликтует... Тут даже подсказать что-то сложно.
---------- Добавлено 07.02.2013 в 11:59 ----------
Мне выгрузка внешних ссылок не нравится как сделана. Если к примеру на сайте сквозняк от блока поделиться. То строчек с ссылками будет масса, при том что будут вести на однии и теже страницы.
Но акцепторы то разные.
И ещё сейчас - почему-то ссылаемая страница и акцептор в одной колонке находятся, надо бы их по разным разнести. И как-то групировать по общим акцепторам.
ок, посмотрим
Но акцепторы то разные.
Можно тогда хоть до домена как-то обрезеть список акцепторов, дубли убрать и вывести отдельным списков. И сразу будет ясно, есть что-то подозрительное или нет.
Можно тогда хоть до домена как-то обрезеть список акцепторов, дубли убрать и вывести отдельным списков. И сразу будет ясно, есть что-то подозрительное или нет.
Выше постом не правильно написал. Правильно так:
Доноры разные, а акцептор один и тот же (как в блоке поделится). В программе такие ссылки группируются и выводится общее количество.
в версии 2.1.0 не учитывает robots.txt при сканировании
в версии 2.1.0 не учитывает robots.txt при сканировании
Учитывает вроде. вот локальный не учитывает - указываю файл, нажимаю парсить - пишет укажите файл роботса. указываю снова, всё равно требует. Пришлось в исключения заносить.