- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Подскажите, почему основная масса страниц с сайта сканируется с ошибкой 503 Service Unavailable (примерно 90% от всех страниц сайта)?
Да, страницы, естественно, доступны и отдаются с 200 ОК
Upd.: еще и тайтлы всех страниц кракозябрами написаны, хотя при сканировании пишет что кодировка определена. Человеки, подскажите, пожалуйста, как это чудо-прогу готовить?
503 ошибка, это когда сервер не успевает отвечать на запросы. Сократите количество потоков и увеличьте паузу между запросами.
Если кодировка не читается, установите её вручную.
503 ошибка, это когда сервер не успевает отвечать на запросы. Сократите количество потоков и увеличьте паузу между запросами.
Если кодировка не читается, установите её вручную.
Да, я именно так и додумался поступить уже :) вроде зажужалло...тьфу..тьфу
---------- Добавлено 26.03.2014 в 22:39 ----------
Еще вопрос: на сайте было 600 страниц, смотрю он уже за 1100-ю перевалил. Почему сканер начинает прибавлять самовольно к URI-адресу страницы /login/, потом /login/login/ и т.п.? У меня таких адресов не было.
Да, я именно так и додумался поступить уже :) вроде зажужалло...тьфу..тьфу
---------- Добавлено 26.03.2014 в 22:39 ----------
Еще вопрос: на сайте было 600 страниц, смотрю он уже за 1100-ю перевалил. Почему сканер начинает прибавлять самовольно к URI-адресу страницы /login/, потом /login/login/ и т.п.? У меня таких адресов не было.
Это архитектурная ошибка на Вашем сайте. А точнее, неверно оформленные ссылки.
Например, URI /login/ считается каталогом, если отсканироваь его и найти ссылку: href="login/" то абсолютный URL будет /login/login/ и так далее.
Исправьте ссылки и всё будет хорошо.
exp131, понял, спасибо!
Sterh, а когда будет возможность в 2.0, отсканировать сайт закрытый на логин и пароль. Собирались же такое сделать, ещё зимой.
Sterh, а когда будет возможность в 2.0, отсканировать сайт закрытый на логин и пароль. Собирались же такое сделать, ещё зимой.
Наверное уже в третей версии сделаем. Кстати, в ближайшее время выложим её на публичный тест. Тестовая версия 3.х будет доступна всем обладателям второй версии.
Всем привет.
Доступно обновление версии 2.3.1
Исправлены некоторые недочёты в обработке robots.txt, в частности пустого оператора Disallow. Приведены в порядок сообщения об ошибках.
Как обычно доступно автоматическое обновление или можно скачать новые дистрибутивы.
В связи с найденым багом в сканере, выкладывем экспресс обновление 2.3.2, доступно только в виде автоматического обновления при старте программы.
В ближайшее время будет ещё одно обновление, уже полноценное.
Всем, кто получал ошибки при сканировании - рекомендую обновиться сейчас.
---------- Добавлено 02.04.2014 в 10:03 ----------
Дополнительно.
Со вчерашнего обновления антивирус Касперского, с какого-то перепугу стал определять в исполняемом файле нашей программы троян: HEUR:Trojan.Win32.Generic
Спешу всех успокоить, никакого трояна там нет, а эта ситуация очередной "закидон" самого Касперского. Мы сейчас пытаемся связаться с ними, чтобы с очередным обновлением баз эта проблема была решена. Рекомендую добавить нашу программу в белый список, чтобы каспер её не сносил.
Вот результаты проверки на VirusTotal. Как можете убедиться проблемы исключительно с каспером.
Наверное уже в третей версии сделаем. Кстати, в ближайшее время выложим её на публичный тест. Тестовая версия 3.х будет доступна всем обладателям второй версии.
ждем третью
Доступно обновление 2.3.3
Практически полностью переработан парсер robots.txt. Все досадные недоразумения при сканировании должны уйти в прошлое.
Обновления доступны как из кабинета, так и автоматически.