- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Скажите пожалуйста, имеется ли скрипт или сервис, который мог бы проверять сайт на предмет не существующих страниц или битых ссылок и выводил бы отчет в котором содержалось бы не столь информация о том, что проблемы имеются и какие именно страницы возвращают 404, а именно какие страницы содержат ссылки на несуществующие страницы, а так же страницы на которых имеются битые ссылки.
посмотрите программу Xenu
вот описание и ссылка для скачивания http://www.softring.ru/catalog/webmaster/xenuslinksleuth/
А чем логи сервера не устраивают?
L_max, +1
Xenu - очень полезная прога!
А чем логи сервера не устраивают?
Надо обойти весь сайт по ссылкам, предлагаете сделать это вручную, а потом лазить по логам? Ничего этого уже не нужно :). Хотя периодически смотреть в логи, конечно, надо.
Надо обойти весь сайт по ссылкам, предлагаете сделать это вручную, а потом лазить по логам? Ничего этого уже не нужно . Хотя периодически смотреть в логи, конечно, надо.
А пользователи Вам на что? Они ходят по сайту и прекрасно генерируют логи... К тому же я не утверждал, что это идеальный вариант, я спросил чем не устраивают логи =)
И ещё вопрос - данная прога умеет умеет определять ссылки на несуществующие картинки (где src="404 ошибка")?
просто интересует оптимизация и систематизация рабочего процесса, логи долго перебирать.
L_max спасибо, поюзаю.
просто интересует оптимизация и систематизация рабочего процесса, логи долго перебирать.
Есть всевозможные анализаторы логов. Хотя дело Ваше =).
Есть всевозможные анализаторы логов. Хотя дело Ваше =).
Наверно проще написать PHP скрипт, который учтёт все ваши нужды..
кстати Webmaster Tools от Google помогает это вычислить... и 404 и 500 ошибки...