- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго дня!
Подскажите, может кто знает такой инструмент:
Для составления списка в идеале потребуется сканер, который может найти и проанализировать все существующие страницы сайта, и списком вывести домены с указанием Mime-type контента, который подгружается с каждого домена. Ничего подобного мне неизвестно. Может вам известно?
А что мешает это сделать ручками?
@FinN73,
Благодарю за желание помочь. Буду признателен, если у вас есть ссылки по сканеру и вы ими поделитесь, а если при этом мы еще воздержимся от обсуждения других вариантов в рамках этой ветки будет вообще чудесно.
Есть мысль скачать весь сайт с помощью teleport pro, вроде он умеет скачивать медиа, подключаемое с других сайтов.
Вряд ли вы найдете столь умный "сканер", ведь инициаторов загрузки чего-либо - множество. Это и код скриптов, и подключаемые стили внутри стилей, ... Лучше всего воспользоваться веб-инспектором браузера и посетить типовые страницы (их на сайте наверняка конечное число, к примеру, достаточно зайти в одну статью, нет смысла ходить по всем статьям) и помониторить ресурсы. После составления CSP "на глаз" уже смотрите на его предупреждения в том же инспекторе. Далее прикручивайте отладчик CSP, например https://report-uri.io/ и включаете CSP для всех пользователей, мониторьте, чего полезного запретилось уже у пользователей.
alexey_nsk,
Я вас понял, может ответите на вопрос?
@Joker-jar,
Видимо, да. Это единственный разумный вариант. Но все же вариант со сканером удобнее.
Возможно технология другая, но все же gtmetrix.com, tools.pingdom.com умеют сканировать страницы (про инклуды css утверждать не стану), к тому же делать скриншот страницы, а стало быть умеют работать "умно" с медиа ресурсами страницы.
@FinN73,
Вы хотите написать такой сканер? И хотите знать, на сколько он будет востребован? Хотите знать, какими мотивами руководствуется пользователь, который ищет подобные ресурсы? Или просто из праздного любопытства интересуетесь?
Мотивов может быть несколько - но какое это имеет значение? В любом случае все они сводятся к очевидному желанию сэкономить время, силы, деньги (будь то на сам процесс анализа, на разбор и изучение вопроса) ;)
alexey_nsk,
То что вы такой общительный и остроумный, я уже понял, но что мешает вам просто ответить на вопрос? Такими темпами вы не построите диалог. Честно говоря, был у меня для вас ответ, но я сперва хотел узнать, почему не хотите делать все сами, время уйдет, но лучше чем вы никто не сделает, даже сайты-сканеры. Кстати времени надо не так уж и много.
Думаю, что тему можно закрывать. Буду делать по совету Joker-jar.
@FinN73,
Благодарю за желание помочь. ;)