- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
https://weisser-dev.github.io/devtools-coverage-extractor/
https://nachovz.github.io/devtools-coverage-css-generator/
нашел сервисы для расшифровки, но в первом css и js, во 2 только css, как я понял при экспорте в покрытии, в json экспортируются все и css и js со всех файлов, и на выходе получается все в кучу или нет? а как с расшифрованными данными дальше работать?
например сайт 0809.ml
Есть много сайтов на wordpress где нужно почистить css и js от неиспользуемого кода. Может есть готовые решения, для обработки файла json из панели Coverage в хроме? Гуглил нашел код на node js, но с этим языком не знаком, как его запускать и как с ним работать не знаю.. Объем большой, вручную долго.
https://weisser-dev.github.io/devtools-coverage-extractor/
https://nachovz.github.io/devtools-coverage-css-generator/
нашел сервисы для расшифровки, но в первом css и js, во 2 только css, как я понял при экспорте в покрытии, в json экспортируются все и css и js со всех файлов, и на выходе получается все в кучу или нет? а как с расшифрованными данными дальше работать?
например сайт 0809.ml
Я бы не рисковала. Пользовалась подобными сервисами, как итог - все восстанавливала, поскольку media в css не учитывалось. По js - , там тем более - лучше вручную.
Я бы не рисковала. Пользовалась подобными сервисами, как итог - все восстанавливала, поскольку media в css не учитывалось. По js - , там тем более - лучше вручную.
45к строк чистить только в 1 файле не сильно хочется ручками)
в итоге вы ничего не нашли стоящего?
ничего
Нет, ничего не нашла.
У меня есть такой скрипт локальный, в итоге забил. Это мёртвяк т.к. надо учитывать все страницы и с каждой собирать Coverage , всё это совмещать и потом в конце удалить пару правил. Не стоит оно того. Лучше делать перевёрстку с какой-то пользой или жить с тем, что есть.
Я 3/4 сss файла почистила. Первый экран заметно сильно быстрее загружается.
Я 3/4 сss файла почистила. Первый экран заметно сильно быстрее загружается.
Никто ж с этим не спорит. Вопрос в размере файлов, в количестве страниц на сайте и в том, насколько интерактивен сайт.