- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня есть сайты, скачанные на винт для анализа ссылок, текстов и т.п. Допустим один из сайтов занимает 10 гб. Возник вопрос, как сжать сайт для хранения на диске (выливать копию сайта в инет мне не понадобится). Мои мысли: 1. Отказываться сохранять страницы, которые более ** кб.; 2. Переводить html в текстовой формат, оставляя только теги логического выделения (в, стронг, i); 3. Выводить ссылки в отдельную таблицу (в текстовом файле ссылки не сохраняются); 4. Убирать повторяющеесе меню, на сайтах.
Вопрос, может стоит что то добавить в данные правила?
Что ж это за сайт такой 10 гб.
это один из крайних вариантов. разумеется - основная масса сайтов намного меньше по размеру. Никаких причин приводить урлы не вижу :)
зы
тонок намекну - активно юзают документы пдф, док, фронт пейдж хреновое хтмл. вернее говоря. вот сайт и здоровенький...
Я так и подумал. Может, именно это и надо повыкидывать? Я думаю, один отброшенный файл pdf размером в несколько мегабайт толку принесёт больше, чем борьба с тэгами.
Мне кажется, для качественного анализа исследуемые страницы должны сохраниться в реальном виде. Потому что если тупо повыкидывать то, что кажется неважным, можно в итоге получить неверные результаты.
есть эксперемент, для гугла ссылочное с пдф работает...
думаю что для яши - это просто вопрос времени :(
зы
пока я пдф выкидываю...
Картинки, всякий видео-контент, может есть какие-то архивные файлы. Они часто много места занимают.
azsx, вопрос - есть ли ссылки в этих конкретных PDF-ах.
грохнуть все файлы, кроме самих страниц. В документах буду дыры, но ссылки останутся для анализа.
Если у вас винда включите сжатие каталога сайта, немного поможет.
У меня есть сайты, скачанные на винт для анализа ссылок
Переводить html в текстовой формат, оставляя только теги логического выделения
Не находите, что одно другому противоречит? Как вы будете анализировать ссылки если удалите все теги кроме тегов оформления? Да и зачем для анализа ссылок скачивать весь сайт - достаточно построить ссылочную карту сайта (подобный функционал есть даже в Семониторе). Сдаётся мне, что-то Вы лукавите.
Картинки удалите.