- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
кто нибудь знает пытался ли ктонибудь подсчитать сколько байт(петабайт) занимает интернет уж очень интересно знать на сколько тяжело приходится поисковикам
Вассер, подумать больше не очем что ли? Ну вот зачем такими мыслями других загружать? :) Давай ты будешь пионером!
Гугл пишет "Searching 8,168,684,336 web pages"
Можно взять, к примеру, 30-40 килобайт как средний вес страницы... вот и считайте :)
Ctulhu, да ладно, интересно всё ж.
Ещё б узнать
1. количество уникальной инфы в соотношении с общим количеством;
2. скорость появления новой инфы;
3. скорость копирования новой инфы;
4. если все байты интернета перевести в метры - хватит ли до луны?
Вассер, подумать больше не очем что ли? Ну вот зачем такими мыслями других загружать? :) Давай ты будешь пионером!
Я просто от природы очень любопытный (вдруг кто-нибудь считал)
А на моём компе это я думаю это будет трудно посчитать
Гугл пишет "Searching 8,168,684,336 web pages"
Можно взять, к примеру, 30-40 килобайт как средний вес страницы... вот и считайте :)
279203077,890625 мб
272659,2557525634765625гб
266,26880444586277008056640625 тб
так мало я думал хотя бы пару петабайт будет
непонял - а фильмы, мп3, исошники ИТД - это не интернет?:)
вот вот, и давайте прикроем тему 🚬
как вы уникальную считать собираетесь?
новой! Блин - если взять все новости, которые происходят в мире ежесекундно, ежеминутно, ежедневно. Все катастрофы, снятые на видео, молнии, ПОРНО в конце концов (простите за каламбур) Как вы порно считать собрались?
Это вообще не представляется возможным имхо. Изменил пару строк и вот тебе уже не новый контент а не самостоятельный (если о контенте речь).
Предлагаю вызвать кого нибудь из медиков в данную ветку форума :D
И вообще цель? Обычно размер интересен, когда места мало на диске и хочется метры в зипархив положить или что-то вроде.
Посчитать такую МЕГАПОМОЙКУ как интернет.... ? Чтож я не против...! :) Лишь бы была польза для этого самого...интернета... ;)
я вообще только себе верю. ;)
PS Конец рабочего дня по идее...башка и без этого опухла
http://company.yandex.ru/
уникальных документов: 743 143 098,
объем проиндексированной информации: 22 083 ГБ.
Кроме неиндекксируемых форматов, есть ещё такое понятие, как deep web - сайты, доступные любому посетителю, но не роботу. Классический пример - словарь. Чтобы получить страницу, нужно ввести в форму запрос. Робот этого сделать не может. По разным оценкам, ботам доступно не более 10-20% контента сети.