- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нет, не актуально. Маск наделал кучу спутников, а толку почти нуль, как шпионы разведчики если только.
А по большому счёту проводная связь и сотовая сейчас на уровне с высокой скоростью проводимости. Так что все эти железные летающие транзисторы нужны только в качестве передачи сигнала с одной стороны планеты на другую, с континента на континент и то уже кабели по дну морей, океанов проложили.
Кроме того если на спутниках, дронах делать хранилища информации, то это очень дорогое удовольствие будет, потребление энергии и обслуживание всего этого хозяйства с тысячами аппаратов..
Так в том-то и прелесть концепции у Лема, что в качестве хранилища информации выступал не каждый элемент, а исключительно их совокупность (в каком минимальном количестве, умалчивается). Сам по себе каждый элемент хранил, говоря современным языком, несколько бит, и при этом был полностью взаимозаменяемым с другими элементами, а в совокупности они хранили огромный объём данных, и уничтожение не то что одного, но даже тысячи элементов – работоспособность архитектуры не нарушало: место уничтоженных элементов просто занимали другие, и всё. Для уничтожения хранимой информации, по всей вероятности, следовало бы уничтожить как минимум 75% элементов, что с учётом их тактики рассеивания в случае критической опасности было практически невозможно. Та самая децентрализация, в противовес более сложным и централизованно мыслящим устройствам, которым Туча вынуждена была противостоять. Я помню о том, что это всего-навсего вымысел польского фантаста, но изящество схемы подкупает. А вообще лучше прочитать первоисточник, там есть над чем подумать. Тем более что ситуация по нынешним временам схожая.
Так в том-то и прелесть концепции у Лема, что в качестве хранилища информации выступал не каждый элемент, а исключительно их совокупность
Фантастика тем и хороша, что в ней можно игнорировать ограничения, которые будут в реальной жизни. В данном случае концепция не задумывается о скорости соединения и об обьемах передаваемой информации.
Я сталкивался с ситуациями, когда казалось бы верное решение, на практике упиралось в проблемы передачи информации.
(Дальше можно не читать кому не интересны технические подробности)
Писали сервис обработки создания документов. Заказчик хотел дешево, поэтому предложил использовать амазоновские лямбды. Кто не знает - это небольшой инстанс в спящем режиме. Когда на него приходит запрос - просыпается, делает свое дело, отправляет ответ и снова засыпает. А ты платищь только за время его работы, не как в случае с VPS - все время.
По итогу оказалось что вот это время просыпания на холодную превышает все требования закзчика, приходилось держать лямбду всегда горячей, а это лишало всего преимущества.
Это я к чему - децентрализованная система будет ооочень медленной за счет типа соединения и обьема передаваемых данных. Если при серверном поиске ты получаешь информацию с одного источника, то тут тебе нужно создать сотни, если не тысячи соединений для получения результата.
Опять же не существует алгоритмов поиска, оптимизированных под распределенный поиск. Ну и главное - верификация данных. Если в такой сети насоздавать нод с фейковыми данными - как их отличить?
Так что считаю, такое будет возможно реализовать еще не скоро.