Оптимизайка

Оптимизайка
Рейтинг
396
Регистрация
11.03.2012
Интересы
Программирование, информационные технологии, наука

А больше из приличного нет ничего.

Да успокойтесь, 27 р за 1000 это вообще круто для РСЯ.

RuslanVech:
Ресурс официальный, поэтому увеличений члена и смерти якубовича хотелось бы избежать от слова совсем.

Там есть опция - не допускать новые объявления без предварительной модерации. Доход при этом, понятно, упадет.

defin:
Советуют довериться сохранению информации о прочитанных сообщениях сторонним облачным сервисам, типа Google Firebase. Есть ли у кого опыт? Насколько там точны данные?

Так дорого же.

https://startupsventurecapital.com/firebase-costs-increased-by-7-000-81dc0a27271d

---------- Добавлено 06.09.2017 в 15:29 ----------

Мемори:
For the experiments we will use two physical servers: "receiver" and "sender".

Ну логично, что для чистоты эксперимента она разделили отправителей и получателей. У ТС отправители - это будут телефоны пользователей, так что норм.

Тут же сендеров будет 10 тыс. (конкуренция, коллизии)

Обращу внимание, что по ссылкам идет речь о миллионах соединений, а не тысячах.

из второй ссылки "24 CPU cores" и какая-то супер навороченная сетевуха с аппаратной балансировкой очередей и аппаратных прерываний по "cores"

Обычный сервер, сейчас все такие делают на intel'ах.

я же пробовал 2х ядерный WIn7

Не очень удачный выбор ОС для подобных экспериментов :)

в общем я бы на месте топик стратера решил вопрос растягиванием рассылки и пулом ip + обычный сервер и не парился
головоломками с аппаратной балансировкой на много много "cores" и настройкой матерых сетух.

Ему не потребуется балансировка и какая-то особая настройка, кмк. Растянуть и запулить можно в любое время потом. Главное - начать :)

Мемори:
что-то мне кажется 10 тыс. в сек надо какой-то нехилый сервер.
Как-то давно пробовал 1 тыс. аппаратных прерываний от сетевухи в сек - средний комп виснит. 10 тыс. - х-м-м-м.

Как давно? В 90-х?

https://blog.cloudflare.com/how-to-receive-a-million-packets/

https://mrotaru.wordpress.com/2013/10/10/scaling-to-12-million-concurrent-connections-how-migratorydata-did-it/

Bureau:
Есть сервер - крутится на Ubuntu. Как взять и перенести его к другому провайдеру с наименьшим даунтаймом?
Как посмотреть список всего установленного ПО и собрать машинку 1в1 на другом VPS?
В прошлый раз все ставил по .bash_history, но там куча грязи в виде левых\неустановившихся пакетов.
Файлы проекта, конфиги Nginx, PHP перенесу вручную. А как быть с остальным?
Спасибо.

Есть возможность загрузки в какой-то "rescue mode"? Загрузиться в него и скопировать (не монтируя) раздел целиком:


dd if=/dev/sda | pv | ssh user@example.com dd of=image.iso

полученный там образ - развернуть на соответствующий диск.

Лимит существует, количество пользователей интернета конечно.

посмотрите в сторону nosql базы. например, redis. 10000 вставок в секунду он сделает легко без всякого распараллеливания и балансировок. При желании их конечно тоже можно будет прикрутить. Очередь тоже можно сделать на redis, но судя по описанию задачи она вам не нужна.

На моем ноутбуке, например:

$ redis-benchmark -t set,lpush -n 100000 -q

SET: 112359.55 requests per second

LPUSH: 115874.86 requests per second

ChizikPyzhik:
В основном мой сайт посещают с 2-х ip: 142.54.177.6 и 178.20.235.164. В интернете эти два адреса помечены как адреса спам роботов. Подскажите если я через файл .htaccess запрещю этим ip посещение моего сайта это поможет?

Эти ip адреса не относятся к известным адресам роботов поисковых систем. Смело блокируйте. Временно поможет, но скорее всего появятся другие, подходите к процессу творчески :)

А вы проверьте их IP адреса, может это вовсе и не поисковые роботы.

Crawl-delay прописали в роботсе?

А вообще 30000 обращений это всего 1 в 3 секунды, как бы ниочём для хорошего сайта ;)

Всего: 4372