Большой объем низко служебные запросы

У меня есть приложение, которое обработает данные, которые оно получает через большой объем, низко служебные запросы, отправленные от различных поддерживающих Интернет устройств. Эти данные будут получаться постоянно и только увеличатся в будущем, поскольку все больше устройств добавляется к системе. После того как данные получены, после некоторой маленькой обработки они будут вставлены в к базе данных (MySQL).

Мой вопрос, какое программное обеспечение сервера я должен использовать для этого? Действительно ли node.js является лучшим кандидатом на обработку максимального количества таких запросов в данном аппаратном ограничении или является nginx лучше для таких приложений? Также есть ли какие-либо лучшие практики для того, чтобы обработать такие запросы? Например, я считал, что, если я использую node.js, мне, возможно, придется смотреть на ulimit ОС, чтобы гарантировать, что достаточно файлов может быть создано в случае большого количества параллельных запросов...

Спасибо.

1
задан 4 July 2014 в 08:57
1 ответ

По крайней мере, в новостях говорят, что java лучше для этого:

Основным веб-приложением New Relic всегда было приложение Rails. Ярус сбора данных был изначально написан на Ruby, но в конце концов был перенесен на Java. Основным драйвером для этого изменения была производительность. Этот уровень в настоящее время поддерживает более 180k запросов в минуту и отвечает примерно за 2,5 миллисекунды с большим количеством пространства для движения.

с http://highscalability.com/blog/2011/7/18/new-relic-architecture-collecting-20-billion-metrics-a-.day.html

1
ответ дан 4 December 2019 в 00:23

Теги

Похожие вопросы