У меня есть приложение, которое обработает данные, которые оно получает через большой объем, низко служебные запросы, отправленные от различных поддерживающих Интернет устройств. Эти данные будут получаться постоянно и только увеличатся в будущем, поскольку все больше устройств добавляется к системе. После того как данные получены, после некоторой маленькой обработки они будут вставлены в к базе данных (MySQL).
Мой вопрос, какое программное обеспечение сервера я должен использовать для этого? Действительно ли node.js является лучшим кандидатом на обработку максимального количества таких запросов в данном аппаратном ограничении или является nginx лучше для таких приложений? Также есть ли какие-либо лучшие практики для того, чтобы обработать такие запросы? Например, я считал, что, если я использую node.js, мне, возможно, придется смотреть на ulimit ОС, чтобы гарантировать, что достаточно файлов может быть создано в случае большого количества параллельных запросов...
Спасибо.
По крайней мере, в новостях говорят, что java лучше для этого:
Основным веб-приложением New Relic всегда было приложение Rails. Ярус сбора данных был изначально написан на Ruby, но в конце концов был перенесен на Java. Основным драйвером для этого изменения была производительность. Этот уровень в настоящее время поддерживает более 180k запросов в минуту и отвечает примерно за 2,5 миллисекунды с большим количеством пространства для движения.