Можно получить основные тесты возможности соединения просто пишущий сценарий оболочки, который использует wget и затем определяет, ответила ли страница или не на основе кода ответа.
#!/bin/bash
WGET='/usr/bin/wget'
URL='http://url.to.check'
${WGET} -O /dev/null --tries=1 ${URL}
if [ $? -eq 0 ]; then
echo "Success!"
# You could write a log file or something here
else
echo "Fail! :("
# run something to mail you that your site isn't responding
fi
Это - очень простой пример, который мог быть расширен, но если Вы будете просто искать что-то быстрое, то это будет работать. Вы можете крон это так, Вы знаете w/in минута, если это отказало.
Можно попробовать ulimit man ulimit
с-n опцией однако mag страница не делает большей части ОС, не позволяют этому быть установленным.
Можно установить предельное использование описаний файлов в масштабе всей системы sysctl -w fs.file-max=N
и внесите изменения, сохраняются, развешивают начальную загрузку в /etc/sysctl.conf
Однако я также предложил бы смотреть на процесс, чтобы видеть, должен ли он действительно иметь столько файлов, открытых в установленный срок, и если можно на самом деле закрыть некоторые файлы и быть более эффективными в процессе.
Процесс мог изменить свои собственные мягкие пределы, если запрограммировано, чтобы сделать так (или если Вам удается взломать его), но он не может повысить свои жесткие пределы, если он не имеет возможность CAP_SYS_RESOURCE. Можно осмотреть пределы во времени выполнения в /proc/$pid/limits
.
В новых ядрах (2.6.32+) в CentOS / RHEL вы можете изменить это во время выполнения с помощью / proc /
cd /proc/7671/
[root@host 7671]# cat limits | grep nice
Max nice priority 0 0
[root@host 7671]# echo -n "Max nice priority=5:6" > limits
[root@host 7671]# cat limits | grep nice
Max nice priority 5 6
В более новой версии util-linux-ng вы можете использовать команду prlimit, для получения дополнительной информации прочтите эту ссылку https://superuser.com/questions/404239/setting-ulimit- on-a-running-process