Как я забираю чтения SNMP из периодически соединенных сайтов?

После поиска это не похоже на LDAP, или Kerberos сделает это. По-видимому, нет никакого атрибута для него в LDAP и действительно нет никакого пути к нему для работы с точки зрения LDAP. От LDAP нет никакого выхода из системы, таким образом, он никогда не мог бы постепенно уменьшить количество входа в систему.

Учитывая это, кажется, что решение должно будет быть специальным.

Вам будет нужен сервис, который контролирует /var/run/utmp или команда w (выставочные пользователи в настоящее время входили в систему) на каждой машине, и сообщает об этом центральному серверу некоторым механизмом (nfs монтируются + текстовый файл, например).

Затем Вам будет нужен сценарий входа в систему, который выгоняет пользователя, если они превысили предел параллельных логинов. Сценарий входа в систему считал бы из центрального сервера, каково текущее количество входа в систему. С другой стороны, у Вас мог быть сервис, который изменяет maxlogins в /etc/security/limits.conf на основе значения количества входа в систему, полученного с центрального сервера.

maxlogins = $total_logins - $current_logins

В основном наиболее важный фактор - то, что у пользователей нет разрешения измениться, вход в систему считают себя, или они могли просто вручную изменить значение для разрешения большего количества логинов.

7
задан 28 March 2015 в 15:54
3 ответа

Я установил бы удаленную систему сбора (простой snmp poller), который хранит данные удаленно и может связаться через http или ssh... центральный сервер попытался бы связаться с удаленными сервисными услугами равномерно. Когда это управляет подключением, это получает обновления, которые были собраны тем временем...

Так как rrdtool работает хорошо с обновлениями с меткой времени, можно затем воспроизвести обновления в rrds на центральном сайте...

В качестве награды можно даже видеть, что довольно хорошая производительность начиная с выполнения нескольких обновлений в rrd в единственном вызове является вполне немного более эффективной, чем выполнение его шаг за шагом.

1
ответ дан 2 December 2019 в 23:51

Вам нужен некоторый механизм к промежуточной буферизации. RRD имеет a rrdcached таким образом, возможно, Вы могли кэшироваться, и затем в определенном сбросе времен к NFS смонтировал диск.

Вы могли также вывести, отправить файлы и восстановление. Это может быть более безопасно, чем перемещение всего файла.

1
ответ дан 2 December 2019 в 23:51

Один сайт я работал с этим, имеет аналогичную ситуацию, к rsync файлы, когда соединение закончилось. Они не используют кактусы хотя, просто основной mrtg. Я собираюсь посмотреть на выполнение того же для nagios и его pnp4nagios базирующиеся rrd файлы, таким образом, мы можем посмотреть на них в исторических целях, когда спутник не.

Проблемы подобны - у меня могут быть эти экземпляры, существуют на центральном сервере, но не на самом деле делают какой-либо опрос, таким образом, у меня может просто быть экземпляр только для чтения? Я ожидаю, что должен буду отредактировать nagios файлы конфигурации на лету для выключения всей обработки чеков после каждого обновления. И, возможно, отключите уведомления и исходные данные pnp4nagios только для сейфа в случае, если проверка случайно выполняется.

Таким образом, вопрос для Вашего сайта состоял бы в том, если кактусы (на центральном сервере) имеют способ сделать это, таким образом, некоторые контролируемые хосты могут существовать, но не на самом деле делать опрос. Таким образом, конфигурационные файлы для каждого удаленного объекта могли также просто быть rsync'd вниз.

Иначе, возможно, можно было использовать drraw или подобный инструмент только для просмотра удаленных сайтов? Хотя желательно иметь 1 консольный интерфейс!

0
ответ дан 2 December 2019 в 23:51

Теги

Похожие вопросы