По-видимому, Ваши 4 сервера Linux имеют по крайней мере две зарубки? Им на самом деле нужна объединенная пропускная способность обеих зарубок для обработки их нормальной нагрузки? Если не затем некоторые режимы связывания предусматривают дублирование, не используя etherchannel.
Anway, см. документ связывания, который он обеспечивает большому количеству нескольких примеров ситуации HA в зависимости от того, в чем Вы нуждаетесь, и к чему Ваше сетевое оборудование способно.
Выборка из bonding.txt
11.2 High Availability in a Multiple Switch Topology ---------------------------------------------------- ... Below is a sample network, configured to maximize the availability of the network: | | |port3 port3| +-----+----+ +-----+----+ | |port2 ISL port2| | | switch A +--------------------------+ switch B | | | | | +-----+----+ +-----++---+ |port1 port1| | +-------+ | +-------------+ host1 +---------------+ eth0 +-------+ eth1 In this configuration, there is a link between the two switches (ISL, or inter switch link), and multiple ports connecting to the outside world ("port3" on each switch). There is no technical reason that this could not be extended to a third switch. 11.2.1 HA Bonding Mode Selection for Multiple Switch Topology ------------------------------------------------------------- In a topology such as the example above, the active-backup and broadcast modes are the only useful bonding modes when optimizing for availability; the other modes require all links to terminate on the same peer for them to behave rationally. active-backup: This is generally the preferred mode, particularly if the switches have an ISL and play together well. If the network configuration is such that one switch is specifically a backup switch (e.g., has lower capacity, higher cost, etc), then the primary option can be used to insure that the preferred link is always used when it is available. broadcast: This mode is really a special purpose mode, and is suitable only for very specific needs. For example, if the two switches are not connected (no ISL), and the networks beyond them are totally independent. In this case, if it is necessary for some specific one-way traffic to reach both independent networks, then the broadcast mode may be suitable.
Самый простой путь, вероятно, был бы (предположение sda1 является Вашим корнем//):
tune2fs-l/dev/sda1 | grep созданный
Это должно показать Вам дату, в которую была создана файловая система. Подтвержденный для работы над ext2 к ext4, не уверенному в других файловых системах!
Один механизм, который я часто использую, должен проверить время изменения (ctime) на файлах в рамках корневого корневого каталога. Начиная с /root
корневой каталог создается во время установки и часто редко используется, это может обеспечить относительно хорошее приближение. Как разъяснено Kyle в комментариях, так как ctime относится к inode а не данным, изменение содержания файла не изменит ctime.
По умолчанию, ls
управляйте печатает время изменения (mtime) файла. Таким образом, если замена в ctime опции как так,
ls -alct /root
Это распечатает все файлы, отобразит создать время и вид ко времени.
Как пример, вот образец 3 самых старых файлов в /root
каталог от одной из моих систем.
ls -alt install.log.syslog .cshrc .tcshrc
-rw-r--r--. 1 root 10238 Feb 18 2010 install.log.syslog
-rw-r--r--. 1 root 129 Dec 3 2004 .tcshrc
-rw-r--r--. 1 root 100 Sep 22 2004 .cshrc
И затем путем проверки времени изменения
ls -alct install.log.syslog .cshrc .tcshrc
-rw-r--r--. 1 root 100 Feb 18 2010 .cshrc
-rw-r--r--. 1 root 10238 Feb 18 2010 install.log.syslog
-rw-r--r--. 1 root 129 Feb 18 2010 .tcshrc
Дата 18-го февраля 2010, конечно, отслеживает с приблизительным временем, я сначала установил бы ту систему.
Проверка аппаратных средств была бы хорошей ставкой, если у Вас есть доступ к нему. Вы могли осмотреть компоненты системы и/или аппаратные компоненты для получения хорошей идеи того, когда она была собрана.
Поочередно, если можно получить доступ к экрану BIOS часто существует информация о дате там, которая может использоваться для определения, какого возраста машина.
Если можно получить доступ к УМНОЙ информации о жестком диске (smartctl -a /dev/sda
) могло бы быть что-то там для продолжения. Я не вижу определенной метки времени в УМНОМ, но существует, по крайней мере, час счетчика использования. Это обеспечило бы нижнюю границу на том, какого возраста машина (так как, если жесткий диск работал в течение 100 часов, система не может быть моложе, чем 100 часов).
Что касается проверок файловой системы, Вы могли посмотреть на информацию о дате для /lost+found
- тот каталог был создан, когда файловая система была создана. Дата на нем должна согласиться с tunefs информацией из предыдущего ответа.
С Redhat и производными, довольно легко получить общее представление о версии ОС / год изготовления вина через комбинацию возраста файла и других системных файлов. Я буду обычно проверять /root/anaconda-ks.cfg
файл, поскольку это содержит начальную установку сервера и параметры пакета. Иногда uname -a
будет иметь хорошую информацию о дате сборки ядра. Также был бы кластер файлов с той же датой в /etc
; обычно ссылки rcx.d, емкостно-резистивные сценарии, inittab, и т.д.
В системе openSUSE я проверил, что дата создания (или рождения )файла /var/log/wtmp не будет сбрасываться при ротации. Он создается при первой загрузке после установки. Таким образом, скорее всего, будет отображаться время вскоре после начала первой загрузки.:
# ls -l --time=creation --time-style\=full-iso /var/log/wtmp
-rw-rw-r-- 1 root utmp 232323 2005-05-23 23:23:23.235000000 +0200 /var/log/wtmp
Не все файловые системы поддерживают дату создания, см.https://unix.stackexchange.com/a/91200. Это не то же самое, что ctime (здесь c для изменения )из GNU ls. Даже если эта информация существует и может быть прочитана, могли быть причины, по которым дата была сброшена, например. вмешательства человека.