ospf является внутренним шлюзом, тогда как пограничный межсетевой протокол является внешним шлюзом.
сходимость быстро в ospf, замедлитесь в пограничном межсетевом протоколе.
дизайн - иерархическая сеть, возможная в ospf, полностью пойманном в сети в пограничном межсетевом протоколе.
Алгоритм - ospf использует Алгоритм Dijkstra, пограничный межсетевой протокол использует лучший алгоритм пути.
Протокол - ospf имеет протокол IP, пограничный межсетевой протокол имеет протокол TCP.
Порт - ospf имеет порт 89, пограничный межсетевой протокол имеет порт 179.
тип - Состояние канала в ospf, Вектор тракта в пограничном межсетевом протоколе.
Потребность ресурсов устройства - Память & ЦП, интенсивный в ospf, Зависит от размера таблицы маршрутизации, но масштабируется лучше, чем ospf.
Я настроил некоторый сервис организации очередей. Быстрый Google на "готовом использовать" материал показывает это:
В зависимости от Ваших потребностей Вы могли просто
На самом деле существует больше к нему, у Вас могли быть требования, которые реализуют приоритетную очередь, которая поднимает проблемы как исчерпавшие ресурсы задания или подобный, но дело не в этом плохо для подъема чего-то и выполнения довольно быстро.
Если бы LDP, как предложено womble я взял бы это. Поддержание такой системы более многочисленным сообществом, конечно, лучше, чем создание Ваших собственных ошибок для трудных других, уже решенных :)
Также сервис организации очередей имеет преимущество отделения ресурсов от фактического перемалывания чисел. Путем предоставления доступа к заданиям доступными по некоторому сетевому соединению можно просто бросить аппаратные средства в (возможную) проблему масштабирования и иметь почти бесконечную масштабируемость.
Тяжелое решение для веса Вашей проблемы состоит в том, чтобы использовать что-то как Механизм Сетки Sun.
Механизм сетки Sun (SGE). SGE является распределенным программным обеспечением управления ресурсами, и он позволяет ресурсам в кластере/машине (процессорное время, программное обеспечение, лицензии и т.д.) использоваться эффективно.
Вот маленькое учебное руководство о том, как использовать SGE.
Два решения приходят на ум:
xargs -P
управлять максимальными параллельными процессами когда-то.make -j
.Они на самом деле оба получены в итоге в этом, ТАК распараллельте более подробно.
Существует возможность, что они не могут быть применимы к структуре Ваших сценариев.
Можно всегда использовать lpd - да, старая школа, но это - действительно обобщенная система управления пакетной обработки, подменяющая сервером печати.
Вы могли проверить некоторые пакетные системы, используемые для планирования заданий на кластерах, который имеет опцию контролировать использование ресурсов и объявить, что система слишком загружается для диспетчеризации большей рабочей нагрузки ему. Вы могли легко также настроить их, чтобы только выполнить одно задание за один раз, но для которого можно быть более обеспечены с чем-то менее сложным, чем абсолютный пакетный планировщик (в духе хранения простых вещей).
Что касается пакета/систем планирования в свободном доступе, два, который приходит на ум, были бы OpenPBS/Torque и SGE.
Отредактированный для добавления: Если Вы когда-либо собираетесь добавить больше мощности переработки в будущем в форме большего количества полей, пакет/система планирования как Torque/OpenPBS/SGE может быть хорошим выбором, поскольку они в основном создаются для управления, вычисляют ресурсы и распределяют рабочие нагрузки им.
Сценарий оболочки, представленный на рассмотрение кроном, мог легко сделать это, он обрабатывает его линию за линией.
От man batch
:
пакет выполняет команды, когда уровни системной нагрузки разрешают; другими словами, когда среднее число загрузки опускается ниже 1.5, или значение, указанное в вызове фактического времени отправления.
Я думаю, что это могло бы быть тем, что Вы ищете. Это - часть Debian at
пакет.
wava
: планировщик с учетом памяти, который позволяет ставить в очередь пакетные задания (представленные с обещанием максимального использования физической памяти) для выполнения, когда в системе доступно достаточно физической памяти (RSS). system.
Этот планировщик изначально создавался для постановки большого количества длительно выполняемых заданий в очередь на машинах с большим объемом ОЗУ и одновременного выполнения большинства из них, избегая подкачки и подкачки памяти, чтобы не снижать производительность других служб, работающих в системе.