Альтернатива для уведомления, подпишитесь:
file { "/etc/sshd_config":
source => "....",
}
service { sshd:
ensure => running,
subscribe => File["/etc/sshd_config"],
}
Причем различие - то, что отношения описаны от другого конца. Например, Вы могли бы заставить апача подписаться на/etc/apache/httpd.conf, но Вы заставили бы vhost файл уведомить апача, поскольку Ваш апачский класс не будет знать о каждом vhost, Вы имеете.
Подобная законченная двойным образом ситуация применяется для требования и прежде. Это - просто вопрос, которого имеет больше смысла в конкретной ситуации.
Как Чад упомянул при нахождении марионетки, постоянно пытающейся запустить сервис затем необходимо добавить параметр шаблона, который является regex для применения против списка процессов. Марионеткой по умолчанию сделает остановку и начнет перезапускать сервис. Если Вы добавите "hasrestart => верный", то затем это будет использовать команду, указанную в параметре "перезапуска" для перезапуска сервиса.
Поиск "высокой передачи файлов задержки" поднимает много интересных хитов. Очевидно, это - проблема, в которую и сообщество CompSci и коммерческое сообщество поместили мысль.
Несколько коммерческих предложений, которые, кажется, отвечают всем требованиям:
FileCatalyst имеет продукты, которые могут передать данные потоком по сетям высокой задержки или использование UDP или несколько потоков TCP. У них есть много других функций, также (непрерывное сжатие, передачи дельты, и т.д.).
fasp передача файлов "технология" от Aspera, кажется, отвечает всем требованиям для того, что Вы ищете, также.
В мире с открытым исходным кодом uftp проект выглядит многообещающим. Вам особенно не нужны ее многоадресные возможности, но основная идея снести файл к получателям, получая NAKs для пропущенных блоков в конце передачи, и затем снося блоки NAK'd (пена, промывка, повторитесь), кажется, что это сделало бы то, в чем Вы нуждаетесь, так как нет никакого ACK'ing (или NAK'ing) от получателя, пока передача файлов не завершилась однажды. Принятие сети является просто скрытым, и не с потерями, это могло бы сделать то, в чем Вы нуждаетесь, также.
Действительно нечетное предложение этот.. Настройте простой веб-сервер для хостинга файла в сети (я предлагаю, чтобы nginx, случайно), затем настроили ПК с Firefox на другом конце и установили расширение DownThemAll.
Это - акселератор загрузки, который поддерживает разделение на блоки и повторную сборку.
Можно повредить каждую загрузку в 10 блоков для повторной сборки, и она действительно на самом деле делает вещи более быстрыми!
(протест: я никогда не пробовал его ни на чем целых 160 ГБ, но это действительно работает хорошо с файлами ISO на 20 ГБ),
Мой ответ является немного поздним, но я просто нашел этот вопрос при поиске fasp. Во время того поиска я также нашел это: http://tsunami-udp.sourceforge.net/, "Цунами Протокол UDP".
С их веб-сайта:
Быстрый протокол передачи файлов пространства пользователя, который использует управление TCP и данные UDP для передачи по сверхвысокоскоростным сетям большой протяженности (≥ 1 Гбит/с и даже 10 GE), разработанный для обеспечения большей пропускной способности, чем возможный с TCP по тому же networks.the те же сети.
Насколько скорость идет, страница упоминает этот результат (использующий ссылку между Хельсинки, Финляндия в Бонн, Германия по 1GBit ссылка:
Рисунок 1 - международная передача по Интернету, составляя в среднем 800 Мбит/секунда
Если Вы хотите использовать акселератор загрузки, взглянуть на lftp, это - единственный акселератор загрузки, который может сделать рекурсивное зеркало, насколько я знаю.
Транспорт UDT является, вероятно, самым популярным транспортом для высокой связи задержки. Это приводит на их другое программное обеспечение под названием Сектор/Сфера "Высокопроизводительную Распределенную файловую систему и Параллельный Механизм Обработки данных", который мог бы стоить, чтобы взглянуть на.
Утилита bbcp с очень релевантной страницы «Как передавать большие объемы данных по сети» кажется самым простым решением.