Масштабирование больших загрузок файла?

Мое понимание - то, что это загружает только минимальные драйверы/настройки, необходимые для очень простой начальной загрузки окон. Существуют другие опции хотя, такие как запуск с сетевой поддержки (добавляющий больше драйверов и настроек к начальной загрузке), или командная строка как как оболочка вместо Проводника.

Безопасный режим помогает Вам диагностировать установку окон с плохим драйвером и/или параметрами конфигурации.

4
задан 15 July 2009 в 16:54
7 ответов

Это не плохая архитектура (сквид является популярным обратным прокси), однако если Вы ожидаете экспоненциальный рост, Сеть доставки контента могла бы быть лучшим решением - Вы только платите за содержание, которого Вы требуете, масштабы пропускной способности немедленно (Вы не должны масштабировать горизонтально больше серверов), и передающий передачу потоком определен геолокацию к серверам максимально близко к клиенту, гарантировав, чтобы они получили максимальные скорости передачи. Однако я никогда не пробовал это файлами 1 ГБ, и стоимость может быть чрезмерной.

Технологию потока можно считать как p2p CDN в этом случае, и как таковой, некоторые из этих поставщиков могут подойти, поскольку поток отбирает для Вашего содержания, уменьшая Ваши общие затраты пропускной способности и (возможно) увеличивая скорость, хотя это зависит от Ваших развратников.

6
ответ дан 3 December 2019 в 02:26
  • 1
    Это - на самом деле другая опция we' рассмотрение ре. В данный момент I' m пытающийся удаться, как стоимость масштабирования горизонтально нас (однажды we' ре, уверенное в том, как сделать это), выдерживает сравнение с движением с CDN. Спасибо за ссылки CDN P2P, я hadn' t изучил их. –   16 July 2009 в 02:52
  • 2
    ++ для CDN! It' s очень хороший способ масштабироваться. –  Martin K. 20 July 2009 в 22:30
  • 3
    На серьезном основании не использовать сквид от людей лака. varnish.projects.linpro.no/wiki/ArchitectNotes –  reconbot 20 July 2009 в 22:52

Если Вы в настоящее время не делаете этого, может стоить исследовать поставку файлов дополнительно по bittorrent для отодвижения части загрузки серверов и на сеть P2P.

2
ответ дан 3 December 2019 в 02:26
  • 1
    Кстати, Amazon S3 имеет встроенное обслуживание БитТоррента. –  ceejayoz 15 July 2009 в 17:45

Что Вы пытаетесь масштабировать, вот Ваш IO.

Используя кэширующийся прокси как сквид или лак способ заполнить кэш для увеличения шпинделей, не копируя low/none-used файлы в архиве. Устройства CDN делают это для Вас также. Эти медиа файлов? Устройства CDN могут сделать потоковую передачу для Вас также.

Пользователи получают отказы загрузки файла и часто повторно делают попытку загрузки? Высокий уровень повторной попытки значительно увеличит Ваши потребности IO.

Вы имеете какой-либо контроль над тем, как файлы выбираются? менеджер загрузок может выбрать каждый файл в отдельных блоках, таким образом, разделяя запрос по нескольким апачам со временем (хотя они могли также загрузить параллельно, насыщая Ваш интернет-канал).

Как ссылка 'опыта', я только когда-либо был в средах, которые помещают все эти данные на NAS (NetApp в особенности) и используют апачей с NFS для поставки файлов (хотя было много меньших файлов, не на 1 ГБ). Мы также использовали CDN в качестве кэширующегося прокси для потоковой передачи видео.

1
ответ дан 3 December 2019 в 02:26
  • 1
    Можно ли рекомендовать конкретное устройство CDN, только для отбора моего поиска? Они звучат интересными. Отвечать на Ваш вопрос, мы don' t управляют, как файлы выбираются. Мы также не имеем никакого контроля над клиентской скоростью, некоторые являются очень медленными. –   16 July 2009 в 02:33
  • 2
    мы использовали устройство CDN Cisco, но странно они, кажется, больше не находятся в том пространстве (это было приблизительно 2002). Посмотрите Википедию для большего количества ссылок здесь en.wikipedia.org/wiki/Content_delivery_network , кажется возможным, что Cisco просто переименовала их материал CDS (система доставки контента) вместо этого? –  ericslaw 16 July 2009 в 09:17

Мой вопрос состоит в том, как Вы знаете, что Вы - IO, связанный для начала? Это просто кажется мне нечетный, что Ваши диски не могут не отставать от загрузок по HTTP (принимающий дело обстоит так здесь и не HTTPS).

Если у Вас есть большая база пользователей затем, решение CDN кажется применимым, как указали другие. Мы используем Akami для распределения нагрузки. Предположение здесь - то, что Вы подаете эти файлы по PI (общедоступный Интернет) по сравнению с некоторым внутренне размещенным решением только в коммутируемой сети или 1000 МБ 100 МБ.

Действительно ли возможно, что Вы чувствуете медленные загрузки как дисковую IO проблему, когда это могла бы быть интернет-проблема пропускной способности вместо этого? (снова, причем предположение, это - сайт направления PI).

Существует столько способов увеличить диск IO - можно использовать SAN или RAID; оба обеспечивают некоторый уровень кэширования. Я не могу думать ни о каком Интернет-соединении, которое опередило бы способность единственного SAN HBA или Двойной SAN, HBA (объединял выполнение в команду) в 2Gb/s/hba или локальном устройстве хранения данных через RAID с поддержкой Кэша, соединенной через шину PCI-E.

Мы говорим, Концерт-E подключил клиенты к тому же подключенному серверу?

2
ответ дан 3 December 2019 в 02:26
  • 1
    Сеть приблизительно на половине способности. Я принимаю we' ре IOPS, связанный от рассмотрения vmstat/iostat вывод. Мы можем легко насыщать сеть меньшим активным набором файла, но проблема составляет 90% наших файлов, " hot" в любой момент времени. У нас есть много клиентов, некоторые являются медленными, и файлы являются большими. We' ve maxed RAM на этом поле. There' s комната для улучшения текущей дисковой подсистемы (делающий это больше шпинделей на ГБ), но that' s все еще масштабирующийся вертикально и I' m честно не уверенный, что мы могли сделать после этого, не изменяя архитектуру? –   16 July 2009 в 02:07
  • 2
    кэширование, по-моему, не собирается решать систему, которая является тяжела IO интенсивный, если у Вас нет тонн RAM для хранения большинства этих " large" файлы в памяти, которая кажется маловероятной. Насколько большой " большой? " " Large" к средствам подразумевает файлы размера ГБ, требующие многих дисковых сбросов. Какова Ваша дисковая подсистема сегодня? (Аппаратные средства RAID, softwware, SAN, NAS, что?) Отправляют Ваш VMSTAT и дампы IOSTAT. Если это - Linux, также отправьте свой HDPARM-t и вывод-T для каждого диска и возможно некоторых тестов FIO, если Вы можете. –  Kilo 17 July 2009 в 21:19

Одна возможная архитектура я рассматривал использование nginx как, frontend и это поддерживается несколькими экземплярами Лака. Было также рассмотрение добавления второго уровня основной лак к той дуге (т.е. получения по запросу лака от основного лака).

Кроме этого, необходимо рассмотреть использование CDN, как другие упомянули. В зависимости от какого Вы служите (медиа?), существуют, некоторые специализировали CDNs, которые фокусируются больше на поставке больших файлов, таких как BitGravity.

1
ответ дан 3 December 2019 в 02:26

По каким системам хранения у Вас есть свои данные? И это может быть разделено?

При наличии серверов бэкэнда на физически различных SAN каждый с подмножеством данных, обслуживании для инвертирования машин фронтэнда прокси плюнул бы данными физически и все еще позволил бы им быть обращенными логически то же с внешней стороны.

Nginx очень хорош с потреблением памяти и статическим обслуживанием файлов, поскольку он может разгрузиться к ядру с помощью sendfile (). На Lighttpd нужно также посмотреть, но я услышал, что это менее стабильно (ре. потребление памяти), но не использовали его.

Серверы фронтэнда могут разделить запросы на серверах бэкэнда путем, или шаблоны (Nginx имеет большую поддержку regex.) и может даже перенаправить к различным дата-центрам, если у Вас была потребность. Циклический алгоритм DNS мог бы также быть полезным.

Я успешно использовал Nginx для инвертирования прокси как отказоустойчивого между медленной синхронизацией наборов данных. Это протестировало бы на файл и если бы это не существовало, то это спросило бы сервер бэкэнда по http. Позже это синхронизировалось бы к машинам фронтэнда и будет обычно работать.

Удостоверьтесь, что Вы делаете Вы контролируете статистику через плату. Память, io ожидает, пропускная способность, задержка, средние времена запроса, и т.д. Не контролируя независимо от того, что Вы делаете, стреляет в темноте.

1
ответ дан 3 December 2019 в 02:26

То, что мы делаем, использовать MogileFS, чтобы избыточно хранить наши файлы (дублирование и масштабируемость при наличии каждого файла на нескольких серверах), но иметь пользовательские доступы проходят CDN для скорости и... хорошо, больше масштабируемости.

Мы используем меньший CDN, PantherExpress - их оценка хороша, и набор функций является просто большим. Сети центра внимания и EdgeCast также дали нам хорошие назначенные цены, когда мы присматривались к ценам.

Мне понравился тот PantherExpress, дают Вам хорошую техническую документацию на их функциях, и Вы получаете все функции, которые они имеют за одну цену, а не немного дополнительных денег для этого и еще некоторые дополнительные деньги для этого.

1
ответ дан 3 December 2019 в 02:26

Теги

Похожие вопросы