Сетевая задержка: 100 Мбит по сравнению с 1Gbit

Вы изменили свойства на исходном файле данных, таким образом, он больше не будет пытаться автоматически вырасти (значение по умолчанию)?

Обновление: теперь далеко от моей фильтрованной сети работы, я вижу рис., и действительно Вы оставили исходный файл для роста автоматически. Выключите 1%-й рост на файле Navision4_1_Data, и он должен начать использовать файл, который Вы поместили в G исключительно. Вы также имеете свой ОСНОВНОЙ файл Navision4_Data на C и устанавливаете для автоматического роста.

То, что Вы имеете, является кратковременным исправлением этой ошибки, но необходимо сделать приоритетом переместить все файлы данных прочь на отдельный диск в целом (а не тот с журналами транзакций на). Я также вижу, что Navision4_Log3 составляет более чем 45 ГБ - я предполагаю, что Вы не делаете регулярных резервных копий своей базы данных.

11
задан 3 June 2011 в 18:48
6 ответов

ДА Гбит имеет меньшую задержку, так как:

  • такое же количество байтов может быть передано за более короткое время

НО улучшение заметно , только если пакет (ы) имеют определенный размер:

  • 56-байтовый пакет => скорость передачи практически отсутствует
  • 1000-байтовый пакет => скорость передачи на 20%
  • 20000-байтовый пакет (-ы) => скорость передачи на 80%

Итак, если у вас есть приложение, которое очень чувствительно к задержке (4 мс против 0,8 мс, двусторонняя передача для 20 КБ) и требует передачи пакетов большего размера, то переключение со 100 Мбит на Гбит может дать вам сокращение задержки, даже если вы используете в среднем намного меньше 100 Мбит / с (= канал не загружен постоянно).

Сервер (100 Мбит) -> Коммутатор (Гбит) -> Сервер (100 Мбит):

size: 56 :: rtt min/avg/max/mdev = 0.124/0.176/0.627/0.052 ms
size: 100 :: rtt min/avg/max/mdev = 0.131/0.380/1.165/0.073 ms
size: 300 :: rtt min/avg/max/mdev = 0.311/0.463/2.387/0.115 ms
size: 800 :: rtt min/avg/max/mdev = 0.511/0.665/1.012/0.055 ms
size: 1000 :: rtt min/avg/max/mdev = 0.560/0.747/1.393/0.058 ms
size: 1200 :: rtt min/avg/max/mdev = 0.640/0.830/2.478/0.104 ms
size: 1492 :: rtt min/avg/max/mdev = 0.717/0.782/1.514/0.055 ms
size: 1800 :: rtt min/avg/max/mdev = 0.831/0.953/1.363/0.055 ms
size: 5000 :: rtt min/avg/max/mdev = 1.352/1.458/2.269/0.073 ms
size: 20000 :: rtt min/avg/max/mdev = 3.856/3.974/5.058/0.123 ms

Сервер (Гбит) -> Коммутатор (Гбит) -> Сервер (Гбит):

size: 56 :: rtt min/avg/max/mdev = 0.073/0.144/0.267/0.038 ms
size: 100 :: rtt min/avg/max/mdev = 0.129/0.501/0.630/0.074 ms
size: 300 :: rtt min/avg/max/mdev = 0.185/0.514/0.650/0.072 ms
size: 800 :: rtt min/avg/max/mdev = 0.201/0.583/0.792/0.079 ms
size: 1000 :: rtt min/avg/max/mdev = 0.204/0.609/0.748/0.078 ms
size: 1200 :: rtt min/avg/max/mdev = 0.220/0.621/0.746/0.080 ms
size: 1492 :: rtt min/avg/max/mdev = 0.256/0.343/0.487/0.043 ms
size: 1800 :: rtt min/avg/max/mdev = 0.311/0.672/0.815/0.079 ms
size: 5000 :: rtt min/avg/max/mdev = 0.347/0.556/0.803/0.048 ms
size: 20000 :: rtt min/avg/max/mdev = 0.620/0.813/1.222/0.122 ms

= в среднем по нескольким серверам снижение задержки на 80% для пинга 20 КБ

(Если только один из каналов является гигабитным, у вас все равно будет сокращение задержки на 5% для пинга 20 КБ.)

12
ответ дан 2 December 2019 в 21:43

Единственным путем задержка отбросила бы, заметно то, если текущая ссылка на 100 Мбит насыщается. Если это не будет насыщаться, то Вы, вероятно, не заметите изменения.

Кроме того, Ваше предположение, что 1Gbit ссылка сможет поддерживать большие пакеты, является неправильным. Максимальный размер пакета убежден MTU различных устройств вдоль пути, что пакет берет - запускающийся с NIC на Вашем сервере, полностью до MTU компьютера Вашего клиента. Во внутренних приложениях LAN (когда Вы управляете всеми устройствами вдоль пути), иногда возможно увеличить MTU, но в этой ситуации, Вы в значительной степени застреваете с MTU по умолчанию 1500. Если Вы отправите пакеты, больше, чем это, то они закончат тем, что были фрагментированы, таким образом, на самом деле уменьшая производительность.

15
ответ дан 2 December 2019 в 21:43

Я думаю, что у Вас есть фундаментальное неправильное представление о задержке пропускной способности и "скорости". Скорость является функцией пропускной способности и задержки. Например, считайте отправку данных по DVD поставленной, по всей стране занимая 3 дня для прибытия. Сравните это с отправкой данных через Интернет. Интернет имеет намного более низкое соединение задержки, но соответствовать "скорости" соединения с отправкой Вы должны были бы иметь, получают на уровне 9.6 МБ в секунду (справочный пример из этого источника).

В Вашем обновлении случая до более высокой пропускной способности позволил бы Вам служить большему количеству параллельных пользователей, но не улучшать задержку до любого отдельного пользователя.

3
ответ дан 2 December 2019 в 21:43

Давайте примем 300-байтовые пакеты (если Вы используете -s 300 это было бы на самом деле больше из-за заголовков).

300 bytes = 2400 bits
2400 bits / 100Mbit/sec = 0.024ms

0,024 мс являются приблизительно фактическим временем, требуемым передавать кадр (не считающий среднее время доступа, ни заголовки).

В последовательности пинг-понга потребовалось бы дважды то время (0,048 мс) плюс время для ОС для обработки запроса.

Это означает для меня, что Ваша задержка вызывается 90% из нескольких служебных факторов. Я не уверен, будете ли Вы видеть много различия с Гбитом. Вероятно, различие меньше чем на 1 мс не будет на быть примечательным веб-сервер.

Так или иначе Вы могли попробовать действительно большим пакетом как 1 400 байтов?

1
ответ дан 2 December 2019 в 21:43

Вы смотрите на мир через крошечное отверстие. Допустимый тест различий в задержке на различных скоростях был бы между двумя идентичными NICs, соединенными с кабелем кросс-соединения. Установите NICs mathching скорости 10 МБ, 100 МБ и 1000 МБ. Это покажет, что нет фактически никакого различия в задержке на различных скоростях. Весь маршрут пакетов на той же проводной скорости независимо от макс. используемой пропускной способности. После того как Вы добавляете переключатели с промежуточной буферизацией, кэширующей все изменения. Тестирование задержки через переключатель должно быть сделано только с двумя соединениями с переключателем. Любой другой трафик может влиять на задержку Вашего теста. Даже затем переключатель может динамические журналы, скорректировать счетчики типа пакета, обновить внутренние часы, и т.д. Все может влиять на задержку.

Да, переключение от 100 МБ до 1 ГБ могло бы быть быстрее (более низкая задержка) из-за изменений аппаратной конфигурации, другого NIC, другого переключателя, другого драйвера. Я видел большие изменения в задержке ping от различий в драйвере, чем какие-либо другие изменения; пропускная способность, переключатели, разгружая NICs, и т.д.

Переключатель был бы следующим самым большим изменением с прорубленным значительно быстрее, чем промежуточная буферизация для единственных тестов передачи. Однако хорошо разработанный переключатель промежуточной буферизации может настигнуть прорубленный переключатель в общей производительности при высокой загрузке. В первые годы гигабитного I'v замеченная высокопроизводительная основная плата 10 МБ переключается с более низкой задержкой, чем дешевые гигабитные переключатели.

Тесты ping практически не важны для анализа производительности при использовании Интернета. Они - быстрые тесты для получения приблизительной идеи того, что происходит на транспорте во время теста. Тестирование производственных показателей намного более сложно, чем просто ping. Высокоэффективные коммутаторы являются компьютерами, и при высокой загрузке ведут себя по-другому - изменяются в задержке.

Наличие более медленного NIC или набора NIC к более медленной скорости, могло на самом деле помочь серверу с параллельными пакетами путем регулировки входа к серверу с помощью кэша переключателей. Сингл ретранслирует, может инвертировать любое уменьшение в задержке. Обычно носитель к уровням трафика высокой загрузки важен, не единственные тесты ping. например, Старый медленный Sun Ultrasparc (более высокая задержка для единственного ping) превосходит по характеристикам новый дешевый гигабитный рабочий стол, используемый в качестве dev сервер когда менее чем 70%-й 100 МБ загрузка пропускной способности. Рабочий стол имеет более быстрого ГБ NIC, более быстрого ГБ-ГБ соединения, более быструю память, больше памяти, более быстрого диска и быстрого процессора, но это не работает, а также настроенные аппаратные средства/программное обеспечение класса сервера. Нельзя сказать, что текущий настроенный сервер рабочий ГБ-ГБ не быстрее, чем старые аппаратные средства, даже в состоянии обработать большие загрузки пропускной способности. Существует только больше сложности к вопросу "более высокой производительности", чем Вы, кажется, спрашиваете.

Узнайте, использует ли Ваш поставщик различные переключатели для 100 МБ по сравнению с соединениями на 1 ГБ. Если бы они используют ту же объединительную плату коммутатора, чем я только заплатил бы за увеличение, если бы уровни трафика превысили более низкую пропускную способность. Иначе можно найти, что в короткое время многие другие пользователи переключатся на гигабит, и у нескольких пользователей, оставленных на старом переключателе теперь, есть более высокая производительность - более низкая задержка, во время высоких нагрузок на переключатель (в целом загрузка переключателя, не только к серверам).

Яблоки и пример апельсинов: Локальный ISP предоставил новый переключатель связанным сервисам, DSL и телефону. Первоначально пользователи видели увеличение производительности. Система была перепродана. Теперь у пользователей, которые остаются на старом переключателе, есть более высокая последовательная производительность. В течение конца ночи пользователи в новой системе быстрее. Вечером при высокой загрузке старые клиенты переключателя ясно превосходят новую перегруженную систему по характеристикам.

Более низкая задержка не всегда коррелирует к более быстрой доставке. Вы упоминаете MySQl в 20 запросах для обслуживания единственной страницы. Тот трафик не должен быть на том же NIC как запросы страницы. Перемещение всего внутреннего трафика к внутренней сети уменьшит коллизии и общие количества пакетов на исходящем NIC и обеспечит большие усиления, чем.04ms усиление задержки единственного пакета. Сократите количество запросов на страницу для сокращения задержки загрузки страницы. Сожмите страницы, HTML, CSS, JavaScript, изображения для уменьшения времени загрузки страницы. Эти три изменения дадут большие общие усиления, продолжающиеся, чем оплата пропускной способности, не используясь получать.04ms сокращение задержки. Ping должен выполнить 24 часа и быть усреднен, чтобы видеть, что реальная задержка изменяется. Интеллектуальные коммутаторы теперь делают адаптивная регулировка типа RTSP с маленькими начальными увеличениями пропускной способности и большими передачами отрегулировала. В зависимости от Ваших размеров страницы (графика, большой html/css/javascript) можно видеть начальные задержки/пропускную способность соединения намного ниже/выше, чем большая страница или полностраничные передачи. Если часть Вашей страницы передает Вас потоком, может видеть решительно другую производительность между страницей и потоком.

2
ответ дан 2 December 2019 в 21:43

Это зависит от типа переключателя, с которым Вы соединяетесь. На некоторых поставщиках (таких как Crisco... Я имею в виду Cisco), пакеты ICMP будут течь назад к ЦП (затычка).

Можно найти, что лучший тест должен был бы выполнить тест от хоста к хосту с помощью ссылки на 1 Гбит/с и на 100 Мбит/с (т.е. не хост переключателя или тест хоста маршрутизатора).

В конце дня задержка собирается свестись к скорости пересылки на переключателе и подробных сведениях архитектуры переключателя (куда ASICs помещены на плату, как блокировка обрабатывается между линейными платами, и т.д.). Удача с Вашим тестированием.

1
ответ дан 2 December 2019 в 21:43

Теги

Похожие вопросы