Вы попробовали к символьной ссылке (без корня или sudo доступа, Вы не смогли делать это ни один)? На Вашей оболочке:
ln -s /usr/local/bin/rrdtool /usr/local/rrdtool
Одна вещь, хотя, если у Вас нет корня на поле, Ваше использование ntop будет ограничено. Ошибки, которые Вы видите, могли бы быть вызваны тем фактом.
Мы продвинули Sun X4100, переписывающий, связал GigE и iSCSI к Sun X4500 к 280MB/s.
Существует много, который может быть сделан для настройки стека TCP на Солярисе для выручения вещей, этой моей моей настраивающей конфигурации запаса. (возьмите от некоторого набора технических описаний Sun):
$ cat /etc/rc3.d/S99ndd
#!/bin/bash
NDD=/usr/sbin/ndd
$NDD -set /dev/tcp tcp_xmit_hiwat 1048576
$NDD -set /dev/tcp tcp_recv_hiwat 8388608
$NDD -set /dev/tcp tcp_max_buf 8388608
$NDD -set /dev/udp udp_xmit_hiwat 1048576
$NDD -set /dev/udp udp_recv_hiwat 8388608
$NDD -set /dev/udp udp_max_buf 8388608
$NDD -set /dev/tcp tcp_conn_req_max_q 65536
$NDD -set /dev/tcp tcp_conn_req_max_q0 65536
$NDD -set /dev/tcp tcp_fin_wait_2_flush_interval 67500
Кроме того, стоящий изучения на Вашей машине OpenSolaris изменяет fsflush интервал, корректировка прерывания "волшебство" и отключает мягкие кольца. Добавьте следующее к/etc/system (требуемая перезагрузка):
* "fsflush" tuning
set tune_t_fsflushr = 5
set autoup = 300
* Disable the Automatic Interrupt Adjustment
set dld:dld_opt = 2
* Disable "soft rings"
set ip:ip_squeue_fanout = 0
set ip:ip_soft_rings_cnt = 0
Стоящий упоминания, я делаю это на Солярисе 10 - не OpenSolaris - но я думаю, что tunables должен работать на Вас все равно.
Я - большой поклонник Filebench для проигрывания вокруг с настраивающимися опциями и выполнением тестов пропускной способности.
(Недавно переименованный) выпуск OpenSolaris 2009.06 надеется быть очень захватывающим в мире iSCSI и ZFS.
Надежда это помогает некоторым!
Я обхожу 90 МБ/с к своим массивам EMC AX150i по iSCSI на Ethernet на 1 ГБ.
Я смог продвинуть данные по iSCSI к ссылкам на более чем 1 ГБ приблизительно на 200 Мбит/с. Но мне разместила 14 дисков RAID 6 EMC CX4-240 с не очень еще использованием кэша в то время.
Самое большое узкое место, вероятно, будет суммой кэша контроллера и скоростью дисков (для того, когда кэш станет полным).
Для просто единственного dd или bonnie ++ (необработанная скорость, линейная запись) необходимо стать достаточно близкими к проводной скорости.
Но Ваше узкое место будет дисковым массивом, после того как Вы начинаете получать случайную загрузку IO нескольких движения VMs, намного больше, чем транспорт.
Кроме того, если у Вас не будет кэша записи с аварийным батарейным питанием с существенным количеством RAM, то Ваша производительность рухнет, как только Вы начинаете получать много записей с любым другим продолжением IO.
Я обхожу 80 Мбит/с к своему Windows Server по ISCSI на 1G Ethernet. Цель: сервер KernSafe iStorage Инициатор http://www.kernsafe.com/Product.aspx?id=5: Microsoft Initiator www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang=en
Hardisk: ATA 7200
Для тех из нас, кто ближе к полупрофессиональному (а не профессиональному) Я получаю постоянное и последовательное чтение 150 МБ и запись 120 МБ с сервера W2012, двойной 1 ГБ nic, объединенный через управляемый драйвер draytek, переключение на blackarmorsnas через медь RJ45, однократная передача файла 20 ГБ. Никаких других одновременных операций во время теста. Чтобы добиться этого, я использую jumbo-кадры 9k, поток rx и tx, то есть все обычные оптимизации драйверов, но без каких-либо дополнительных настроек, кроме включения и увеличения jumbo-кадра до максимума.