ZFS на Linux, медленно писать?
Решил дать ZFS на linux v28 go (родной порт ubuntu) на моих 5x 2TB WD Green дисках расширенного формата. Создал пул, используя "zpool create -o ashift=12 raidz1 "
Статус zpool ничего необычного не показывает.
Я сделал dd if=/dev/zero в смонтированный пул, и я никогда не смогу достичь скорости записи выше 20M/s. Я попытался rsync пару сотен гигабайт файлов, но даже тогда "zpool iostat" дает мне максимум 20 миллионов записей. Загрузка процессора не очень высока, и мои 8 ГБ оперативной памяти используются на 90% - что я считаю нормальным.
Скорость чтения кажется мне оптимальной.
Я поиграл с zfs_vdev_max/min_pending. Поскольку я включил AHCI, я попытался установить эти значения в 1, но это уменьшило мои записи до 10M. При доведении до мин / макс 4/8 вернул его обратно к скорости записи 20M.
Сейчас я делаю скраб, и это будет со скоростью 170 м / с.
Я думаю, что должно быть что-то, что я пропустил? Или это нормально?
Приложены мои настройки. Проигнорируйте разреженный файл, сохранив его для замены на диск позже.
ZDB:
myData:
version: 28
name: 'myData'
state: 0
txg: 12
pool_guid: 14947267682211456191
hostname: 'microserver'
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 14947267682211456191
create_txg: 4
children[0]:
type: 'raidz'
id: 0
guid: 361537219350560701
nparity: 1
metaslab_array: 31
metaslab_shift: 36
ashift: 12
asize: 10001923440640
is_log: 0
create_txg: 4
children[0]:
type: 'file'
id: 0
guid: 18296057043113196254
path: '/tmp/sparse2'
DTL: 35
create_txg: 4
offline: 1
children[1]:
type: 'disk'
id: 1
guid: 13192250717230911873
path: '/dev/disk/by-id/wwn-0x50014ee2062a07cd-part1'
whole_disk: 1
create_txg: 4
children[2]:
type: 'disk'
id: 2
guid: 7673445363652446830
path: '/dev/disk/by-id/wwn-0x50014ee25bd8fbcc-part1'
whole_disk: 1
create_txg: 4
children[3]:
type: 'disk'
id: 3
guid: 1997560602751946723
path: '/dev/disk/by-id/wwn-0x50014ee25b1edbc8-part1'
whole_disk: 1
create_txg: 4
children[4]:
type: 'disk'
id: 4
guid: 16890030280879643154
path: '/dev/disk/by-id/wwn-0x50014ee25b7f2562-part1'
whole_disk: 1
create_txg: 4
zfs get all myData:
NAME PROPERTY VALUE SOURCE
myData type filesystem -
myData creation Tue Apr 24 8:15 2012 -
myData used 2.05T -
myData available 5.07T -
myData referenced 2.05T -
myData compressratio 1.00x -
myData mounted yes -
myData quota none default
myData reservation none default
myData recordsize 128K default
myData mountpoint /myData default
myData sharenfs off default
myData checksum on default
myData compression off default
myData atime on default
myData devices on default
myData exec on default
myData setuid on default
myData readonly off default
myData zoned off default
myData snapdir hidden default
myData aclinherit restricted default
myData canmount on default
myData xattr on default
myData copies 1 default
myData version 5 -
myData utf8only off -
myData normalization none -
myData casesensitivity sensitive -
myData vscan off default
myData nbmand off default
myData sharesmb off default
myData refquota none default
myData refreservation none default
myData primarycache all default
myData secondarycache all default
myData usedbysnapshots 0 -
myData usedbydataset 2.05T -
myData usedbychildren 9.68M -
myData usedbyrefreservation 0 -
myData logbias latency default
myData dedup off default
myData mlslabel none default
myData sync standard default
myData refcompressratio 1.00x -
zpool get all myData:
NAME PROPERTY VALUE SOURCE
myData size 9.06T -
myData capacity 28% -
myData altroot - default
myData health DEGRADED -
myData guid 14947267682211456191 default
myData version 28 default
myData bootfs - default
myData delegation on default
myData autoreplace off default
myData cachefile - default
myData failmode wait default
myData listsnapshots off default
myData autoexpand off default
myData dedupditto 0 default
myData dedupratio 1.00x -
myData free 6.49T -
myData allocated 2.57T -
myData readonly off -
myData ashift 12 local