PCIeに接続するタイプのSSD、Intel
SSD 910 800GBを借りる事ができたのでベンチマーク結果置いておきますね
サーバは Intel Xeon L5630 を2つ積んで、HTが有効なので16コアに見えます。ベンチマークは namikawa氏の「噂の高速SSDを積んだAmazon
EC2インスタンスのI/Oベンチマークをとってみた」とほぼ同じ条件で取ってみました。
OSは CentOS 6.3 です。
Intel SSD 910 800GBは200GBのデバイスが4つに見えます。dmesgで以下のように表示されています。
scsi 1:0:0:0: Direct-Access INTEL(R) SSD 910 200GB a40D PQ: 0 ANSI: 6
scsi 1:0:0:0: SSP: handle(0x0009), sas_addr(0x5000cca013005bbd), phy(0), device_name(0x5000cca013005bbf)
scsi 1:0:0:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(0)
scsi 1:0:0:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
scsi 1:0:1:0: Direct-Access INTEL(R) SSD 910 200GB a40D PQ: 0 ANSI: 6
scsi 1:0:1:0: SSP: handle(0x000a), sas_addr(0x5000cca013005bb9), phy(7), device_name(0x5000cca013005bbb)
scsi 1:0:1:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(7)
scsi 1:0:1:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
scsi 1:0:2:0: Direct-Access INTEL(R) SSD 910 200GB a40D PQ: 0 ANSI: 6
scsi 1:0:2:0: SSP: handle(0x000b), sas_addr(0x5000cca013005bb1), phy(3), device_name(0x5000cca013005bb3)
scsi 1:0:2:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(3)
scsi 1:0:2:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
scsi 1:0:3:0: Direct-Access INTEL(R) SSD 910 200GB a40D PQ: 0 ANSI: 6
scsi 1:0:3:0: SSP: handle(0x000c), sas_addr(0x5000cca013005bb6), phy(5), device_name(0x5000cca013005bb7)
scsi 1:0:3:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(5)
scsi 1:0:3:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
ベンチマーク準備
まずfioとxfsのユーティリティを導入します
$ wget http://apt.sw.be/redhat/el5/en/x86_64/rpmforge/RPMS/fio-2.0.7-1.el5.rf.x86_64.rpm
$ sudo rpm -Uvh fio-2.0.7-1.el5.rf.x86_64.rpm
$ sudo yum install -y xfsprogs
4つのデバイスをRAID0にして、xfsでフォーマットします
$ mdadm --create --verbose --assume-clean /dev/md0 --chunk=256 --level=0 --raid-devices=4 /dev/sdb /dev/sdc /dev/sdd /dev/sde
$ mkfs.xfs -f -b size=4096 -i size=512 -l size=64m /dev/md0
$ mount -t xfs -o noatime,logbufs=8 /dev/md0 /data
ベンチマークはnamikawa氏と同じように以下のコマンドを順に実行しました
$ fio -filename=/data/test2g -direct=1 -rw=read -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=write -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=read -bs=32m -size=2G -numjobs=16 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=write -bs=32m -size=2G -numjobs=16 -runtime=10 -group_reporting -name=file1
結果
計測した結果が以下です
Benchmark Type |
Bandwidth |
IOPS |
4k, sequential read |
639.4MB/s |
159846 |
4k, sequential write |
119.7MB/s |
29915 |
4k, randam read |
664.5MB/s |
166134 |
4k, randam write |
112.7MB/s |
28181 |
32m, sequential read |
1285.7MB/s |
40 |
32m, sequential write |
1464.3MB/s |
45 |
ReadのIOPSが15万越え、帯域幅は1GB/sを大きく超えます。
この結果と今の価格をどのように考えるかちょっと悩みどころですね