PCIeに接続するタイプのSSD、Intel SSD 910 800GBを借りる事ができたのでベンチマーク結果置いておきますね

サーバは Intel Xeon L5630 を2つ積んで、HTが有効なので16コアに見えます。ベンチマークは namikawa氏の「噂の高速SSDを積んだAmazon EC2インスタンスのI/Oベンチマークをとってみた」とほぼ同じ条件で取ってみました。

OSは CentOS 6.3 です。

Intel SSD 910 800GBは200GBのデバイスが4つに見えます。dmesgで以下のように表示されています。

scsi 1:0:0:0: Direct-Access     INTEL(R)  SSD 910 200GB   a40D PQ: 0 ANSI: 6
scsi 1:0:0:0: SSP: handle(0x0009), sas_addr(0x5000cca013005bbd), phy(0), device_name(0x5000cca013005bbf)
scsi 1:0:0:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(0)
scsi 1:0:0:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
scsi 1:0:1:0: Direct-Access     INTEL(R)  SSD 910 200GB   a40D PQ: 0 ANSI: 6
scsi 1:0:1:0: SSP: handle(0x000a), sas_addr(0x5000cca013005bb9), phy(7), device_name(0x5000cca013005bbb)
scsi 1:0:1:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(7)
scsi 1:0:1:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
scsi 1:0:2:0: Direct-Access     INTEL(R)  SSD 910 200GB   a40D PQ: 0 ANSI: 6
scsi 1:0:2:0: SSP: handle(0x000b), sas_addr(0x5000cca013005bb1), phy(3), device_name(0x5000cca013005bb3)
scsi 1:0:2:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(3)
scsi 1:0:2:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)
scsi 1:0:3:0: Direct-Access     INTEL(R)  SSD 910 200GB   a40D PQ: 0 ANSI: 6
scsi 1:0:3:0: SSP: handle(0x000c), sas_addr(0x5000cca013005bb6), phy(5), device_name(0x5000cca013005bb7)
scsi 1:0:3:0: SSP: enclosure_logical_id(0x5001517bb289a8b0), slot(5)
scsi 1:0:3:0: qdepth(254), tagged(1), simple(1), ordered(0), scsi_level(7), cmd_que(1)

ベンチマーク準備

まずfioとxfsのユーティリティを導入します

$ wget http://apt.sw.be/redhat/el5/en/x86_64/rpmforge/RPMS/fio-2.0.7-1.el5.rf.x86_64.rpm
$ sudo rpm -Uvh fio-2.0.7-1.el5.rf.x86_64.rpm
$ sudo yum install -y xfsprogs

4つのデバイスをRAID0にして、xfsでフォーマットします

$ mdadm --create --verbose --assume-clean /dev/md0 --chunk=256 --level=0 --raid-devices=4 /dev/sdb /dev/sdc /dev/sdd /dev/sde
$ mkfs.xfs -f -b size=4096 -i size=512 -l size=64m /dev/md0
$ mount -t xfs -o noatime,logbufs=8 /dev/md0 /data

ベンチマークはnamikawa氏と同じように以下のコマンドを順に実行しました

$ fio -filename=/data/test2g -direct=1 -rw=read -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=write -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=randread -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=randwrite -bs=4k -size=2G -numjobs=64 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=read -bs=32m -size=2G -numjobs=16 -runtime=10 -group_reporting -name=file1
$ fio -filename=/data/test2g -direct=1 -rw=write -bs=32m -size=2G -numjobs=16 -runtime=10 -group_reporting -name=file1

結果

計測した結果が以下です

Benchmark TypeBandwidthIOPS
4k, sequential read639.4MB/s159846
4k, sequential write119.7MB/s29915
4k, randam read664.5MB/s166134
4k, randam write112.7MB/s28181
32m, sequential read1285.7MB/s40
32m, sequential write1464.3MB/s45


ReadのIOPSが15万越え、帯域幅は1GB/sを大きく超えます。
この結果と今の価格をどのように考えるかちょっと悩みどころですね

このブログ記事について

このページは、Masahiro Naganoが2012年7月27日 11:51に書いたブログ記事です。

ひとつ前のブログ記事は「ロードアベレージを監視して任意のコマンドを実行するコマンド 」です。

次のブログ記事は「sort と uniq でさくっとランキングを出力する」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

ウェブページ

OpenID対応しています OpenIDについて
Powered by Movable Type 4.27-ja