QNAP TS-879U-RP RAID10 10G NIC iSCSIベンチマーク

QNAP TS-879U-RP RAID10 10G NIC iSCSIベンチマーク結果
VMware ESXi 5.1からiSCSIでTS-879U-RPに接続し、データストアとしてマウント
そこにWindows7 Pro 64bitをお試しインストールして測定してみた。

1回目 カテゴリー6eのLANケーブル

2回目 カテゴリー6eのLANケーブル

2回目移行QD32のWriteが劇的に上がった。

3回目 カテゴリー6eのLANケーブル

4回目 カテゴリー7のLANケーブル

5回目 カテゴリー7のLANケーブル

NASサーバー QNAP TS-879U-RPの設置

早速荷物開封

Seagate ST3000NC002を8台 予備2台 計10台

Intel 10G NIC X540-T1 と X540-T2

ロープロファイルのブラケット入ってる

X540シリーズは公式ではサポートしてないんです。
正式サポートしてるのは、前の機種でX520シリーズ
QNAPの公式コミュニティで、スレッドが立ってますが、動くらしい、でもサポートされてない。
http://forum.qnap.com/viewtopic.php?f=182&t=60184

QNAP TS-879U-RP開封

ん?

あれ? この横に長い箱 これひょっとして、ラックレールか?
頼んだ覚えないぞ
レールはオプションのはずだが・・・

じゃーん! やっぱりレールだった。
付属するようになったのかな?

付属品

本体

フタを開けてみる。

ヒートシンク外せば、CPU交換できそうだな
んで、Xeonとか乗せてみたり
あとECCメモリ積んでみたり
それが可能なら、ワンランク上の機種TS-EC879U-RPになるなw。

メモリはどこのブランドか?

トランセンドw

あれ?しかも4GB!

公式の仕様じゃメモリは2GBじゃないか?

型番はTS512MLK64V6Nこれかなぁ?
結構安いからもう一枚買って8GBにしてやろうか

最後は10G NIC X540-T1とX540-T2を刺し、ディスクを8台積んで
無事終了!

NICのX540-T1はVMwareのハイパーバイザー用に購入した物で
とりあえず、10G 2枚差しテストという事で、QNAPに刺してみました。
X540-T1は、この間組み立てたIntel Server Board S1200BTSRに刺してみる予定。

起動中

NASサーバー QNAP TS-879U-RPの導入

電気代がバカにならないので
「LinuxルーターとDB以外は仮想化しちゃおう計画」が発動!

んで、悩んだのが、

・仮想化ゲストを保存するストレージ
・ストレージとサーバー間の接続
・しかも低コスト

これらをどうするか

DELLとかのNASやiSCSIサーバーって100万以上しちゃいそうだし

普通にサーバー買って、RAIDカード刺してディスクたくさん積めば良いかと思ったんだけど
管理の手間と、コストが・・・

もう少し安くて、ラックマウント型で無いかなと

そこで見つけたのが、QNAP社の製品
家庭向け、小規模オフィス向けかなぁっと思ってたんでですが
ハイクラスの製品もあるようで、
金額的にお試しする金額じゃないのですが
ディスクを8台積めて、PCI-Eが二つ付いているQNAP TS-879U-RPを購入

bonding

mode=

ボンディングポリシーを指定できます。 は以下のいずれかになります。

balance-rr 又は 0 — 耐障害性とロードバランシングのためラウンドロビンポリシーを設定します。利用可能な第 1 のインターフェースからそれぞれのボンディングされたスレーブインターフェースで送受信が順次行われます。

active-backup 又は 1 — 耐障害性のためアクティブなバックアップポリシーを設定します。利用可能な第 1 のボンディングされたスレーブインターフェースにより送受信が行われます。別のボンディングされたスレーブインターフェースは、アクティブなボンディングされたスレーブインターフェースが失敗した場合にのみ使用されます。

balance-xor 又は 2 — 耐障害性とロードバランシングのため XOR (排他的論理和) ポリシーを設定します。この方法を使用すると、インターフェースによって受信要求の MAC アドレスとスレーブ NIC の 1 つの MAC アドレスが一致します。このリンクが確立すると、利用可能な第 1 のインターフェースから送信が順次行われます。

broadcast 又は 3 — 耐障害性のためブロードキャストポリシーを設定します。全ての送信は、全てのスレーブインターフェースで行われます。

802.3ad 又は 4 — IEEE 802.3ad 動的リンクアグリゲーションのポリシーを設定します。同一の速度とデュプレックス設定を共有するアグリゲーショングループを作成します。アクティブなアグリゲーターの全てのスレーブで送受信を行います。802.3ad に対応するスイッチが必要です。

balance-tlb 又は 5 — 耐障害性とロードバランシングのため送信ロードバランシング (TLB) ポリシーを設定します。発信トラフィックは、各スレーブインターフェースの現在の負荷に従って分散されます。受信トラフィックは、現在のスレーブにより受信されます。受信しているスレーブが失敗すると、別のスレーブが失敗したスレーブの MAC アドレスを引き継ぎます。

balance-alb 又は 6 — 耐障害性とロードバランシングのためアクティブロードバランシング (ALB) ポリシーを設定します。IPV4 トラフィック用の送受信ロードバランシングが含まれます。ARP ネゴシエーションにより、受信ロードバランシングが可能です。

https://access.redhat.com/knowledge/docs/ja-JP/Red_Hat_Enterprise_Linux/6/html/Deployment_Guide/sec-Using_Channel_Bonding.html

vsftpd ls_recurse_enable

ls_recurse_enable=YES

彼方此方のブログでは、ディレクトリの削除を可能にするとか書いてあるけど
この説明、違うんじゃないかな?
NOにしてもディレクトリ削除できてるし

https://security.appspot.com/vsftpd/vsftpd_conf.html

ls_recurse_enable
When enabled, this setting will allow the use of "ls -R". This is a minor security risk, because a ls -R at the top level of a large site may consume a lot of resources.
Default: NO

YESにすると「ls -R」が許可されるって書いてあると思うんだけど
うーん

man ls

-R サブディレクトリがあれば、再帰的にリスト表示する。

再帰的にリスト表示だから、沢山データを保持しているサイトで、一番上の階層で「ls -R」やったらリソースバカ食いしますよって書いてるんじゃないかな?
再起処理ってメモリ喰うからなぁ・・・
仮に一万個ディレクトリがあったら、全部舐めるのかな?
IOも沢山発生するだろうし

この設定オフで良いんじゃ無い?
みんなYESにしてるけど不都合あるのかな?

Intel Server Board S1200BTSRでVMware ESXi 5.1

用途別にサーバーを分離させるため、仮想化用のサーバーを構築
沢山メモリを乗せたいので、今回はMicroATXのマザーを選択。

マザーボード

Intel Server Board S1200BTSR マザーボード 付属品

CPUは Xeon E3-1265L V2 LGA1155

CPU装着

メモリはトランセンド TS1GLK72V6H [8GB DDR3 1600 ECC DIMM CL11 2Rx8]
これを4個で、合計32ギガ

メモリ装着

ケースは[In Win]というメーカーのIW-BL634B/Jを用意

ケースにマザーボードを取り付け

CPUに供給する12V電源(?) マザー側は8pin 電源ユニット側は4pinなので、変換する。
(4pinをそのまま差しても起動はする)

ディスクはシーゲートのST3000DM001
24pinの電源はケーブルが短く、ギリギリで差し込むことが出来ました。

CDドライブは不要なので、OSインストール時だけ装着し外す。

今回、VMware ESXi 5.1のハイパーバイザーをインストールしてみた。
(vSphere Clientでログイン中)

NICは2つ付いてるけど
片方のチップ82579が認識せず、色々と格闘

ゲストのデータはNASに移そうと思う。
次回はNASの構築をやってみたい。