NutaNice Xperience

主にNutanix製品を検証したり触ったりした結果をつづっています。※このブログの内容は個人の見識や見解をもとに作成しています。参考にされる場合は自己責任でご活用ください。実際に製品を使用される場合は、メーカードキュメントの手順に従い実施してください。

Nutanix AHVで物理NIC分けてDRネットワーク作成してみた

Nutanix AHVではCVMの管理系の通信とストレージ系の通信を分けるバックプレーンLANをいうものがあり、もともとはVLANでセグメントを分けることが可能でした。

最近のAOSでは、このバックプレーンLANを物理的に分けるだけでなく、DRレプリケーション用のネットワークやVolumes用のネットワークを物理的にも分けることができるようになりました。

今回は、NutanixのAsync DRなどで使えるDRネットワークを管理系のネットワークと物理的に分離してみました。

今回の環境

AOS: 5.20.1.1 LTS
AHV: 20201105.2096

DRネットワークを作成する前に、アップリンクを物理的に分離するために新しい仮想スイッチを作成しています。仮想スイッチの作成とアップリンクの設定は以下記事で紹介しています。
「Nutanix AHVで仮想スイッチ(Virtual Switch)を追加して、アップリンクを設定してみる」

ちなみに、今回使用する環境では、デフォルトの仮想スイッチvs0のアップリンクを10G-NIC×2、DRネットワーク用に追加した仮想スイッチvs1のアップリンクを1G-NIC×2としています。
f:id:tomomartin:20210907225650p:plain

DRネットワークの作成

Prism から [ネットワーク構成] >> [内部インターフェース] >> [新規のインターフェースを作成する] の順にクリックします。
f:id:tomomartin:20210907230237p:plain

新規追加した [vs1] を仮想スイッチとして選択し、CVMの管理系のネットワークと別ネットワークで値を入力しました。細かいパラメーターの説明等は省略。
f:id:tomomartin:20210907231024p:plain

しばらくすると、CVMへ新規vNICである [ntnx0] が追加され、こちらがDRネットワーク用のインターフェースとして利用されます。作成したDRネットワークを確認するには、ネットワークセグメンテーションの確認コマンドを実行します。

[nutanix@cvm]$ network_segment_status

コマンドの実行結果は以下のようになります。

[nutanix@cvm]$ network_segment_status
2021-09-07 14:14:22,054Z INFO MainThread zookeeper_session.py:182 network_segment_status is attempting to connect to Zookeeper
2021-09-07 14:14:22,058Z INFO Dummy-1 zookeeper_session.py:614 ZK session establishment complete, sessionId=0x37bbb15076317dd, negotiated timeout=20 secs
2021-09-07 14:14:22,065Z INFO MainThread zookeeper_session.py:182 network_segment_status is attempting to connect to Zookeeper
2021-09-07 14:14:22,067Z INFO Dummy-2 zookeeper_session.py:614 ZK session establishment complete, sessionId=0x27bbb1039bd18ac, negotiated timeout=20 secs
Network Segmentation is currently enabled for services

=== Service Segmentation Configuration ===

2021-09-07 14:14:22,073Z INFO MainThread zookeeper_session.py:182 network_segment_status is attempting to connect to Zookeeper
2021-09-07 14:14:22,075Z INFO Dummy-2 zookeeper_session.py:614 ZK session establishment complete, sessionId=0x27bbb1039bd18ad, negotiated timeout=20 secs
name: "ntnx0"
descriptive_name: "DR-Network-LAN"
ip_pool: "pool-2208"
vlan_id: 2208
gateway: "172.22.8.1"
services {
  name: kDR
  service_state: kConfigured
}
vip: "172.22.8.90"
host_physical_network: "br1"
mtu: 1500
vnicinfo {
  service_vm_id: 10
  ip: "172.22.8.94"
}
vnicinfo {
  service_vm_id: 7
  ip: "172.22.8.91"
}
vnicinfo {
  service_vm_id: 8
  ip: "172.22.8.92"
}
vnicinfo {
  service_vm_id: 9
  ip: "172.22.8.93"
}
client_subnet: ""
netmask: "255.255.255.0"
host_virtual_switch: "vs1"

Current leader is xxx.xxx.xxx.xxx

Last operation: enable
Network type: kService
Final status: Success
Run 'network_segment_status --last_task' for more info

今回は、4ノードクラスターで作成したので、4つのCVMへ追加された [ntnx0] へそれぞれIPアドレスが付与され、DR用のVIP(仮想IPアドレス)も設定されていることが確認できました。

ちなみに、作成したDRネットワークはPrism上では以下のように表示されます。
f:id:tomomartin:20210907233100p:plain

今回は簡単でしたが、物理的に分離したDRネットワークの作成方法でした。また後日、このDRネットワークを用いたAsync DRの設定方法などについて紹介できればと思います。