「Intel MPI 2019 でノード間通信が遅い件について」

Intel MPI 2019 Library を利用してMPIノード間通信を行った際に、
期待した速度が出ません。
 
CX400 システムは InfiniBand FDR(4xFDR 56Gbps) で接続されておりますが、 1Gbps で頭打ちとなります。
 
原因は、Intel MPI 2018までと違い、ノード間通信にOFA(Open Fabrics Alliance)がサポートされなくなり OpenFabrics Interface (OFI)に統一された為、infiniband で使用する ファブリック(ibネットワーク)が認識できない為です。
 
問題が解決するまで、当分の間、Intel MPI 2019 は非推奨とします。 代替策として、 Intel MPI 2018 Library(もしくはそれ以前のバージョン) のご利用をご検討ください。