TESLA V100 NVLink 2枚、TITAN RTX 4枚、RTX 2080 ti 4枚、GTX 1080 ti 4枚がたまたま揃ったので、Caffeでの学習時間を測定してみました。

GPU BatchSize/GPU 学習時間1GPU(s) 学習時間2GPU(s) 学習時間4GPU(s)
V100 32GB NVLink 256 1915 984 N/A
TITAN RTX 192 2129 1091 607
RTX 2080 ti 80 2352 1253 671
GTX 1080 ti 80 2982 1547 822

 

 

 

 

 

GTX 1080 tiを1枚に比べてどれだけスピードアップしているかの比率を比較すると次のようになります。

GPU 1GPU 2GPU 4GPU
V100 32GB NVLink 1.56 3.03 N/A
TITAN RTX 1.40 2.73 4.91
RTX 2080 ti 1.27 2.38 4.44
GTX 1080 TI 1.00 1.93 3.63

同じGPUで枚数が増えるとどれだけスピードアップするかの比率は次のようになります。

GPU 1GPU 2GPU 4GPU
V100 32GB NVLink 1.00 1.95 N/A
TITAN RTX 1.00 1.95 3.51
RTX 2080 ti 1.00 1.88 3.51
GTX 1080 ti 1.00 1.93 3.63

テスト方法はhttps://server-gear.com/shop/index.php/blog/gtx1080ti-vs--p100/と同じ方法です。

V100のWSやサーバーはこちらになります。

TITAN RTXのWSやサーバーはこちらになります。

RTX 2080 tiのWSやサーバーはこちらになります。