4gpu
-
February 17, 2024 381
消費電力が最大級のgpu、RTX4090を4枚でgpu burnすると消費電力はどのくらいになるのかIPMIから確認してみました。
使用したマシンはSupermicroのSYS-741GE-TNRT、CPU: 2 * Intel Xeon Silver 4110T TDP 150W、Memory : 16 * 32GB DDR5-4800 ECC RDIMM、SSD: 960GB M.2 PCIe Gen4 x4 NVMe M.2 SSDです。
gpu_burnを実行してしばらくすると最初のscreenshotの状態で安定します。
-
June 25, 2023 181RTX 6000 Adaを1, 2, 4, GPU 使い、batch size を64, 128, 256, 512, 1024 と変化させてtf_cnn_benchmarks での学習速度を計測しました。 modelは、resnet50, inception3, vgg16, nasnet, resnet152, inception4です。 fp16とfp32の学習速度を計測しました。 以前測定したRTX A6000と比較してどれほど高速になったかを掲載します。Geforce RTX 4090との比較も掲載します。 GPUサーバー選択の参考になれば幸いです。
-
June 18, 2023 99GeForce RTX 4090をDeepLearningなどで並列動作させようとした場合、driverのバージョンを限定(525.105.17)しないとうまく動作しません。
-
October 23, 2020 15GeForce RTX 3090 の Deep Learning 学習での性能評価のため、HPCDIY-ERM1GPU4TS に4枚実装して、tensorflow で tf_cnn_benchmarks.py(ダウンロートはこちら)を実行してみました。 TensorFlow を新しくして再計測したらもっと高速になりました。その記事はこちら。 CPU: AMD EPYC Rome 7252 DP/UP 8C/16T 3.1G 64M 120W, Memory: 128GB, SSD: NVMe M.2 512GB NVIDIA Driver: 455.32.00 TensorFlow: nvcr.io/nvidia/tensorflow:20.09-tf1-py3
-
October 23, 2020 27HPCDIY-ERM1GPU4TS(こちら)にGeForce RTX 3090 を4枚実装し、gpu_burn(こちら)を実行して、消費電力と温度が定常状態になるまでを nvidia-smi -l で監視してみました。
-
October 23, 2020 25HPCDIY-ERM1GPU4TS(こちら)に GeForce RTX 3090 を4枚実装して、nvidia-smi と deviceQuery を実行してみた。