【AI、ディープラーニング】GPUマシンで学習はどれくらい速くなるのか(動画編)
最終更新日: 2019/04/25 11:06am
こんにちは。経理の小高です。
もうすぐGWですね。お出かけのご予定ですか??
是非、川越にいらしてください。
さて、以前「GPUマシンでモデルの学習はどれくらい速くなるのか」という記事でAlexNetの学習が177倍!?速くなったと書きました。
先日、知り合いに「このくらい速くなるんだよ」というデモンストレーションをしたら喜んでくれましたので、今回はその動画を掲載しようと思います。
少し前置きです。
使っている機械のGPUはNVIDIA GeForce GTX1080Ti 11GB(下)、CPUはIntel Core i5-7400 3GHz/4Core(ケイビーレイク)です。
このマシンに以下をインストールしています。前回の記事と比較するとCUDAとcuDNNのバージョンが上がっています。
- Ubuntu 16.04LTS:OS
- CUDA10.0:GPGPUのためのインターフェイス
- cuDNN7.5:DNN特有の数値計算を提供するライブラリ
- Python3.6:開発環境 Anacondaでインストール
- Chainer5.3:深層学習フレームワーク
- その他もろもろ:OpenCV3とか
学習は、弊社のオクトパス(統合IT管理プラットフォーム。平成29年度川越市KOEDO E-Pro認定技術)で使っている4層の比較的浅いモデルです。
フレームワークは上も書いたChainer5.3です。
以下が「こんなに速いんだよ」という動画です。
Windows10のTeraTermでUbuntuに接続して、学習のためのpythonを動かしています。
ミニバッチ100ごとにロスと精度を標準出力に書き出します。CPUで動かしたときはゆっくりだけど、GPUで動かすと速くなるよ、というデモです。
操作は以下です。起動時に時間がかかるのは、画像を35000枚近く読み込むためです(この分はCPUもGPUも変わりません)。
- CPUで学習開始(最初にエラーをはいてますが、ご愛敬ということでご容赦ください)
- Ctrl-Cでインタラプト
- GPUで学習開始
- Ctrl-Cでインタラプト
速いでしょ?
←「【お知らせ】バックアップにこだわった低価格ファイルサーバーShareの発売を開始しました。」前の記事へ 次の記事へ「【お知らせ】イー・レンジャーかわら版(2019年5月号:社長のデータはどこにある?? シェア登場。)を発行しました。」→