次の方法で共有


Intel とマイクロソフトが Azure でのディープ ラーニングに最適な環境を共同開発

執筆者: Gopi Kumar (Principal Program Manager, Microsoft)

このポストは、2019 年 3 月 7 日に投稿された Intel and Microsoft bring optimizations to deep learning on Azure の翻訳です。

 

今回の記事は、Intel の Ravi Panchumarthy 氏と Mattson Thieme 氏と共同で執筆しました。

マイクロソフトと Intel はこのたび、Azure 向けに最適化されたディープ ラーニング フレームワークを共同開発したことを発表します。その成果である Intel Optimized Data Science VM for Linux (Ubuntu) は、Azure Marketplace から提供されています。

ここ数年、ディープ ラーニングは機械学習アプリや認識アプリの最先端技術として注目を集めています。ディープ ラーニングは非線形変換の層をいくつも重ねたニューラル ネットワークを活用した機械学習手法の 1 つであり、そのシステムがデータからの学習を可能にし、機械学習のさまざまな課題に対応する正確なモデルを構築します。コンピューター ビジョン、言語理解、音声認識はいずれもディープ ラーニングを活用して活発に研究開発が進められている分野です。こうしたディープ ニューラル ネットワークにおけるイノベーションにより、画像認識や音声認識 (英語)、機械翻訳 (英語) のアルゴリズムは人間と同等の性能を発揮できるようになってきました。この進化はデータ サイエンティスト、企業、メディアから常に注目を集めています。しかし、多くの企業やデータ サイエンティストには技術的な限界もあり、ディープ ラーニングを大規模に活用することには難しい面もありました。 

TensorFlow といった人気のディープ ラーニング フレームワークの多くでも、CPU でのトレーニングや推論のために十分に最適化されているとは言えませんでした。そこで Intel は、Intel® Xeon プロセッサ向けにオープン ソースでフレームワークの最適化を進めました。そして今回、マイクロソフトとの連携により、Microsoft Azure 上のディープ ラーニング ワークロードの高速化をサポートする新しい VM イメージをマーケットプレースから提供することになりました。

「マイクロソフトは、お客様が Azure 上でさまざまな機械学習シナリオを最適に実行できる方法を常に模索しています。今回の Intel との提携により、両社のツールを融合させた事前構成済みのパッケージを Azure Marketplace から提供できるようになりました」 

– Venky Veeraraghavan (マイクロソフト、ML プラットフォーム チーム、パートナー グループ プログラム マネージャー) 

Azure でのディープ ラーニング ワークロードの高速化

広く利用されている Data Science Virtual Machines (DSVM) をベースに構築したこの VM イメージでは、Intel の TensorFlow と MXNet の最適化バージョンを搭載した Python 環境を展開できます。Intel® アドバンスト ベクトル エクステンション 512 (Intel® AVX-512) と Intel® Math Kernel Library for Deep Neural Networks (Intel® MKL-DNN、英語) による最適化により、Intel® Xeon® プロセッサでのトレーニングや推論の演算性能が向上します。Azure F72s_v2 VM インスタンスで実行したところ、この最適化によって標準的な CNN トポロジにおけるトレーニングのスループットが平均 7.7 倍向上しました (英語)。詳細については、こちらの記事 (英語) をご覧ください。 

この変更によって、データ サイエンティストや AI 開発者の作業に影響が及ぶことはありません。これまでと変わらず TensorFlow や MXNet フレームワークでコーディングを行えます。なお、DSVM 上のこの新しい Python (conda) 環境 (intel_tensorflow_p36、intel_mxnet_p36) でコードを実行すれば、Azure 上の Intel® Xeon プロセッサ搭載の F シリーズまたは H シリーズ VM インスタンスで、この最適化をフルに活用することができます。この VM イメージは DSVM をベースに構築されているため、データ サイエンスや機械学習向けの既存のツールはそのままご利用いただけます。コードを記述し、モデルのトレーニングが完了したら、クラウドやエッジにデプロイして推論を行えます。 

「Intel とマイクロソフトは共に人工知能の普及を進めています。その方法として、開発者やデータ サイエンティストの方々が Azure 上で機械学習アプリ用に Intel のハードウェアとソフトウェア オプティマイゼーションをより簡単に活用できるようにしようと取り組んでいます。Intel Optimized Data Science VM (DSVM) では、コードを修正することなく既存のフレームワークを最大 7.7 倍高速化できます。これは世界中のマイクロソフトと Intel のお客様にとって大きなメリットです」 

– Binay Ackalloor 氏 (Intel、AI プロダクト グループ、事業開発部門ディレクター) 

パフォーマンス

Azure F72s_v2 インスタンスで Intel のベンチマーク テストを実施し、TensorFlow の基本的なビルドと最適化バージョンを比較したところ、以下の結果となりました。 Bar graph of Default TensorFlow vs. Intel Optimization for TensorFlow

図 1: TensorFlow 向け Intel® オプティマイゼーションにより、主な CNN トポロジのトレーニング スループットが平均 7.7 倍向上しました (赤線が平均値)。tf_cnn_benchmarks (英語) を使用して、ご自身でベンチマークを行ってみてください。このパフォーマンス結果は、Intel が 2019 年 1 月 15 日に行ったテストに基づいています。テストの構成はこちらをご確認ください (英語)。 

利用を開始するには 

Intel Optimized DSVM の利用を開始するには、Azure Marketplace の製品ページにアクセスし、[今すぐ入手する] をクリックしてください。Azure Portal の指示のとおりに入力していくと、DSVM ツールがすべて揃った VM が作成されます。この VM は Intel により最適化されたディープ ラーニング フレームワークが事前構成されているため、すぐに使用できます。  Screenshot of Intel Optimized Data Science VM for Linux in Azure marketplace

Intel Optimized DSVM は、Azure 上の Intel Xeon プロセッサ搭載 VM インスタンスでのディープ ラーニング モデルの開発・トレーニングに理想的な環境です。マイクロソフトと Intel は長期的なパートナーシップのもと、今後も Azure Machine Learning サービスAzure IoT Edge といった他の Azure サービス向けにも AI のソリューションやフレームワークを最適化する取り組みを進めていきます。

次のステップ