ディープラーニングにおける学習の高速化、CAD、BIMなどのモデリングアプリケーション、あるいは大規模シミュレーション環境など、幅広い場面で活用されているのがGPUサーバーです。このGPUサーバーは、規模が大きくなればオンプレミスで運用するのが難しくなり、その一方でクラウドサービスを利用する際には注意すべき点もあります。ここでは、GPUサーバーを使ったインフラ基盤をどのように構築すべきかについて解説していきます。
ビジネスシーンでのニーズが高まるGPU
昨今話題となっているディープラーニングの学習において、CPUよりも高速に処理が行えることから注目を集めているのがGPU(Graphics Processing Unit)です。もともとはグラフィックス描画に特化したプロセッサとして利用されていましたが、その計算能力を別の領域で利用するGPGPUと呼ばれる技術が広まったことで、AIや各種シミュレーション、暗号解読、医療など、幅広い分野でGPUが活用されるようになりました。
「GPUPU」とは?

このように利用範囲が広がった背景もあり、昨今ではGPUを利用できる仮想サーバーを提供するクラウドサービスも増えています。GPU付きインスタンスとして、たとえばAmazon Web Servicesでは「Amazon EC2 P3」を、マイクロソフトはMicrosoft Azureの中で「Virtual Machines Nシリーズ」を提供しています。
“ネットワークの先にある”GPUの処理能力を生かした新たなソリューションとして、「eVDI(Engineering Virtual Desktop Infrastructure)」と呼ばれる領域も注目を集めています。これはサーバー上で仮想デスクトップ環境を実行し、その上で3D CADなど高いグラフィックス性能が求められるアプリケーションを利用するというものです。
従来、こうしたアプリケーションを利用するユーザーは、高性能なワークステーションを手元に置いて使うことが一般的でした。しかしサーバー上のGPUを使って仮想デスクトップ環境を構築するeVDIであれば、ワークステーションがない環境でもネットワーク経由で仮想デスクトップにアクセスし、3D CADなどを利用することが可能となります。これによって場所に縛られずに作業を行えるようになるほか、データをサーバー上に集約できるため、情報漏えい対策などにおいても有効でしょう。
GPUサーバーを活用したeVDIの例
