[db analytics showcase Sapporo 2017] B14: GPU コンピューティング最前線 by エヌビディア 佐々木邦暢Insight Technology, Inc.
GPUの演算能力を汎用的に活用する「GPUコンピューティング」が誕生してはや10年。多くのスーパーコンピューターに採用されるなど科学技術計算の領域で実績を積み重ねたこの技術は、近年のAIムーブメントを支える重要な存在になっています。高度な画像認識、自然言語処理、そして自動運転などますます複雑になる問題のために登場した Volta 世代の新型GPUをはじめ、GPUコンピューティングの最新情報をお伝えします。
ゼロから作るKubernetesによるJupyter as a Service ー Kubernetes Meetup Tokyo #43Preferred Networks
Preferred Networksでは新物質開発や材料探索を加速する汎用原子レベルシミュレータを利用できるクラウドサービスを開発しています。 顧客毎に独立した環境にユーザがJupyter Notebookを立ち上げ、自社PyPIパッケージによりAPI経由で弊社独自技術を簡単に利用できます。Kubernetesの機能を駆使してマルチテナント環境を構築しており、各顧客に独立したAPIサーバを提供し、その負荷状況によりAPIサーバをスケーリングさせたり、顧客毎にNotebookに対する通信制限や配置Nodeの制御などを実現しています。
本発表ではKubernetesによるマルチテナントJupyter as a Serviceの実現方法を紹介します。
NTTコミュニケーションズでは、Azure Stack Hub with GPUを先行で導入し検証を行っています。本資料では、実際に利用している立場からデモを交えつつAzure Stack Hub with GPUのユースケースをお話すると共に、GPUのベンチマークを含む他社クラウドとの性能比較結果について情報共有をいたします。
[db analytics showcase Sapporo 2017] B14: GPU コンピューティング最前線 by エヌビディア 佐々木邦暢Insight Technology, Inc.
GPUの演算能力を汎用的に活用する「GPUコンピューティング」が誕生してはや10年。多くのスーパーコンピューターに採用されるなど科学技術計算の領域で実績を積み重ねたこの技術は、近年のAIムーブメントを支える重要な存在になっています。高度な画像認識、自然言語処理、そして自動運転などますます複雑になる問題のために登場した Volta 世代の新型GPUをはじめ、GPUコンピューティングの最新情報をお伝えします。
ゼロから作るKubernetesによるJupyter as a Service ー Kubernetes Meetup Tokyo #43Preferred Networks
Preferred Networksでは新物質開発や材料探索を加速する汎用原子レベルシミュレータを利用できるクラウドサービスを開発しています。 顧客毎に独立した環境にユーザがJupyter Notebookを立ち上げ、自社PyPIパッケージによりAPI経由で弊社独自技術を簡単に利用できます。Kubernetesの機能を駆使してマルチテナント環境を構築しており、各顧客に独立したAPIサーバを提供し、その負荷状況によりAPIサーバをスケーリングさせたり、顧客毎にNotebookに対する通信制限や配置Nodeの制御などを実現しています。
本発表ではKubernetesによるマルチテナントJupyter as a Serviceの実現方法を紹介します。
NTTコミュニケーションズでは、Azure Stack Hub with GPUを先行で導入し検証を行っています。本資料では、実際に利用している立場からデモを交えつつAzure Stack Hub with GPUのユースケースをお話すると共に、GPUのベンチマークを含む他社クラウドとの性能比較結果について情報共有をいたします。
企業間連携や IT 基盤のモダナイズなど、API の活用が広がり、国内でも API エコノミーが発展しつつあります。
API を最大限に活用するためには、セキュリティやアナリティクス、利用者サポートなど、いわゆる API 管理が重要です。
今回の放送では、Google Cloud の API 管理基盤、Apigee の特徴や機能概要、事例などをデモを交えて紹介します。
15. Google Cloud AI のプロダクトグループと位置づけ
汎用的な用途 専門的な用途
すべての開発者向け 機械学習の専門家向け
Google の学習済み
モデルを活用
Cloud AutoML
カスタムモデルの
開発を自動化
機械学習 API
カスタムモデルの
開発を効率化
Cloud AI Platform
18. ocado は Natural Language API の感情分
析機能を用いて、問い合わせメールの対
応優先度を決定、これによりサポートチー
ムの業務効率を改善しました。
サポート業務の優先順位付けを効率化
言語
19. Hyperconnect は Cloud Translation API
と Cloud Text-to-Speech API を連携し、言
語の壁を超えたコミュニケーションを実現し
ています。
音声認識 & 機械翻訳 でチャットを円滑化
会話
20. Google Cloud AI のプロダクトグループと位置づけ
汎用的な用途 専門的な用途
すべての開発者向け 機械学習の専門家向け
Google の学習済み
モデルを活用
Cloud AutoML
カスタムモデルの
開発を自動化
機械学習 API
カスタムモデルの
開発を効率化
Cloud AI Platform
25. Google Cloud AI のプロダクトグループと位置づけ
汎用的な用途 専門的な用途
すべての開発者向け 機械学習の専門家向け
Google の学習済み
モデルを活用
Cloud AutoML
カスタムモデルの
開発を自動化
機械学習 API
カスタムモデルの
開発を効率化
Cloud AI Platform
30. Google Cloud AI のプロダクトグループと位置づけ
汎用的な用途 専門的な用途
すべての開発者向け 機械学習の専門家向け
Google の学習済み
モデルを活用
Cloud AutoML
カスタムモデルの
開発を自動化
機械学習 API
カスタムモデルの
開発を効率化
Cloud AI Platform
32. Google Cloud クライアント ライブラリ
● 簡単かつ直感的
○ 各言語の慣習に倣った直感的なインタフェースを提供
○ サーバーとの通信に関する下位レベルのすべての詳細を処理
○ 使い慣れたパッケージ管理ツールからインストールできる
● ハイパフォーマンス
○ gRPC API に対応している場合、高い処理性能が期待できる
Google Cloud
クライアントライブラリ
Google Cloud API
( 機械学習 API 含む )
33. Google Cloud API
● Google Cloud API を利用するモチベーション
○ クライアント ライブラリが未対応の最新機能を使いたい !
○ クライアント ライブラリの設計に満足できない !
● Google Cloud API でサポートされている二種類の API
○ REST API と gRPC API
○ REST API は、処理速度は低いが、必要な事前知識が少ない
○ gRPC API は、処理速度は高いが、必要な事前知識が多い
多い
高い低い
少ない必要な事前知識
処理速度
REST API
gRPC API
クライアント
ライブラリ
50. Google Cloud AI のプロダクトグループと位置づけ
汎用的な用途 専門的な用途
すべての開発者向け 機械学習の専門家向け
Google の学習済み
モデルを活用
Cloud AutoML
カスタムモデルの
開発を自動化
機械学習 API
カスタムモデルの
開発を効率化
Cloud AI Platform