SlideShare a Scribd company logo
Amazon SageMaker Foundation Modelsで
事前学習済みモデルを利用する
大規模言語モデルを社会実装する
2023/03/25 第21回勉強会
自己紹介
● 名前: 西岡 賢一郎
○ Twitter: @ken_nishi
○ note: 西岡賢一郎@研究者から経営者へ (https://note.com/kenichiro)
○ YouTube: 【経営xデータサイエンスx開発】西岡 賢一郎のチャンネル
(https://www.youtube.com/channel/UCpiskjqLv1AJg64jFCQIyBg)
● 経歴
○ 東京大学で位置予測アルゴリズムを研究し博士 (学術) を取得
○ 東京大学の博士課程在学中にデータサイエンスをもとにしたサービスを提供する株式会社ト
ライディアを設立
○ トライディアを別のIT会社に売却し、CTOとして3年半務め、2021年10月末にCTOを退職
○ CDPのスタートアップと株式会社データインフォームドの2つに所属
○ 自社および他社のプロダクト開発チーム・データサイエンスチームの立ち上げ経験
本日のお話
● 大規模言語モデルの社会実装
● 事前学習モデル
● Amazon SageMaker Foundation Models
● デモ
大規模言語モデルの社会実装
言語モデルとそれを用いたサービスの普及
● 言語モデルの研究が急速に進み、次々と大規模言語モデルが開発されている
○ GPT-3 (Generative Pre-trained Transformer 3): OpenAIが開発した自然言語処理モデル
○ T5 (Text-to-Text Transfer Transformer): Googleが開発した自然言語処理モデル
○ BERT (Bidirectional Encoder Representations from Transformers): Googleが開発した自
然言語処理モデル
○ RoBERTa (Robustly Optimized BERT Pretraining Approach): Facebookが開発した自然言
語処理モデル
○ DALL-E: OpenAIによって開発された大規模言語モデル
● これらを用いたサービス開発も盛んになってきている
○ e.g. チャットボット、記事・レポート作成、翻訳など
● 大規模言語モデルを用いたサービス開発では大規模言語モデルを構築すると
きの課題を乗り越えなければならない
大規模言語モデルを構築する難しさ
● 計算資源
○ 多くのパラメータを持つため、トレーニングや推論の際に高いコンピューティングパワーが必要
● データ
○ トレーニングするために大量の多くのデータが必要
○ 多くの場合、大量のデータを収集することは困難であり、また、データの品質やバランスを維持す
ることも難しい。
● トレーニング時間
○ 大規模言語モデルをトレーニングするには、数週間から数ヶ月かかる
○ データの変化に対応するための定期的な再トレーニングのコストも高い
● パラメータ数の調整
○ 多くのパラメータを持つため、適切なパラメータ数の決定が難しい
■ パラメータ数が多すぎると、トレーニング時間が長くなり、オーバーフィッティングのリスク
が高くなる
■ パラメータ数が少なすぎると、モデルの表現力が制限される
大規模言語モデルの社会実装
● 大規模言語モデルを学習するには、膨大なデータセットと高度な計算資源が
必要。しかし、それらができるのは、一部の大手IT企業や研究機関に限られ
る。
● 自社のアプリケーションやサービスに対して自然言語処理を適用したくても、
データや計算資源に限界があるため、高品質の自然言語処理モデルを構築す
ることが困難
事前学習モデルをファインチューニングして
自社の自然言語処理タスクに適用する
事前学習モデル
事前学習モデル
● 事前学習モデルは、深層学習など、パラメータ数が非常に多く、学習に膨大
な計算資源が必要とされるモデルでよく使われる
● 大量のデータを用いて事前に学習されたモデルであるため、少ないデータで
も高い性能を発揮できる
● 画像認識や自然言語処理など大量の学習データが必要なモデルでよく使われ
る
● 事前学習モデルをファインチューニングすることで、特定のタスクに対して
高い性能を発揮することができる
事前学習モデルを提供するサービス
● PyTorch Hub
● https://pytorch.org/hub/
● 使い方
事前学習モデルを動かす環境の課題
pipでインストールしただけではいろいろなエラーが出てきて、一つ一つ解決して
いかないといけない → 環境とセットでないとすぐに使うのは難しい
Amazon SageMaker Foundation Models
Amazon SageMaker
Amazon SageMakerでは、Foundation Models (事前学習モデル) とそのモデル
が動く環境が用意されている
事前学習モデル
計算環境
提供されているFoundation Models
● AI21 Jurassic: AI21 Labsが開発した言語モデル
● Cohere Generate Model: Cohere Technologiesが開発した言語モデル
● Lyra-Fr 10B: フランス語のキュレーションデータで学習させた言語モデル
● Bloom: 産業規模の計算資源を用いて膨大な量のテキストデータに対してプ
ロンプトからテキストを継続するように訓練されている
● FLAN-T5: 適切なプロンプトがあれば、テキストの要約、常識的な推論、自
然言語推論、質問と回答、文/感傷の分類、翻訳、代名詞解決などのゼロシ
ョットNLPタスクを実行可能
● Stable Diffusion: テキストからイメージを作成するモデル
Foundation Modelsを使ってみる
● Amazon SageMaker > Jump Start > Foundation Models でモデル一覧が参
照可能
● TokyoリージョンなどJump Startがそもそも提供されていないリージョンも
ある
Model Overview
モデルを選択すると以下が表示される
● モデルの説明
● モデルのお試し機能
● モデルを使うためのサンプルnotebook
モデルのお試し機能
Promptとパラメータを指定して、モデルを使ってテキストやイメージの生成ができる
デモ
● Flan T5 XLを使ったテキスト作成
● https://github.com/knishioka/machine-learning-
workshop/blob/main/sagemaker/foundation_models/flat-t5.ipynb

More Related Content

Similar to Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する

Similar to Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する (20)

Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習Amazon SageMaker Canvasを使ったノーコード機械学習
Amazon SageMaker Canvasを使ったノーコード機械学習
 
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化するAmazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
Amazon SageMaker Ground Truthを使って手動のラベル付けを簡略化する
 
Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介Amazon SageMaker Studio Lab紹介
Amazon SageMaker Studio Lab紹介
 
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解するFeature StoreのOnline StoreとOffline Storeの違いについて理解する
Feature StoreのOnline StoreとOffline Storeの違いについて理解する
 
H2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoMLH2Oを使ったノーコードのAutoML
H2Oを使ったノーコードのAutoML
 
AutoGluonではじめるAutoML
AutoGluonではじめるAutoMLAutoGluonではじめるAutoML
AutoGluonではじめるAutoML
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説
 
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
Amazon Athenaで独自の関数を使う Amazon Athena UDF - AthenaでTweetの感情分析
 
H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門H2O Waveを使ったAIアプリケーション作成入門
H2O Waveを使ったAIアプリケーション作成入門
 
機械学習の技術的負債
機械学習の技術的負債機械学習の技術的負債
機械学習の技術的負債
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
 
未来のカタチ x AI
未来のカタチ x AI未来のカタチ x AI
未来のカタチ x AI
 
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきことPMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
PMFを目指すプロダクト開発組織が組織拡大するときににやるべきこと
 
実践的なUXデザインとグロースハック
実践的なUXデザインとグロースハック実践的なUXデザインとグロースハック
実践的なUXデザインとグロースハック
 
アルゴリズムから学ぶAzure mlモジュールの使いこなし方 hd-insight編-
アルゴリズムから学ぶAzure mlモジュールの使いこなし方 hd-insight編-アルゴリズムから学ぶAzure mlモジュールの使いこなし方 hd-insight編-
アルゴリズムから学ぶAzure mlモジュールの使いこなし方 hd-insight編-
 
3Dプリント×Python ~コードからアプローチする3Dプリンティング~
3Dプリント×Python ~コードからアプローチする3Dプリンティング~3Dプリント×Python ~コードからアプローチする3Dプリンティング~
3Dプリント×Python ~コードからアプローチする3Dプリンティング~
 
ゲーム事業×データ分析 ドリコムにおける組織と仕事の組み立て方
ゲーム事業×データ分析 ドリコムにおける組織と仕事の組み立て方ゲーム事業×データ分析 ドリコムにおける組織と仕事の組み立て方
ゲーム事業×データ分析 ドリコムにおける組織と仕事の組み立て方
 
プロ生ちゃんについて
プロ生ちゃんについてプロ生ちゃんについて
プロ生ちゃんについて
 
身近なところからはじめるマーケットデザイン
身近なところからはじめるマーケットデザイン身近なところからはじめるマーケットデザイン
身近なところからはじめるマーケットデザイン
 
Jaws Festa 11/03 - Mobingi
Jaws Festa 11/03 - Mobingi Jaws Festa 11/03 - Mobingi
Jaws Festa 11/03 - Mobingi
 

More from 西岡 賢一郎

More from 西岡 賢一郎 (9)

リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待リモートワークで知っておきたい コミュニケーション時の過大な期待
リモートワークで知っておきたい コミュニケーション時の過大な期待
 
リモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのことリモートワークで意識すべき7つのこと
リモートワークで意識すべき7つのこと
 
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
機械学習プラットフォーム5つの課題とAmazon SageMakerの4つの利点
 
ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定ストリートビューから地域の豊かさを推定
ストリートビューから地域の豊かさを推定
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか人間の意思決定を機械学習でモデル化できるか
人間の意思決定を機械学習でモデル化できるか
 
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
 

Recently uploaded

2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
ssuserbefd24
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 

Recently uploaded (14)

LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 

Amazon SageMaker Foundation Modelsで事前学習済みモデルを利用する

Editor's Notes

  1. こちらが私のプロフィールとなります。 機械学習には、大学時代の研究から携わっており、自分で立ち上げたスタートアップでも機械学習を使ったサービスを提供していました。 プロダクト開発チームやデータサイエンスチームの立ち上げなどもやっています。
  2. パフォーマンス:大規模言語モデルは、多くのパラメータを持つため、トレーニングや推論の際に高いコンピューティングパワーを必要とします。そのため、パフォーマンスの向上に対応するためには、高性能なハードウェアと効率的なアルゴリズムが必要です。 データ:大規模言語モデルをトレーニングするためには、多くのデータが必要です。しかし、多くの場合、大量のデータを収集することは困難であり、また、データの品質やバランスを維持することも難しい場合があります。 トレーニング時間:大規模言語モデルをトレーニングするには、通常、数週間から数ヶ月かかります。トレーニング時間が長くなると、データの変化に対応するために定期的に再トレーニングする必要があり、トレーニングコストが高くなることがあります。 パラメータ数の調整:大規模言語モデルは、多くのパラメータを持っています。パラメータ数が多すぎると、トレーニング時間が長くなり、オーバーフィッティングのリスクが高くなります。一方、パラメータ数が少なすぎると、モデルの表現力が制限されることがあります。適切なパラメータ数を決定することは、難しい問題です。