SlideShare a Scribd company logo
1
Weights & Biases
Monthly Meetup
山本 祐也 (Yuya YAMAMOTO)
● 機械学習エンジニア
- Customer Success@W&B
● Kaggle Competitions Grandmaster
○ ID: nejumi
Agenda
W&B Monthly Meetup
August 29 2023
● はじめに
● Fine Tuningとは
● Parameter Efficient Fine Tuning
(PEFT)
● Instruction Tuning
● その他のFine Tuningの応用例
● 精度とメモリ消費量
● 量子化
● その他
はじめに
はじめに
RAG vs Finetuning — Which Is the Best Tool to Boost Your LLM Application?
RAG: Retrieval Augmented Generation
(npaka先生のコースで扱った内容)
Fine Tuning
(本日の講演で扱う内容)
RAGとFine Tuningの位置付け
RAG vs Finetuning — Which Is the Best Tool to Boost Your LLM Application?
RAG: 新しい知識を与えるのが得意
Fine Tuning: 新しい形式に適応させるのが得意
基盤モデル
知識
形式
汎
用
性
チャット
コード
広告
コピー
機械操作 ・・・
マニュア
ル
ログ
社内
データ
チャットも数ある
基盤モデルの活
用方法の一つ
Fine Tuningとは?
学習済モデルに対して小規模な追加学習を行う
莫大な数の
NVIDIA GPUs
Tech業界の巨人達
学習済モデルをfine tuningする民草
基盤モデルの学習はハードルが高い
○ 膨大なデータ
○ 長大な学習時間
○ 大容量のVRAMを備えた多数の
GPU資源
既に学習済みのモデルをチューニングする
ことで、コストを押さえて目的タスクに適した
モデルを実現したい
→ ファインチューニング
モデルウエイト
Fine tuning自体はDeep Learning普及初期から広く活用
されてきた
● ImageNetのPretrained Modelを
用いる
● トップの全結合層を再学習
● Conv層も一部解凍して再学習
CNNとは色々事情が異なるので、同
様にはできない
Transferred Fusion Learning using Skipped Networks
軽量化・高速化のアプローチ
トレーニング時
● Parameter efficient fine tuning (PEFT), 特にLoRA
● 量子化
● 並列化
推論時
● 量子化
● 最適化
Parameter Efficient Fine
Tuning (PEFT)
Full Parameter Fine Tuning vs PEFT
Finetuning LLMs Efficiently with Adapters
トークン追加系アプローチ
The Power of Scale for Parameter-Efficient Prompt Tuning
Prompt Tuning Prefix Tuning
Prefix-Tuning: Optimizing Continuous Prompts for Generation
P-Tuning
GPT Understands, Too
● モデル本体のウエイ
トを変えず、ドメインシ
フトにロバスト
● Context windowを消
費する
Adaptor系
Parameter-Efficient Transfer Learning for NLP
● 事前訓練されたLLMのレイヤ間に追
加のタスク固有のレイヤを挿入し、
アダプターのパラメータのみを
チューニングする
● 推論スループットを低下させる可能
性あり
LoRA: Low-Rank Adaptation
● 差分行列を導入し、これを行列分解
によって低ランク行列の積に分解する
● 元の重みはフリーズ
● LoRAとその派生系はPEFTで最も良く
使われている
LoRA: Low-Rank Adaptation of Large Language Models
LoRA: Low-Rank Adaptation
https://sebastianraschka.com/blog/2023/llm-finetuning-lora.html
LoRA: Low-Rank Adaptation
パラメータ全体の僅か 0.1%以下
● 通常LoRAのパラメータrは2~16程度と非常に小さい値に設定する
● めちゃくちゃ細長い小規模な行列の積に分解して、trainable paramsを劇的に削減、 学習
時のGPUメモリ増大の問題をほぼ解消(後述)
● 削減されるのはtrainable paramsであって、元のパラメータは依然あることに注意
Instruction Tuning
https://wandb.ai/darek/llmapps/reports/A-Gentle-Introduction-to-LLM-APIs--Vmlldzo0NjM0MTMz
基盤モデルは次のトークンを予測するだけ
Finetuned Language Models are Zero-Shot Learners
Finetuned Language Models are Zero-Shot Learners
Instruction Tuning用のプロンプト形式に変換しておく
元のJSON形式
Alpaca形式
https://github.com/tatsu-lab/stanford_alpaca
● Instructionデータの形式は例えば Stanford Alpacaフォーマットに従って変換する
● Input(コンテクスト情報)が空の場合とそうでない場合で指示文がわずかに異なる点に注意
OpenCALM
LangChain
Instruction Tuning
(LoRA)
Run chain as callback
os.environ["LANGCHAIN_WANDB_
TRACING"] = "true"
LangChain integration
Hugging Face integration
report_to="wandb"
Instruction Data: kunishou/databricks-dolly-15k-ja
kunishou/hh-rlhf-49k-ja
Model: cyberagent/open-calm-7b
Scoring the quality of
response by ChatGPT
LLMの全応答履歴
学習中のモデルの回
答品質スコア
(+コメント)
Validation loss,
GPU Usage,
etc
RLHF: Reinforcement Learning from Human
Feedback
ステップ1:インストラクション・
チューニング
ステップ2: ラベラーが特定の入
力に対してどの出力を好むかを
示す、モデル出力間の比較の
データセットを収集し、報酬モデ
ルを訓練する
ステップ3:訓練された報酬モデル
を使用し、強化学習を使って報酬
モデルに対してポリシーを最適化
する
出典:Training language models to
follow instructions with human
feedback
その他の応用例
Llama-2のファインチューニング例
https://www.anyscale.com/blog/fine-tuning-llama-2-a-comprehensive-case-study-for-tailoring-models-to-unique-applications
● Full parameter fine tuning
● Functional representation
とSQL生成でGPT-4を上回
る性能を得られている
● 一方で数学的推論では効
果は認められるものの
GPT-4には大きく及ばず
Code Llamaの例
LLMファイン
チューニングの
好例
コーディングするときは
ChatGPTが
手放せません
ChatGPTを使うと開発ス
ピードが50%
上がります
巨大言語モデルとエンジニアの関わり方
「ちょっとした推薦は誰でも生産性が上がる、この例
のように少し複雑な推薦は、推薦内容を理解する
ための前提知識がないと妥当性の判断ができない
ため、生産性が向上するかどうかは人を選ぶという
印象です。」
サイバーエージェントの
GitHub CopilotのAnalyticsデータを公開!利用開始から
約3ヶ月でエンジニアの生産性は向上したのか?
https://developers.cyberagent.co.jp/blog/archives/43059/
エンジニアの仕事はAIに「置き換えられていく」のか?
精度とメモリ使用量
精度とメモリ使用量
FP32
式で書くと、
● 上記は標準的な単精度浮動小数点数 (single precision, float32) の例
● 1パラメータ当たり32bit = 4 byteのメモリ使用量を要する
● mixed-precisionが一般的になる一昔前までは全てfp32でtrainingしていた
○ NVIDIA/Apexの登場が2018年なので、コロナちょい前までそうだったと考えると
今となっては信じられないかもしれない
AMPが一般的になった2018年以降
FP16
BFLOAT16
● Mixed Precision (混合精度) が一般的になって以降は標準的になった
○ メモリ使用量↓、学習スピード↑
● Fractionと引き換えにexponentにより多くのbitを割り当てることでより広い
数値範囲を維持するbfloat16も特にトレーニング時によく用いられる
● ハードウェア面でもVolta世代から導入されたTensor Coresによりfp16演算
が強化され、Ampere世代からbfloatサポートも強化されている
https://cloud.google.com/tpu/docs/bfloat16
倍精度
FP64
● 科学技術計算・シミュレーションなどのHPCで重要
● Deep Learningタスクではfp32, fp16 (/w mixed precision) で十分であることが多く、計
算コストとメモリ消費量の問題から基本的には用いられない
それで実際どれくらいVRAMが必要なのか?
LLMのパラメータ数:
よくあるラインナップだと、小さいものから順に、3B, 7B, 13B, 30B, 70B
GPT-3は、175B
では、例えば7Bのモデルのトレーニングに必要なGPUメモリはFP16だと
2 * 7B= 14GBだから、どこのご家庭にもあるくらいのGPUで十分?
残念ながら、単純にはNO!
トレーニング時に必要なVRAM量は大幅に増大する
パラメータ自体の保持に、x1
オプティマイザで例えばAdamなら1st, 2nd momentで、 x2
勾配の保持に、x1
パラメータ自体の容量の実に4倍以上のメモリ容量が必要になる
(他にもバッファやその他変数の保持でさらに必要になる可能性あり)
トレーニング時に必要なVRAM量は大幅に増大する
パラメータ自体の保持に、x1
オプティマイザで例えばAdamなら1st, 2nd momentで、 x2
勾配の保持に、x1
パラメータ自体の容量の実に4倍以上のメモリ容量が必要になる
(他にもバッファやその他変数の保持でさらに必要になる可能性あり)
増えるワカメのように増大するのはTrainable Parametersに対してのみなので、大半
のパラメータをフリーズして、一部のパラメータのみを追加学習することができれば、
GPUメモリの使用量を大幅に抑制することができる
* 実際の推算はもっと複雑ですが、ここではトレーニング時の増大の説
明のために単純化しています
GPUメモリは高価な資源
価格ドットコムによる検索結果
ご家庭になくても(あっても)大丈夫!
https://aws.amazon.com/jp/sagemaker/
チュートリアルも基礎から応用まで日本語で完備!
https://github.com/aws-samples/aws-ml-jp
Quantization
Absolute Max Quantization
https://huggingface.co/blog/hf-bitsandbytes-integration
量子化のpitfalls
● 残念ながら、これをそのまま適用すると
一定以上のモデルサイズで大きな性能
低下が発生する
● 僅か0.1%のOutlierの影響によりモデル
性能が崩壊する
LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale
Outlierのハンドリング
https://huggingface.co/blog/hf-bitsandbytes-integration
QLoRA
LoRA: Low-Rank Adaptation of Large Language Models
Fine Tuning, 特にLoRAの
限界について
ちょっと話がうますぎるのではないか?
● 高々数十MB程度のパラメータの学
習でこんな巨大なモデルの fine
tuningできてしまうのは話がうます
ぎないか?
● 捧げた代償が小さすぎる気がする
Delta Tuning: A Comprehensive Study of Parameter Efficient Methods
for Pre-trained Language Models
LoRAはFull Parameter Tuningと同等か?
(中略)
LoRAはFull Parameter Tuningと同等か?
● Encouragingな報告が多数ある一方で、特定のタスクでfull parameter tuningと大
差がつくケースもある模様
● LoRAで学習するパラメータ数は極めて少数で容量にして高々数十MB程度
○ 与えられる情報量には限界があるのでは?
https://twitter.com/ph_singer/status/1650205663853703168
GPT-3.5-Turbo Fine Tuningのドキュメントより
操縦性(インストラクションへの追従
性)向上
出力形式の信頼性向上
出力トーンのカスタマイズ
● 用いられているチューニング手法は公開され
ていないが、コストや速度から何らかの
parameter efficientな手法と推定される
● 例示されているユースケースはいずれも style
change的な内容
A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on
Chinese Instruction Data for Instruction Following Large Language Model
LoRAはFull Parameter Tuningと同等か?
Towards Better Instruction Following Language
Models for Chinese: Investigating the Impact of
Training Data and Evaluation
LoRAはFull Parameter Tuningと同等か?
話がうますぎたのか?
Stack More Layers Differently: High-Rank Training Through Low-Rank Updates
代償を捧げたくなったら、こちらから!
https://aws.amazon.com/jp/sagemaker/
Thank you!
Wandb Monthly Meetup August 2023.pdf

More Related Content

What's hot

「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
Masahiro Suzuki
 
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdfmakoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
Akira Shibata
 
MLOpsはバズワード
MLOpsはバズワードMLOpsはバズワード
MLOpsはバズワード
Tetsutaro Watanabe
 
Ml system in_python
Ml system in_pythonMl system in_python
Ml system in_python
yusuke shibui
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
Kubernetesによる機械学習基盤への挑戦
Kubernetesによる機械学習基盤への挑戦Kubernetesによる機械学習基盤への挑戦
Kubernetesによる機械学習基盤への挑戦
Preferred Networks
 
MLflowで学ぶMLOpsことはじめ
MLflowで学ぶMLOpsことはじめMLflowで学ぶMLOpsことはじめ
MLflowで学ぶMLOpsことはじめ
Kenichi Sonoda
 
TabNetの論文紹介
TabNetの論文紹介TabNetの論文紹介
TabNetの論文紹介
西岡 賢一郎
 
機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト
BrainPad Inc.
 
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介
Recruit Technologies
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Yuya Unno
 
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
Toshihiko Yamasaki
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
 
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドNLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
JunSuzuki21
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17
Takuya Akiba
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 

What's hot (20)

「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdfmakoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
 
MLOpsはバズワード
MLOpsはバズワードMLOpsはバズワード
MLOpsはバズワード
 
Ml system in_python
Ml system in_pythonMl system in_python
Ml system in_python
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
Kubernetesによる機械学習基盤への挑戦
Kubernetesによる機械学習基盤への挑戦Kubernetesによる機械学習基盤への挑戦
Kubernetesによる機械学習基盤への挑戦
 
MLflowで学ぶMLOpsことはじめ
MLflowで学ぶMLOpsことはじめMLflowで学ぶMLOpsことはじめ
MLflowで学ぶMLOpsことはじめ
 
TabNetの論文紹介
TabNetの論文紹介TabNetの論文紹介
TabNetの論文紹介
 
機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト機械学習システムのアーキテクチャアラカルト
機械学習システムのアーキテクチャアラカルト
 
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~
 
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
 
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドNLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 

Similar to Wandb Monthly Meetup August 2023.pdf

ディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみたディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみた
knjcode
 
機械学習 - MNIST の次のステップ
機械学習 - MNIST の次のステップ機械学習 - MNIST の次のステップ
機械学習 - MNIST の次のステップ
Daiyu Hatakeyama
 
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
Yaboo Oyabu
 
ウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdf
ウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdfウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdf
ウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdf
Yuya Yamamoto
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
Akira Shibata
 
Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説
Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説
Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説
Daiyu Hatakeyama
 
ディープラーニングによるラーメン二郎全店舗識別と生成
ディープラーニングによるラーメン二郎全店舗識別と生成ディープラーニングによるラーメン二郎全店舗識別と生成
ディープラーニングによるラーメン二郎全店舗識別と生成
knjcode
 
Toxic comment classification
Toxic comment classificationToxic comment classification
Toxic comment classification
Nasuka Sumino
 
利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向
利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向
利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向
Daiyu Hatakeyama
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
 
東北大学AIE - 機械学習中級編とAzure紹介
東北大学AIE - 機械学習中級編とAzure紹介東北大学AIE - 機械学習中級編とAzure紹介
東北大学AIE - 機械学習中級編とAzure紹介
Daiyu Hatakeyama
 
Batch Reinforcement Learning
Batch Reinforcement LearningBatch Reinforcement Learning
Batch Reinforcement Learning
Takuma Oda
 
深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)
ssuser441cb9
 
Beyond Accuracy Behavioral Testing of NLP Models with CheckList
Beyond Accuracy Behavioral Testing of NLP Models with CheckListBeyond Accuracy Behavioral Testing of NLP Models with CheckList
Beyond Accuracy Behavioral Testing of NLP Models with CheckList
Dannis Lai
 
Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...
Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...
Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...
Daiyu Hatakeyama
 
【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用
【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用
【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用
日本マイクロソフト株式会社
 
LT.22 機械学習におけるPDCAを回せる環境構築の話
LT.22 機械学習におけるPDCAを回せる環境構築の話 LT.22 機械学習におけるPDCAを回せる環境構築の話
LT.22 機械学習におけるPDCAを回せる環境構築の話
GIG inc.
 
アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
Yosuke Mizutani
 
M5 sinchir0
M5 sinchir0M5 sinchir0
M5 sinchir0
ShinichiroSaito
 
W&B webinar finetuning_配布用.pdf
W&B webinar finetuning_配布用.pdfW&B webinar finetuning_配布用.pdf
W&B webinar finetuning_配布用.pdf
Yuya Yamamoto
 

Similar to Wandb Monthly Meetup August 2023.pdf (20)

ディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみたディープラーニングでラーメン二郎(全店舗)を識別してみた
ディープラーニングでラーメン二郎(全店舗)を識別してみた
 
機械学習 - MNIST の次のステップ
機械学習 - MNIST の次のステップ機械学習 - MNIST の次のステップ
機械学習 - MNIST の次のステップ
 
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
 
ウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdf
ウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdfウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdf
ウェビナー:Nejumiリーダーボードを使った自社LLMモデルの独自評価.pdf
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
 
Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説
Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説
Microsoft Open Tech Night: Azure Machine Learning - AutoML徹底解説
 
ディープラーニングによるラーメン二郎全店舗識別と生成
ディープラーニングによるラーメン二郎全店舗識別と生成ディープラーニングによるラーメン二郎全店舗識別と生成
ディープラーニングによるラーメン二郎全店舗識別と生成
 
Toxic comment classification
Toxic comment classificationToxic comment classification
Toxic comment classification
 
利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向
利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向
利用事例にみる AI技術活用のポイントと、Microsoft AI最新動向
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
東北大学AIE - 機械学習中級編とAzure紹介
東北大学AIE - 機械学習中級編とAzure紹介東北大学AIE - 機械学習中級編とAzure紹介
東北大学AIE - 機械学習中級編とAzure紹介
 
Batch Reinforcement Learning
Batch Reinforcement LearningBatch Reinforcement Learning
Batch Reinforcement Learning
 
深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)深層学習Day4レポート(小川成)
深層学習Day4レポート(小川成)
 
Beyond Accuracy Behavioral Testing of NLP Models with CheckList
Beyond Accuracy Behavioral Testing of NLP Models with CheckListBeyond Accuracy Behavioral Testing of NLP Models with CheckList
Beyond Accuracy Behavioral Testing of NLP Models with CheckList
 
Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...
Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...
Deep Learning Lab : Build 2020 Update - Reinforcement Learning on Azure Machi...
 
【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用
【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用
【de:code 2020】 アマダの Azure への取り組みと DevOPS・MLOPS 環境の構築と運用
 
LT.22 機械学習におけるPDCAを回せる環境構築の話
LT.22 機械学習におけるPDCAを回せる環境構築の話 LT.22 機械学習におけるPDCAを回せる環境構築の話
LT.22 機械学習におけるPDCAを回せる環境構築の話
 
アドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニングアドテク×Scala×パフォーマンスチューニング
アドテク×Scala×パフォーマンスチューニング
 
M5 sinchir0
M5 sinchir0M5 sinchir0
M5 sinchir0
 
W&B webinar finetuning_配布用.pdf
W&B webinar finetuning_配布用.pdfW&B webinar finetuning_配布用.pdf
W&B webinar finetuning_配布用.pdf
 

More from Yuya Yamamoto

W&BであらゆるML関連データを可視化.pdf
W&BであらゆるML関連データを可視化.pdfW&BであらゆるML関連データを可視化.pdf
W&BであらゆるML関連データを可視化.pdf
Yuya Yamamoto
 
Wandb LLM Webinar May 30 2023 (配布用).pdf
Wandb LLM Webinar May 30 2023 (配布用).pdfWandb LLM Webinar May 30 2023 (配布用).pdf
Wandb LLM Webinar May 30 2023 (配布用).pdf
Yuya Yamamoto
 
DataRobotを用いた要因分析 (Causal Analysis by DataRobot)
DataRobotを用いた要因分析 (Causal Analysis by DataRobot)DataRobotを用いた要因分析 (Causal Analysis by DataRobot)
DataRobotを用いた要因分析 (Causal Analysis by DataRobot)
Yuya Yamamoto
 
Optimization and simulation with DataRobot
Optimization and simulation with DataRobotOptimization and simulation with DataRobot
Optimization and simulation with DataRobot
Yuya Yamamoto
 
DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)
DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)
DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)
Yuya Yamamoto
 
DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)
DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)
DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)
Yuya Yamamoto
 

More from Yuya Yamamoto (6)

W&BであらゆるML関連データを可視化.pdf
W&BであらゆるML関連データを可視化.pdfW&BであらゆるML関連データを可視化.pdf
W&BであらゆるML関連データを可視化.pdf
 
Wandb LLM Webinar May 30 2023 (配布用).pdf
Wandb LLM Webinar May 30 2023 (配布用).pdfWandb LLM Webinar May 30 2023 (配布用).pdf
Wandb LLM Webinar May 30 2023 (配布用).pdf
 
DataRobotを用いた要因分析 (Causal Analysis by DataRobot)
DataRobotを用いた要因分析 (Causal Analysis by DataRobot)DataRobotを用いた要因分析 (Causal Analysis by DataRobot)
DataRobotを用いた要因分析 (Causal Analysis by DataRobot)
 
Optimization and simulation with DataRobot
Optimization and simulation with DataRobotOptimization and simulation with DataRobot
Optimization and simulation with DataRobot
 
DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)
DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)
DataRobotによる予測モデルを用いた シミュレーションと最適化(事前準備)
 
DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)
DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)
DataRobotによる予測モデルを用いた シミュレーションと最適化(抜粋)
 

Recently uploaded

CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさJSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
0207sukipio
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
Matsushita Laboratory
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
chiefujita1
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
t m
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 

Recently uploaded (8)

CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさJSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 

Wandb Monthly Meetup August 2023.pdf