BERT を中心に解説した資料です.BERT に比べると,XLNet と RoBERTa の内容は詳細に追ってないです.
あと,自作の図は上から下ですが,引っ張ってきた図は下から上になっているので注意してください.
もし間違い等あったら修正するので,言ってください.
(特に,RoBERTa の英語を読み間違えがちょっと怖いです.言い訳すいません.)
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
XLNet: Generalized Autoregressive Pretraining for Language Understanding
RoBERTa: A Robustly Optimized BERT Pretraining Approach
本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
本セッションでは、W&B Coursesの中でも最も人気の高いコースである"Effective MLOps: Model Development (日本語字幕版コース名: 効果的なMLOps: モデル開発)"をギュッと濃縮したダイジェスト版を日本語ハンズオンでお届けいたします。W&Bの基本的な使い方、ベースラインからの改良方法などをシンプルな画像のセグメンテーションタスクを通じて学ぶことができます。
https://wandb.connpass.com/event/295345/
BERT を中心に解説した資料です.BERT に比べると,XLNet と RoBERTa の内容は詳細に追ってないです.
あと,自作の図は上から下ですが,引っ張ってきた図は下から上になっているので注意してください.
もし間違い等あったら修正するので,言ってください.
(特に,RoBERTa の英語を読み間違えがちょっと怖いです.言い訳すいません.)
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
XLNet: Generalized Autoregressive Pretraining for Language Understanding
RoBERTa: A Robustly Optimized BERT Pretraining Approach
本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
本セッションでは、W&B Coursesの中でも最も人気の高いコースである"Effective MLOps: Model Development (日本語字幕版コース名: 効果的なMLOps: モデル開発)"をギュッと濃縮したダイジェスト版を日本語ハンズオンでお届けいたします。W&Bの基本的な使い方、ベースラインからの改良方法などをシンプルな画像のセグメンテーションタスクを通じて学ぶことができます。
https://wandb.connpass.com/event/295345/
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)Toshihiko Yamasaki
MIRU2020若手プログラム招待講演のスライドを一般公開用にアレンジしたものです。日本語で書かれています。下記の点にご注意ください
・セリフが伴ってないので内容は限定的です
・著作権等に配慮しているので中身は結構無味乾燥です。
This is an arranged version of my invited talk at MIRU 2020 young researchers' forum. This is written in Japanese.
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)Toshihiko Yamasaki
MIRU2020若手プログラム招待講演のスライドを一般公開用にアレンジしたものです。日本語で書かれています。下記の点にご注意ください
・セリフが伴ってないので内容は限定的です
・著作権等に配慮しているので中身は結構無味乾燥です。
This is an arranged version of my invited talk at MIRU 2020 young researchers' forum. This is written in Japanese.
※ 株式会社GIGでは毎月社内勉強会を実施しています
GIG inc.
Good is good.
We provide opportunities to the SEKAI by fusing technology and ideas.
テクノロジーとクリエイティブでセカイをより良くする。小さなチームからスタートした多くの先人達が、世界をより豊かなモノに変革してきました。通信、UX、デバイス、技術の変化と共に世界はまだまだ加速度的に変わります。
Good is good. いいものはいい。GIGは、関わったユーザーやクライアントが前に進める"きっかけ"をつくりつづけます。
■ お問い合せ
https://giginc.co.jp/contact/
5. はじめに
RAG vs Finetuning — Which Is the Best Tool to Boost Your LLM Application?
RAG: Retrieval Augmented Generation
(npaka先生のコースで扱った内容)
Fine Tuning
(本日の講演で扱う内容)
6. RAGとFine Tuningの位置付け
RAG vs Finetuning — Which Is the Best Tool to Boost Your LLM Application?
RAG: 新しい知識を与えるのが得意
Fine Tuning: 新しい形式に適応させるのが得意
24. OpenCALM
LangChain
Instruction Tuning
(LoRA)
Run chain as callback
os.environ["LANGCHAIN_WANDB_
TRACING"] = "true"
LangChain integration
Hugging Face integration
report_to="wandb"
Instruction Data: kunishou/databricks-dolly-15k-ja
kunishou/hh-rlhf-49k-ja
Model: cyberagent/open-calm-7b
Scoring the quality of
response by ChatGPT
LLMの全応答履歴
学習中のモデルの回
答品質スコア
(+コメント)
Validation loss,
GPU Usage,
etc
25.
26. RLHF: Reinforcement Learning from Human
Feedback
ステップ1:インストラクション・
チューニング
ステップ2: ラベラーが特定の入
力に対してどの出力を好むかを
示す、モデル出力間の比較の
データセットを収集し、報酬モデ
ルを訓練する
ステップ3:訓練された報酬モデル
を使用し、強化学習を使って報酬
モデルに対してポリシーを最適化
する
出典:Training language models to
follow instructions with human
feedback
54. A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on
Chinese Instruction Data for Instruction Following Large Language Model
LoRAはFull Parameter Tuningと同等か?
55. Towards Better Instruction Following Language
Models for Chinese: Investigating the Impact of
Training Data and Evaluation
LoRAはFull Parameter Tuningと同等か?