AIプロダクト時代のPdMに必要な
コンテキストエンジニアリング
@_kayato
本日のテーマ
2
これからのプロダクトマネージャーにおいて
必要なコンテキストエンジニアリングスキル
コンテキストエンジニアリングとは
3
コンテキストエンジニアリングとは、
エージェントの軌跡の各ステップにおいて、
コンテキストウィンドウを適切な情報で
埋める技術と科学です。
https://blog.langchain.com/context-engineering-for-agents/
Karpathy氏の発言
Shopi f y CEO tobi 氏のツイート
4
https://x.com/tobi/status/1935533422589399127
“
「プロンプトエンジニアリング」よりも「コンテキストエンジニアリング」という言葉が
本当に好きです。 それは核心的なスキルをより良く表しています:LLMがそのタスクを妥
当に解決できるように、すべてのコンテキストを提供する技術です。
”
Eureka Labs Andrej Karpathy氏の発言
5
https://x.com/karpathy/status/1937902205765607626
産業レベルのLLMアプリケーションでは、コンテキストエンジニアリングは、次のステッ
プにちょうど適切な情報をコンテキストウィンドウに詰め込む、繊細な芸術と科学です。
最古の学術用例(2006年)
6
注:LLMリサーチベースなのでもっと古いものあるかもしれません…
“コンテキスト”とは?
7
https://x.com/_philschmid/status/1939690423145861147/photo/1
なぜ“コンテキスト”が重要なのか
8
「Garbage in, garbage out (GIGO)」
「ゴミのようなデータを入力すれば、
ゴミのような結果しか出力されない」
情報処理システムや機械学習モデルにおいて、
入力されるデータの質が最終的な出力の質を決定する
長期利用になるほどコンテキストは増える
9
https://docs.claude.com/en/docs/build-with-claude/context-windows
LLMのインプットトークン量の上限
10
https://indepa.net/archives/10037
コンテキストサイズにおける出力性能低下
11
https://arxiv.org/abs/2502.05167
インプットが増えればレスポンス時間も増える
12
https://www.glean.com/blog/glean-input-token-llm-latency
“Lost i n the Mi ddl e”問題
13
https://zenn.dev/kimkiyong/articles/c0250864d53595
モデル自体の改善によるアップデートはあるが、
巨大コンテキストにおける情報の優先順位の取扱いに課題は残る
コンテキスト管理における実運用上の課題
14
■ Context Poisoning(コンテキストの汚染)
ハルシネーションやその他のエラーがコンテキスト内に入り込み、繰り返し参照されること
■ Context Distraction (コンテキストの逸脱)
コンテキストが長くなりすぎて、モデルがコンテキストに過度に集中し、トレーニング中に学習した
内容を無視してしまうこと
■ Context Confusion(コンテキストの混乱)
コンテキスト内の余分なコンテンツがモデルによって使用され、品質の低い応答が生成されること
■ Context Clash(コンテキストの衝突)
コンテキスト内の他の情報と矛盾する新しい情報やツールがコンテキスト内に蓄積されること
https://www.dbreunig.com/2025/06/22/how-contexts-fail-and-how-to-fix-them.html
コンテキストエンジニアリングの手法
15
記述、選択、圧縮、分離の4つがAIエージェント開発における代表的な区分
>「LangChain:Context Engineering」より
手法①:Wri te(記述)
16
>「LangChain:Context Engineering」より
コンテキストウィンドウの外部にコンテキストを保存し、コンテキストウィンドウの上限
が超えても再度コンテキストを引っ張り出せるようにしておく
手法②:Sel ect(選択)
17
タスクに対して適切なコンテキストを「選択」し、
LLMに受け渡す
>「LangChain:Context Engineering」より
手法③:圧縮
18
>「LangChain:Context Engineering」より
タスクに対して最も関連性が高い情報だけに要点を絞って圧縮することで
必要最低限度のトークン消費となる
手法④:分離
19
>「LangChain:Context Engineering」より
タスクのスコープ自体を狭めることで活用するコンテキストのスコープも限定化される
AI 時代においても不変なPdMマインド
20
ユーザー課題を理解し、
価値あるプロダクトを設計する
これからのPdMにもとめられること
21
① AI 時代のUX設計
② コンテキストの外部調達
③ トークン料と提供価値の最適化
①AI 時代のUX設計
22
インプット アウトプット アウトカム
LLMが処理する
コンテキスト
LLMの生成物 利用者便益
AI時代のUX最適化は
アウトカムを得るために必要最低限のインプット&アウトプットから
ユーザーベネフィットをもたらすこと
≒ アウトカムを最大化するためのUX調整
Bad Case1:インプット過多
23
ユーザーインプット(コンテキスト)が多ければ、
それだけアウトプットへのハードルは上がる
必要最低限度のインプット設計&インプットの自動化でのUX改善が必要
Bad Case2:アウトプット過多
24
提示するアウトプットが多いほどユーザーの認知負荷は高まる
アウトカムにつながるアウトプットに絞り込みを行うプロセスでUXを改善する
ユーザーストーリーに対して最適なアウトプットを定義することが重要
Human-in-the-Loop(HITL)で中間プロセスで関与するアプローチもある
②コンテキストの外部調達
25
ドメインエキスパートとのヒアリングや
クローズドな口コミなど「エッジ」を見つけていくことが
LLM時代のMOATを築く上で重要
(≒汎用モデルの学習元の外を取りに行く)
https://jp.dotdata.com/blog/how-will-generative-ai-evolve-the-use-of-data-in-the-enterprise/
③トークン料と提供価値の最適化
26
提供コスト=システム+ トークン従量課金
LLMモデルを活用したアプリケーションレイヤーでサービス提供を行う場合、
コンテキスト調整から最適な粒度でのアウトプット調整を行わないと
アプリケーションレイヤーの競争環境において提供価格で負けてしまう
コスト最適化のためのTi ps
27
データの前処理は低コストモデルを活用
出力トークン上限数をあらかじめ絞る
サマライズや必要パートだけ抜粋することでトークン数を
圧縮していく
ワークフローの中に段階的にHI TLを挿入する
UXとのトレードオフ
中間工程のアウトプットをキャッシュ化しておくことで、
最終アウトプットが期待値通りでなかったときに再処理の
コストを減らす・・・など
これからのPdMにもとめられること(再掲)
28
① AI 時代のUX設計
② コンテキストの外部調達
③ トークン料と提供価値の最適化

AIプロダクト時代のPdMに必要なコンテキストエンジニアリング_2025年9月26日