2. 研究概観
Scope: 深層学習
分布外汎化 不確実性の較正
o 不変リスク最小化(IRM)
ü 最適化が困難
ü 近似手法(IRMv1, etc)
ü 近年の大規模なモデルの確信度は
正しくない傾向
ü 複数の環境にわたる確信度の正し
さがモデルの不変性の指標となる
IRM近似手法を不確実性の較正(確信度の正しさ)の観点で評価した
2
学習アルゴリズム
o 経験損失最小化(ERM)
o 未知なデータにおいても不変的な
特徴量を捉えたい
ü 最も一般的なアルゴリズム
ü 分布外での汎化が難しい
• Well-tunedなERMに勝てない
• 実際にどのくらい不変的なのか
明確でない
有効
o “モデルの確信度=実際の精度”
が理想(確信度の正しさ)
24. 結論, 展望
28
o 広義の分布外汎化指標や測定方法の開発
o 本研究結果に基づくIRMの新たな近似手法の開発
o LLMにおける情報ボトルネック法の応用
• LoRA
ü 少数の学習パラメータによるファインチューニング手法
ü ドメインにおける情報を圧縮している
• CLIP
ü 情報ボトルネック法を用いて分布外汎化性能が向上 [Ruan 22]
q展望
25. 参考文献
29
• [Arjovsky 19] Arjovsky, M., Bottou, L., Gulrajani, I. and Lopez-Paz, D.: Invariant risk minimization, arXiv preprint arXiv:1907.02893
(2019).
• [Guo 17] Guo, C., Pleiss, G., Sun, Y. and Weinberger, K. Q.: On calibration of modern neural networks, International Conference on
Machine Learning, PMLR, pp. 1321–1330 (2017).
• [Johansson 21] Johansson, U., L ̈ofstr ̈om, T., Bostr ̈om, H. and Nguyen, K.: Calibrating multi-class models, International Symposium on
Conformal and Probabilistic Prediction with Applications (2021).
• [Ovadia 19] Ovadia, Y., Fertig, E., Ren, J., Nado, Z., Sculley, D., Nowozin, S., Dillon, J., Lakshminarayanan, B. and Snoek, J.: Can you
trust your model’s uncertainty? Evaluating predictive uncertainty under dataset shift, Advances in neural information processing
systems, Vol. 32 (2019).
• [Wald 21] Wald, Y., Feder, A., Greenfeld, D. and Shalit, U.: On calibration and out-of-domain generalization, Advances in Neural
Information Processing Systems, Vol. 34 (2021).
• [Ahuja 22] Ahuja, K., Caballero, E., Zhang, D., Gagnon-Audet, J.- C., Bengio, Y., Mitliagkas, I., and Rish, I.: Invariance Principle Meets
Information Bottleneck for Out-of-Distribution Generaliza- tion (2022)
• [Lin 22] Lin, Y., Dong, H., Wang, H., and Zhang, T.: Bayesian Invariant Risk Minimization, in Proceedings of the IEEE/CVF Conference
on Computer Vision and Pattern Recognition (CVPR), pp. 16021–16030 (2022)
• [Ahuja 20] Ahuja, K., Shanmugam, K., Varshney, K. R., and Dhu- randhar, A.: Invariant Risk Minimization Games (2020)
• [Chen 23] Chen, Y., Zhou, K., Bian, Y., Xie, B., Wu, B., Zhang, Y., Ma, K., Yang, H., Zhao, P., Han, B., and Cheng, J.: Pareto In- variant
Risk Minimization: Towards Mitigating the Optimization Dilemma in Out-of-Distribution Generalization (2023)
• [Krueger 21] Krueger, D., Caballero, E., Jacobsen, J.-H., Zhang, A., Binas, J., Zhang, D., Priol, R. L., and Courville, A.: Out-of-
Distribution Generalization via Risk Extrapolation (REx) (2021)
• [Ruan 22] Ruan, Y., Dubois, Y., and Maddison, C. J.: Optimal Representations for Covariate Shift, in International Conference on
Learning Representations (2022)
• [Ye 22] Ye, N., Li, K., Bai, H., Yu, R., Hong, L., Zhou, F., Li, Z., and Zhu, J.: OoD-Bench: Quantifying and Understanding Two
Dimensions of Out-of-Distribution Generalization (2022)
• [Johansson 21] Johansson, U., L ̈ofstro ̈m, T., Bostr ̈om, H., and Nguyen, K.: Calibrating multi-class models, in International Symposium
on Conformal and Probabilistic Prediction with Ap- plications (2021)