SlideShare a Scribd company logo
1 of 11
Download to read offline
Score Function 과
Loss Function
유쉘
산업시스템 공학과를 졸업하고
딥러닝에 대해 공부하고 있습니다
yushell0417@gmail.com
3
신경망 이해의 시작!!
이미지에 대한 점수
4
점수란, 해당 이미지가 주어진 class 에
얼마나 적합한 지를나타내는 지표입니다.
5
점수의 값은 가중치 값에 따라 결정 됨!!
고양이: -1.3
고양이의 점수가 -1.3점이고 개의 점수가 9점이기 때문에
개 라고 잘 못 분류했습니다.
신경망은 이미지에 대한 점수를
계산하여 분류를 합니다.
그럼 위에서 구한 이미지에 대한 점수 에 대해
틀린 정도를 정량화 하는 방법은?
이미지에 대한 점수의 오차를
설명해 주는 Loss Function
7
점수에 대한 틀린 정도를 구해주는 Loss Function
주어진 이미지에 대해 도출된 점수를 loss function에 입력합니다.
대표적으로 사용되는 loss function은 두 가지가 있습니다.
Hinge Loss!!
다른 예측 값
자신 예측 값
Margin
그러면.. 두 함수의 차이점은 무엇일까요?
Softmax entropy loss!!
8
Hinge 는 둔감.. Softmax 는 민감!!
Hinge Loss
식을 보면 +1 이라는
safty margin 을 두어
점수 변화에 둔감!!
Softmax Cross Entropy
모든 데이터에 대한 값을
계산히기 때문에 민감!!
폐결절 X-ray 이미지 처럼
작은 변화도 감지해야 하는 경우라면?
값에 민감한 Softmax 를 사용합니다!!
“어떤 경우에 둘 중 선택해야 할까요?”
9
지금까지의 내용 정리를 해보면..
점수 = 이미지 * 가중치
Loss = 점수의 틀린 정도를 정량화한 값
즉! Loss 는 가중치 에 영향을 받음!!
이미지를 분류하는데 있어서
정확도를 높이기 위한 방법은
Loss를 줄이는 가중치를 찾는 것입니다.
감사합니다

More Related Content

What's hot

[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法
FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法
FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法Nobuho Hashimoto
 
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...harmonylab
 
あなたの知らないnopたち@ラボユース合宿
あなたの知らないnopたち@ラボユース合宿あなたの知らないnopたち@ラボユース合宿
あなたの知らないnopたち@ラボユース合宿MITSUNARI Shigeo
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術Yutaka KATAYAMA
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理Koki Nakamura
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』
ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』
ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』Yamato OKAMOTO
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Joe Suzuki
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
[DL輪読会]Real-Time Semantic Stereo Matching
[DL輪読会]Real-Time Semantic Stereo Matching[DL輪読会]Real-Time Semantic Stereo Matching
[DL輪読会]Real-Time Semantic Stereo MatchingDeep Learning JP
 
バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係Kento Tajiri
 
[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章Haruki Eguchi
 

What's hot (20)

[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
1 7.Type II ANOVA
1 7.Type II ANOVA1 7.Type II ANOVA
1 7.Type II ANOVA
 
人工知能概論 2
人工知能概論 2人工知能概論 2
人工知能概論 2
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法
FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法
FPGAを用いたフルパイプラインによるバイラテラルフィルタの高速化手法
 
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
DeepVIO: Self-supervised Deep Learning of Monocular Visual Inertial Odometry ...
 
あなたの知らないnopたち@ラボユース合宿
あなたの知らないnopたち@ラボユース合宿あなたの知らないnopたち@ラボユース合宿
あなたの知らないnopたち@ラボユース合宿
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
乱数とは
乱数とは乱数とは
乱数とは
 
ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』
ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』
ICLR'19 研究動向まとめ 『Domain Adaptation』『Feature Disentangle』
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
[DL輪読会]Real-Time Semantic Stereo Matching
[DL輪読会]Real-Time Semantic Stereo Matching[DL輪読会]Real-Time Semantic Stereo Matching
[DL輪読会]Real-Time Semantic Stereo Matching
 
バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係
 
Graph Convolutional Network 概説
Graph Convolutional Network 概説Graph Convolutional Network 概説
Graph Convolutional Network 概説
 
[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章[第2版] Python機械学習プログラミング 第4章
[第2版] Python機械学習プログラミング 第4章
 

More from lee yuseong

[유쉘] 드롭아웃
[유쉘] 드롭아웃[유쉘] 드롭아웃
[유쉘] 드롭아웃lee yuseong
 
[유쉘] 1.이미지 전처리
[유쉘] 1.이미지 전처리[유쉘] 1.이미지 전처리
[유쉘] 1.이미지 전처리lee yuseong
 
[유쉘] 5.가중치 초기화
[유쉘] 5.가중치 초기화[유쉘] 5.가중치 초기화
[유쉘] 5.가중치 초기화lee yuseong
 
[유쉘] 6.배치 정규화
[유쉘] 6.배치 정규화[유쉘] 6.배치 정규화
[유쉘] 6.배치 정규화lee yuseong
 
[유쉘] 4.활성화 함수
[유쉘] 4.활성화 함수[유쉘] 4.활성화 함수
[유쉘] 4.활성화 함수lee yuseong
 
[유쉘] 3.오차를 줄이기 위한 Optimizer
[유쉘] 3.오차를 줄이기 위한 Optimizer[유쉘] 3.오차를 줄이기 위한 Optimizer
[유쉘] 3.오차를 줄이기 위한 Optimizerlee yuseong
 
[유쉘] 7.가중치 감소
[유쉘] 7.가중치 감소[유쉘] 7.가중치 감소
[유쉘] 7.가중치 감소lee yuseong
 

More from lee yuseong (7)

[유쉘] 드롭아웃
[유쉘] 드롭아웃[유쉘] 드롭아웃
[유쉘] 드롭아웃
 
[유쉘] 1.이미지 전처리
[유쉘] 1.이미지 전처리[유쉘] 1.이미지 전처리
[유쉘] 1.이미지 전처리
 
[유쉘] 5.가중치 초기화
[유쉘] 5.가중치 초기화[유쉘] 5.가중치 초기화
[유쉘] 5.가중치 초기화
 
[유쉘] 6.배치 정규화
[유쉘] 6.배치 정규화[유쉘] 6.배치 정규화
[유쉘] 6.배치 정규화
 
[유쉘] 4.활성화 함수
[유쉘] 4.활성화 함수[유쉘] 4.활성화 함수
[유쉘] 4.활성화 함수
 
[유쉘] 3.오차를 줄이기 위한 Optimizer
[유쉘] 3.오차를 줄이기 위한 Optimizer[유쉘] 3.오차를 줄이기 위한 Optimizer
[유쉘] 3.오차를 줄이기 위한 Optimizer
 
[유쉘] 7.가중치 감소
[유쉘] 7.가중치 감소[유쉘] 7.가중치 감소
[유쉘] 7.가중치 감소
 

[유쉘] 2.Score function 과 Loss function

  • 2. 유쉘 산업시스템 공학과를 졸업하고 딥러닝에 대해 공부하고 있습니다 yushell0417@gmail.com
  • 4. 4 점수란, 해당 이미지가 주어진 class 에 얼마나 적합한 지를나타내는 지표입니다.
  • 5. 5 점수의 값은 가중치 값에 따라 결정 됨!! 고양이: -1.3 고양이의 점수가 -1.3점이고 개의 점수가 9점이기 때문에 개 라고 잘 못 분류했습니다. 신경망은 이미지에 대한 점수를 계산하여 분류를 합니다. 그럼 위에서 구한 이미지에 대한 점수 에 대해 틀린 정도를 정량화 하는 방법은?
  • 6. 이미지에 대한 점수의 오차를 설명해 주는 Loss Function
  • 7. 7 점수에 대한 틀린 정도를 구해주는 Loss Function 주어진 이미지에 대해 도출된 점수를 loss function에 입력합니다. 대표적으로 사용되는 loss function은 두 가지가 있습니다. Hinge Loss!! 다른 예측 값 자신 예측 값 Margin 그러면.. 두 함수의 차이점은 무엇일까요? Softmax entropy loss!!
  • 8. 8 Hinge 는 둔감.. Softmax 는 민감!! Hinge Loss 식을 보면 +1 이라는 safty margin 을 두어 점수 변화에 둔감!! Softmax Cross Entropy 모든 데이터에 대한 값을 계산히기 때문에 민감!! 폐결절 X-ray 이미지 처럼 작은 변화도 감지해야 하는 경우라면? 값에 민감한 Softmax 를 사용합니다!! “어떤 경우에 둘 중 선택해야 할까요?”
  • 9. 9 지금까지의 내용 정리를 해보면.. 점수 = 이미지 * 가중치 Loss = 점수의 틀린 정도를 정량화한 값 즉! Loss 는 가중치 에 영향을 받음!!
  • 10. 이미지를 분류하는데 있어서 정확도를 높이기 위한 방법은 Loss를 줄이는 가중치를 찾는 것입니다.