SlideShare a Scribd company logo
1 of 36
Download to read offline
ObjectLab:
Automated Diagnosis
of Mislabeled Images
in Object Detection Data
강인하 | 김준철 | 최승준 | 김현진 | 허정원
ICML, 2023
Data-centric ML Workshop
20231105 이미지처리팀
INTRO: Data-centric AI
Daochen Zha, Zaid Pervaiz Bhat, Kwei-Herng Lai, Fan Yang, & Xia Hu. (2023). Data-centric AI: Perspectives and Challenges.
● 과거 연구: specific한
task로 '모델'을 학습하고
성능을 평가
● Data-centric AI: 어떤
'데이터'로 모델을
학습시켰을 때 성능이 향상
될 수 있었으며 무엇이
'좋은 데이터'인지를 평가
INTRO: Data-centric AI
Daochen Zha, Zaid Pervaiz Bhat, Kwei-Herng Lai, Fan Yang, & Xia Hu. (2023). Data-centric AI: Perspectives and Challenges.
데이터셋을 정제하고, train이 가능한 형태로 변환하는 과정.
ex. Data Cleaning: 결측값 입력, 중복값 제거, inconsistency 있는
샘플을 수정하는 방법 등 데이터의 노이즈나 에러를 제거하는 방법
INTRO: Data-centric AI
Daochen Zha, Zaid Pervaiz Bhat, Kwei-Herng Lai, Fan Yang, & Xia Hu. (2023). Data-centric AI: Perspectives and Challenges.
INTRO: Problem Statements
Badly Located Error
Swapped Error
Overlooked Error
INTRO: Problem Statements
Badly Located Error
● GT의 bbox가 object 전체를 포함하고 있지 않거나 위치가 정확하지 않은 경우
● 60번 class(=table)를 보면 prediction 결과에서는 table 전체가 bbox에 포함되지만 GT에서는
테이블의 일부만 포함 됨.
annotators poorly outlined only half of the
dinning table(class #60) which the model
localized much better (with confidence
0.964), leading to a low Badly-Located
score in ObjectLab.
INTRO: Problem Statements
Swapped Error
Badly Located Error
the glass object on the right is incorrectly
annotated as a bowl(class #45), while the
model predicted cup(class #41) with
confidence 0.962, leading to a low
Swapped-score in ObjectLab.
● GT의 bbox의 위치는 맞지만, 그 클래스가 틀린 경우를 말한다.
● GT의 빨간색 bbox는 상단의 물잔을 bowl에 해당하는 45번 class로 표기한 반면,
ObjectLab으로 교정한 결과 cup에 해당하는 41번 class로 옳게 바뀜.
: GT의 bbox가 object 전체를 포함하고 있지 않거나 위치가 정확하지 않은 경우
INTRO: Problem Statements
Overlooked Error
annotators missed the fire hydrant (class
#10 in COCO) which the model detected
with confidence 0.998, leading to a low
Overlooked-score in ObjectLab.
● GT에 존재해야 할 bbox가 missing된 경우
● 왼쪽의 GT bbox에는 소화전에 bbox가 존재하지 않지만,
ObjectLab의 결과에서는 소화전에 올바른 bbox가 존재함.
Badly Located Error
: GT의 bbox가 object 전체를 포함하고 있지 않거나 위치가 정확하지 않은 경우
Swapped Error
: GT의 bbox 위치는 맞지만, Class가 틀린 경우
INTRO: Problem Statements
Badly Located Error
Swapped Error
Overlooked Error
ObjectLab
Dataset without
Labeling Errors
You Do Not Need
to Change Your Models!
→ Just use any type of Detection Model
INTRO: Problem Statements
Badly Located Error
Swapped Error
Overlooked Error
ObjectLab
Dataset without
Labeling Errors
: 5-Fold Cross-validation
Related Works: TIDE
→ A General Toolbox for Identifying Object Detection Errors
Daniel Bolya, Sean Foley, James Hays, & Judy Hoffman. (2020). TIDE: A General Toolbox for Identifying Object Detection Errors.
mAP
mAP
● 오류 유형이 서로 얽혀있어 각 오류 유형이 mAP에 얼마나 영향을 미치는지 측정하기 어려워,
detector의 오류 분석에 활용하기 어려움
● mAP만을 최적화함으로써 application마다 다를 수 있는 오류 유형의 상대적 중요성을 생략할 수 있음
(ex. 종양 탐지에서 상자 위치파악보다 분류 정확도가 더 중요함)
Related Works: TIDE
→ A General Toolbox for Identifying Object Detection Errors
Daniel Bolya, Sean Foley, James Hays, & Judy Hoffman. (2020). TIDE: A General Toolbox for Identifying Object Detection Errors.
TIDE
● Error를 6가지 유형으로 분류
○ 각 오류의 기여도를 측정하여 오류 원인
분석 가능
● Contribution
○ 오류 유형을 간결하게 요약하여 한 눈에
비교할 수 있음
○ 결론에 영향을 미칠 수 있는 교란
변수가 없도록 각 오류 유형의 기여도를
완전히 분리함
○ 오류의 원인을 구별하여 원하는 더
정밀한 분석이 가능함
Related Works: TIDE
→ A General Toolbox for Identifying Object Detection Errors
Daniel Bolya, Sean Foley, James Hays, & Judy Hoffman. (2020). TIDE: A General Toolbox for Identifying Object Detection Errors.
TIDE
Related Works: Confident Learning Object Detection
Northcutt, C. G., Athalye, A., and Mueller, J. Pervasive label errors in test sets destabilize machine learning benchmarks. In Proceedings of the 35th Conference on Neural Information Processing Systems Track on Datasets and Benchmarks, December 2021a.
Detecting Swapped Dataset
● Assumption: 결국 특정 클래스로 잘못 예측되는건
Prior latent vector가 얼마나 유사한지로 결정된다!
~
~
~
~
confusing
obvious
Related Works: Label Quality Score
Model-agnostic label quality scoring to detect real-world label errors ICML DataPerf Workshop, 2022.
● LED(Label Error Detection): 어떤 이미지가 잘못 라벨링 되는지를 식별하는 것
● Swin Transformer 모델을 confidence weighted entropy 나 self-confidence scores를 썼을 때 가장 결과가 좋았음.
● least-confidence와 entropy scores 는 성능이 제일 안좋았음.
Importance of Label Quality Scores
** Score가 높다 == Label Error를 잘 찾아냈다
Q & A
Methods: Notation
Methods: ObjectLab Algorithm
ObjectLab의 Label Score
: GT의 bbox 위치가 정확하지 않은
error에 대한 score
: GT의 bbox 위치는 맞지만,
Class가 틀린 경우에 대한 score
: GT의 bbox가 존재하지 않는
경우에 대한 score
⅓
Methods: Similarity Function
: 한 이미지에서 나온 bbox pair들에 대해서 Similarity를 계산할 수 있는 식
B1
B2
Methods: Similarity Function
: 한 이미지에서 나온 bbox pair들에 대해서 Similarity를 계산할 수 있는 식
Bany
Bany
if in case of
badly located error,
Methods: Badly Located Box Scores
: GT의 bbox 위치가 정확하지
않은 error에 대한 score
: GT의 bbox 위치는 맞지만,
Class가 틀린 경우에 대한 score
: GT의 bbox가 존재하지 않는
경우에 대한 score
⅓
(Pred)Btable
(GT)Btable
Methods: Softmin Pooling
: GT의 bbox 위치가 정확하지 않은
error에 대한 score
: GT의 bbox 위치는 맞지만,
Class가 틀린 경우에 대한 score
: GT의 bbox가 존재하지 않는
경우에 대한 score
⅓
(Pred)Bdog
(GT)Bbear
Methods: Softmin Pooling
: GT의 bbox 위치가 정확하지 않은
error에 대한 score
: GT의 bbox 위치는 맞지만,
Class가 틀린 경우에 대한 score
: GT의 bbox가 존재하지 않는
경우에 대한 score
⅓
(Pred)B1, person
(Pred)B2, person
(GT) Bperson
p2=0.99
p1=0.98
Methods: Softmin Pooling
: GT의 bbox 위치가 정확하지 않은
error에 대한 score
: GT의 bbox 위치는 맞지만,
Class가 틀린 경우에 대한 score
: GT의 bbox가 존재하지 않는
경우에 대한 score
⅓
Softmin
** 정확히 스코어 뭘로 짤랐는지?
Q & A
Experiments: Dataset and Models
COCO-bench Dataset 5 Classes: {person, chair, cup, car, traffic light}
Compares
COCO annotation
(original)
Ma et al. annotation
(Independent)
Sama annotation
(Independent)
vs. vs.
Wrong Annotation! 2,171
251
images
Experiments: Dataset and Models
SYNTHIA-AL Dataset
Car(#0)인데 Bicycle(#3)라고
잘못 라벨링되어 있음
가운데 Car(#0)의 BBox 위치가
정확하지 않음
마지막 Car의 BBox가
missing되어 있음
Experiments: Dataset and Models
COCO-full Dataset : Badly Located Error
Badly Located
of Train BBox
Badly Located
of Person BBox
Experiments: Dataset and Models
COCO-full Dataset : Swapped Error
Swapped between
Cake <-> Donut
Swapped between
Bowl <-> Cup
Experiments: Dataset and Models
COCO-full Dataset : Overlooked Error
BBoxes of Sports Balls are
Overlooked
BBox of a Person is
Overlooked
Experiments: Metrics
ObjectLab results, we estimate that in
COCO 2017 around:
3% have a Badly Located error,
0.7% have a Swapped error,
and 5% of images have an Overlooked error.
“
”
Implications of label errors in test data
1. 작은 모델일수록 보이지 않는 regularization 이점을 확인함 (작은 모델일 경우 고친
데이터에 대해서 성능 올라감)
2. 큰 모델은 system 자체의 label error의 패턴을 학습하여 좋은 성능을 가져온다.
Northcutt, C. G., Athalye, A., and Mueller, J. Pervasive label errors in test sets destabilize machine learning benchmarks. In Proceedings of the 35th Conference on Neural Information Processing Systems Track on Datasets and Benchmarks, December 2021a.
Detecting Swapped Dataset
References: Label Errors in Test Dataset
: 큰 모델일수록 원래 테스트셋에서는 높은 성능이지만 고친 데이터에 대해서 떨어짐
References: The Effect of Improving Annotation Quality
Ma, J., Ushiku, Y., & Sagara, M. (2022). The Effect of Improving Annotation Quality on Object Detection Datasets: A Preliminary Study. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (pp. 4849-4858).
Old Dataset에서 주어진 Annotation New
{TRAIN} / {TEST}
● (old/old)일 때 좋은
경우가 많음
Annotation Error를 올바르게 고친 버전
References: The Effect of Improving Annotation Quality
Ma, J., Ushiku, Y., & Sagara, M. (2022). The Effect of Improving Annotation Quality on Object Detection Datasets: A Preliminary Study. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (pp. 4849-4858).
{TRAIN} / {TEST}
● (new/new)일 때 좋은
경우가 많음
Old Dataset에서 주어진 Annotation New Annotation Error를 올바르게 고친 버전
Conclusions
1.
ObjectLab은 모델 구조 변화 없이 Annotation Error를 탐지하고,
이를 올바르게 고쳐줄 수 있는 General한 Toolkit임
2.
Noisy Dataset으로 학습을 잘 시키는 방법에 대한 연구도 있지만,
데이터셋의 오류를 교정하여 좋은 데이터셋으로 학습 혹은 테스트를
해보자는 접근 방법임
3.
데이터셋에 존재하는 약간의 에러는 너무 쉬운 Task가 되지 않도록 도와
모델의 Robustness를 올려줄 수 있으나, 에러가 많은 경우 학습에 방해가 됨
4.
Third-party Data Annotation Vendor에 의해 7%~80%의 레이블 에러 발생
→ 직접 데이터를 만들어야 하는 경우 유용하게 쓸 수 있을 것으로 보임
Q & A

More Related Content

What's hot

CycleGAN이 무엇인지 알아보자
CycleGAN이 무엇인지 알아보자CycleGAN이 무엇인지 알아보자
CycleGAN이 무엇인지 알아보자Kwangsik Lee
 
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networksDeep Learning JP
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
Diffusion models beat gans on image synthesis
Diffusion models beat gans on image synthesisDiffusion models beat gans on image synthesis
Diffusion models beat gans on image synthesisBeerenSahu
 
Attention-Guided GANについて
Attention-Guided GANについてAttention-Guided GANについて
Attention-Guided GANについてyohei okawa
 
Self Supervised Learning 세미나.pptx
Self Supervised Learning 세미나.pptxSelf Supervised Learning 세미나.pptx
Self Supervised Learning 세미나.pptxDongkyunKim17
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphingDeep Learning JP
 
08 Exponential Random Graph Models (ERGM)
08 Exponential Random Graph Models (ERGM)08 Exponential Random Graph Models (ERGM)
08 Exponential Random Graph Models (ERGM)dnac
 
보다 유연한 이미지 변환을 하려면?
보다 유연한 이미지 변환을 하려면?보다 유연한 이미지 변환을 하려면?
보다 유연한 이미지 변환을 하려면?광희 이
 
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...Deep Learning JP
 
Toward Disentanglement through Understand ELBO
Toward Disentanglement through Understand ELBOToward Disentanglement through Understand ELBO
Toward Disentanglement through Understand ELBOKai-Wen Zhao
 
PR-231: A Simple Framework for Contrastive Learning of Visual Representations
PR-231: A Simple Framework for Contrastive Learning of Visual RepresentationsPR-231: A Simple Framework for Contrastive Learning of Visual Representations
PR-231: A Simple Framework for Contrastive Learning of Visual RepresentationsJinwon Lee
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2harmonylab
 
[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate
[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate
[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning RateDeep Learning JP
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAKento Doi
 
Invariant Information Clustering for Unsupervised Image Classification and Se...
Invariant Information Clustering for Unsupervised Image Classification and Se...Invariant Information Clustering for Unsupervised Image Classification and Se...
Invariant Information Clustering for Unsupervised Image Classification and Se...harmonylab
 
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)Deep Learning JP
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )cvpaper. challenge
 
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptxARISE analytics
 

What's hot (20)

CycleGAN이 무엇인지 알아보자
CycleGAN이 무엇인지 알아보자CycleGAN이 무엇인지 알아보자
CycleGAN이 무엇인지 알아보자
 
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
Diffusion models beat gans on image synthesis
Diffusion models beat gans on image synthesisDiffusion models beat gans on image synthesis
Diffusion models beat gans on image synthesis
 
Attention-Guided GANについて
Attention-Guided GANについてAttention-Guided GANについて
Attention-Guided GANについて
 
Self Supervised Learning 세미나.pptx
Self Supervised Learning 세미나.pptxSelf Supervised Learning 세미나.pptx
Self Supervised Learning 세미나.pptx
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
 
08 Exponential Random Graph Models (ERGM)
08 Exponential Random Graph Models (ERGM)08 Exponential Random Graph Models (ERGM)
08 Exponential Random Graph Models (ERGM)
 
보다 유연한 이미지 변환을 하려면?
보다 유연한 이미지 변환을 하려면?보다 유연한 이미지 변환을 하려면?
보다 유연한 이미지 변환을 하려면?
 
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
[DL輪読会]Multi-Modal and Multi-Domain Embedding Learning for Fashion Retrieval ...
 
Toward Disentanglement through Understand ELBO
Toward Disentanglement through Understand ELBOToward Disentanglement through Understand ELBO
Toward Disentanglement through Understand ELBO
 
PR-231: A Simple Framework for Contrastive Learning of Visual Representations
PR-231: A Simple Framework for Contrastive Learning of Visual RepresentationsPR-231: A Simple Framework for Contrastive Learning of Visual Representations
PR-231: A Simple Framework for Contrastive Learning of Visual Representations
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
 
AdaFace(CVPR2022)
AdaFace(CVPR2022)AdaFace(CVPR2022)
AdaFace(CVPR2022)
 
[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate
[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate
[DL輪読会]Adaptive Gradient Methods with Dynamic Bound of Learning Rate
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
 
Invariant Information Clustering for Unsupervised Image Classification and Se...
Invariant Information Clustering for Unsupervised Image Classification and Se...Invariant Information Clustering for Unsupervised Image Classification and Se...
Invariant Information Clustering for Unsupervised Image Classification and Se...
 
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
 

Similar to [2023 ICML]ObjectLab: Automated Diagnosis of Mislabeled Images in Object Detection Data

생체 광학 데이터 분석 AI 경진대회 3위 수상작
생체 광학 데이터 분석 AI 경진대회 3위 수상작생체 광학 데이터 분석 AI 경진대회 3위 수상작
생체 광학 데이터 분석 AI 경진대회 3위 수상작DACON AI 데이콘
 
파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석Heekyung Yoon
 
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best PracticesPAP (Product Analytics Playground)
 
[PAP] 실무자를 위한 인과추론 활용 : Best Practices
[PAP] 실무자를 위한 인과추론 활용 : Best Practices[PAP] 실무자를 위한 인과추론 활용 : Best Practices
[PAP] 실무자를 위한 인과추론 활용 : Best PracticesBokyung Choi
 
Deep learning framework 제작
Deep learning framework 제작Deep learning framework 제작
Deep learning framework 제작Tae Young Lee
 
AnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIAnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIHYEJINLIM10
 
(주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색
(주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색 (주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색
(주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색 wiseitech
 
(Qraft)naver pitching
(Qraft)naver pitching(Qraft)naver pitching
(Qraft)naver pitching형식 김
 
Investment and deep learning
Investment and deep learningInvestment and deep learning
Investment and deep learningNAVER Engineering
 
결합도 관점에서 본 VO 문제점
결합도 관점에서 본 VO 문제점결합도 관점에서 본 VO 문제점
결합도 관점에서 본 VO 문제점JavaCommunity.Org
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기Myeongju Kim
 
2017 빅콘테스트
2017 빅콘테스트2017 빅콘테스트
2017 빅콘테스트Sanghyun Kim
 
권기훈_포트폴리오
권기훈_포트폴리오권기훈_포트폴리오
권기훈_포트폴리오Kihoon4
 
더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)
더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)
더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)Jeongho Shin
 
Denoising auto encoders(d a)
Denoising auto encoders(d a)Denoising auto encoders(d a)
Denoising auto encoders(d a)Tae Young Lee
 
[Paper] EDA : easy data augmentation techniques for boosting performance on t...
[Paper] EDA : easy data augmentation techniques for boosting performance on t...[Paper] EDA : easy data augmentation techniques for boosting performance on t...
[Paper] EDA : easy data augmentation techniques for boosting performance on t...Susang Kim
 
"simple does it weakly supervised instance and semantic segmentation" Paper r...
"simple does it weakly supervised instance and semantic segmentation" Paper r..."simple does it weakly supervised instance and semantic segmentation" Paper r...
"simple does it weakly supervised instance and semantic segmentation" Paper r...LEE HOSEONG
 
코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018
코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018
코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018SangIn Choung
 
[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...
[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...
[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...Bokyung Choi
 
[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규
[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규
[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규ChangKyu Song
 

Similar to [2023 ICML]ObjectLab: Automated Diagnosis of Mislabeled Images in Object Detection Data (20)

생체 광학 데이터 분석 AI 경진대회 3위 수상작
생체 광학 데이터 분석 AI 경진대회 3위 수상작생체 광학 데이터 분석 AI 경진대회 3위 수상작
생체 광학 데이터 분석 AI 경진대회 3위 수상작
 
파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석
 
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
 
[PAP] 실무자를 위한 인과추론 활용 : Best Practices
[PAP] 실무자를 위한 인과추론 활용 : Best Practices[PAP] 실무자를 위한 인과추론 활용 : Best Practices
[PAP] 실무자를 위한 인과추론 활용 : Best Practices
 
Deep learning framework 제작
Deep learning framework 제작Deep learning framework 제작
Deep learning framework 제작
 
AnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIAnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AI
 
(주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색
(주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색 (주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색
(주)위세아이텍 - 비지도 학습을 적용한 유사 금형설계도면 검색
 
(Qraft)naver pitching
(Qraft)naver pitching(Qraft)naver pitching
(Qraft)naver pitching
 
Investment and deep learning
Investment and deep learningInvestment and deep learning
Investment and deep learning
 
결합도 관점에서 본 VO 문제점
결합도 관점에서 본 VO 문제점결합도 관점에서 본 VO 문제점
결합도 관점에서 본 VO 문제점
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기
 
2017 빅콘테스트
2017 빅콘테스트2017 빅콘테스트
2017 빅콘테스트
 
권기훈_포트폴리오
권기훈_포트폴리오권기훈_포트폴리오
권기훈_포트폴리오
 
더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)
더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)
더 나은 S/W를 만드는 것에 관하여 (OKKY 세미나)
 
Denoising auto encoders(d a)
Denoising auto encoders(d a)Denoising auto encoders(d a)
Denoising auto encoders(d a)
 
[Paper] EDA : easy data augmentation techniques for boosting performance on t...
[Paper] EDA : easy data augmentation techniques for boosting performance on t...[Paper] EDA : easy data augmentation techniques for boosting performance on t...
[Paper] EDA : easy data augmentation techniques for boosting performance on t...
 
"simple does it weakly supervised instance and semantic segmentation" Paper r...
"simple does it weakly supervised instance and semantic segmentation" Paper r..."simple does it weakly supervised instance and semantic segmentation" Paper r...
"simple does it weakly supervised instance and semantic segmentation" Paper r...
 
코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018
코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018
코드 테스트와 커버리지 관련 설문 및 개선계획수립 in 2018
 
[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...
[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...
[Causal Inference Workshop 2022] Applications of Causal Inference in Product ...
 
[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규
[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규
[NDC12] 변화량 분석을 중심으로 한 저비용 고효율의 지속가능한 코드퀄리티 관리법 - 송창규
 

[2023 ICML]ObjectLab: Automated Diagnosis of Mislabeled Images in Object Detection Data

  • 1. ObjectLab: Automated Diagnosis of Mislabeled Images in Object Detection Data 강인하 | 김준철 | 최승준 | 김현진 | 허정원 ICML, 2023 Data-centric ML Workshop 20231105 이미지처리팀
  • 2. INTRO: Data-centric AI Daochen Zha, Zaid Pervaiz Bhat, Kwei-Herng Lai, Fan Yang, & Xia Hu. (2023). Data-centric AI: Perspectives and Challenges. ● 과거 연구: specific한 task로 '모델'을 학습하고 성능을 평가 ● Data-centric AI: 어떤 '데이터'로 모델을 학습시켰을 때 성능이 향상 될 수 있었으며 무엇이 '좋은 데이터'인지를 평가
  • 3. INTRO: Data-centric AI Daochen Zha, Zaid Pervaiz Bhat, Kwei-Herng Lai, Fan Yang, & Xia Hu. (2023). Data-centric AI: Perspectives and Challenges.
  • 4. 데이터셋을 정제하고, train이 가능한 형태로 변환하는 과정. ex. Data Cleaning: 결측값 입력, 중복값 제거, inconsistency 있는 샘플을 수정하는 방법 등 데이터의 노이즈나 에러를 제거하는 방법 INTRO: Data-centric AI Daochen Zha, Zaid Pervaiz Bhat, Kwei-Herng Lai, Fan Yang, & Xia Hu. (2023). Data-centric AI: Perspectives and Challenges.
  • 5. INTRO: Problem Statements Badly Located Error Swapped Error Overlooked Error
  • 6. INTRO: Problem Statements Badly Located Error ● GT의 bbox가 object 전체를 포함하고 있지 않거나 위치가 정확하지 않은 경우 ● 60번 class(=table)를 보면 prediction 결과에서는 table 전체가 bbox에 포함되지만 GT에서는 테이블의 일부만 포함 됨. annotators poorly outlined only half of the dinning table(class #60) which the model localized much better (with confidence 0.964), leading to a low Badly-Located score in ObjectLab.
  • 7. INTRO: Problem Statements Swapped Error Badly Located Error the glass object on the right is incorrectly annotated as a bowl(class #45), while the model predicted cup(class #41) with confidence 0.962, leading to a low Swapped-score in ObjectLab. ● GT의 bbox의 위치는 맞지만, 그 클래스가 틀린 경우를 말한다. ● GT의 빨간색 bbox는 상단의 물잔을 bowl에 해당하는 45번 class로 표기한 반면, ObjectLab으로 교정한 결과 cup에 해당하는 41번 class로 옳게 바뀜. : GT의 bbox가 object 전체를 포함하고 있지 않거나 위치가 정확하지 않은 경우
  • 8. INTRO: Problem Statements Overlooked Error annotators missed the fire hydrant (class #10 in COCO) which the model detected with confidence 0.998, leading to a low Overlooked-score in ObjectLab. ● GT에 존재해야 할 bbox가 missing된 경우 ● 왼쪽의 GT bbox에는 소화전에 bbox가 존재하지 않지만, ObjectLab의 결과에서는 소화전에 올바른 bbox가 존재함. Badly Located Error : GT의 bbox가 object 전체를 포함하고 있지 않거나 위치가 정확하지 않은 경우 Swapped Error : GT의 bbox 위치는 맞지만, Class가 틀린 경우
  • 9. INTRO: Problem Statements Badly Located Error Swapped Error Overlooked Error ObjectLab Dataset without Labeling Errors You Do Not Need to Change Your Models! → Just use any type of Detection Model
  • 10. INTRO: Problem Statements Badly Located Error Swapped Error Overlooked Error ObjectLab Dataset without Labeling Errors : 5-Fold Cross-validation
  • 11. Related Works: TIDE → A General Toolbox for Identifying Object Detection Errors Daniel Bolya, Sean Foley, James Hays, & Judy Hoffman. (2020). TIDE: A General Toolbox for Identifying Object Detection Errors. mAP mAP ● 오류 유형이 서로 얽혀있어 각 오류 유형이 mAP에 얼마나 영향을 미치는지 측정하기 어려워, detector의 오류 분석에 활용하기 어려움 ● mAP만을 최적화함으로써 application마다 다를 수 있는 오류 유형의 상대적 중요성을 생략할 수 있음 (ex. 종양 탐지에서 상자 위치파악보다 분류 정확도가 더 중요함)
  • 12. Related Works: TIDE → A General Toolbox for Identifying Object Detection Errors Daniel Bolya, Sean Foley, James Hays, & Judy Hoffman. (2020). TIDE: A General Toolbox for Identifying Object Detection Errors. TIDE ● Error를 6가지 유형으로 분류 ○ 각 오류의 기여도를 측정하여 오류 원인 분석 가능 ● Contribution ○ 오류 유형을 간결하게 요약하여 한 눈에 비교할 수 있음 ○ 결론에 영향을 미칠 수 있는 교란 변수가 없도록 각 오류 유형의 기여도를 완전히 분리함 ○ 오류의 원인을 구별하여 원하는 더 정밀한 분석이 가능함
  • 13. Related Works: TIDE → A General Toolbox for Identifying Object Detection Errors Daniel Bolya, Sean Foley, James Hays, & Judy Hoffman. (2020). TIDE: A General Toolbox for Identifying Object Detection Errors. TIDE
  • 14. Related Works: Confident Learning Object Detection Northcutt, C. G., Athalye, A., and Mueller, J. Pervasive label errors in test sets destabilize machine learning benchmarks. In Proceedings of the 35th Conference on Neural Information Processing Systems Track on Datasets and Benchmarks, December 2021a. Detecting Swapped Dataset ● Assumption: 결국 특정 클래스로 잘못 예측되는건 Prior latent vector가 얼마나 유사한지로 결정된다! ~ ~ ~ ~ confusing obvious
  • 15. Related Works: Label Quality Score Model-agnostic label quality scoring to detect real-world label errors ICML DataPerf Workshop, 2022. ● LED(Label Error Detection): 어떤 이미지가 잘못 라벨링 되는지를 식별하는 것 ● Swin Transformer 모델을 confidence weighted entropy 나 self-confidence scores를 썼을 때 가장 결과가 좋았음. ● least-confidence와 entropy scores 는 성능이 제일 안좋았음. Importance of Label Quality Scores ** Score가 높다 == Label Error를 잘 찾아냈다
  • 16. Q & A
  • 18. Methods: ObjectLab Algorithm ObjectLab의 Label Score : GT의 bbox 위치가 정확하지 않은 error에 대한 score : GT의 bbox 위치는 맞지만, Class가 틀린 경우에 대한 score : GT의 bbox가 존재하지 않는 경우에 대한 score ⅓
  • 19. Methods: Similarity Function : 한 이미지에서 나온 bbox pair들에 대해서 Similarity를 계산할 수 있는 식 B1 B2
  • 20. Methods: Similarity Function : 한 이미지에서 나온 bbox pair들에 대해서 Similarity를 계산할 수 있는 식 Bany Bany if in case of badly located error,
  • 21. Methods: Badly Located Box Scores : GT의 bbox 위치가 정확하지 않은 error에 대한 score : GT의 bbox 위치는 맞지만, Class가 틀린 경우에 대한 score : GT의 bbox가 존재하지 않는 경우에 대한 score ⅓ (Pred)Btable (GT)Btable
  • 22. Methods: Softmin Pooling : GT의 bbox 위치가 정확하지 않은 error에 대한 score : GT의 bbox 위치는 맞지만, Class가 틀린 경우에 대한 score : GT의 bbox가 존재하지 않는 경우에 대한 score ⅓ (Pred)Bdog (GT)Bbear
  • 23. Methods: Softmin Pooling : GT의 bbox 위치가 정확하지 않은 error에 대한 score : GT의 bbox 위치는 맞지만, Class가 틀린 경우에 대한 score : GT의 bbox가 존재하지 않는 경우에 대한 score ⅓ (Pred)B1, person (Pred)B2, person (GT) Bperson p2=0.99 p1=0.98
  • 24. Methods: Softmin Pooling : GT의 bbox 위치가 정확하지 않은 error에 대한 score : GT의 bbox 위치는 맞지만, Class가 틀린 경우에 대한 score : GT의 bbox가 존재하지 않는 경우에 대한 score ⅓ Softmin ** 정확히 스코어 뭘로 짤랐는지?
  • 25. Q & A
  • 26. Experiments: Dataset and Models COCO-bench Dataset 5 Classes: {person, chair, cup, car, traffic light} Compares COCO annotation (original) Ma et al. annotation (Independent) Sama annotation (Independent) vs. vs. Wrong Annotation! 2,171 251 images
  • 27. Experiments: Dataset and Models SYNTHIA-AL Dataset Car(#0)인데 Bicycle(#3)라고 잘못 라벨링되어 있음 가운데 Car(#0)의 BBox 위치가 정확하지 않음 마지막 Car의 BBox가 missing되어 있음
  • 28. Experiments: Dataset and Models COCO-full Dataset : Badly Located Error Badly Located of Train BBox Badly Located of Person BBox
  • 29. Experiments: Dataset and Models COCO-full Dataset : Swapped Error Swapped between Cake <-> Donut Swapped between Bowl <-> Cup
  • 30. Experiments: Dataset and Models COCO-full Dataset : Overlooked Error BBoxes of Sports Balls are Overlooked BBox of a Person is Overlooked
  • 31. Experiments: Metrics ObjectLab results, we estimate that in COCO 2017 around: 3% have a Badly Located error, 0.7% have a Swapped error, and 5% of images have an Overlooked error. “ ”
  • 32. Implications of label errors in test data 1. 작은 모델일수록 보이지 않는 regularization 이점을 확인함 (작은 모델일 경우 고친 데이터에 대해서 성능 올라감) 2. 큰 모델은 system 자체의 label error의 패턴을 학습하여 좋은 성능을 가져온다. Northcutt, C. G., Athalye, A., and Mueller, J. Pervasive label errors in test sets destabilize machine learning benchmarks. In Proceedings of the 35th Conference on Neural Information Processing Systems Track on Datasets and Benchmarks, December 2021a. Detecting Swapped Dataset References: Label Errors in Test Dataset : 큰 모델일수록 원래 테스트셋에서는 높은 성능이지만 고친 데이터에 대해서 떨어짐
  • 33. References: The Effect of Improving Annotation Quality Ma, J., Ushiku, Y., & Sagara, M. (2022). The Effect of Improving Annotation Quality on Object Detection Datasets: A Preliminary Study. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (pp. 4849-4858). Old Dataset에서 주어진 Annotation New {TRAIN} / {TEST} ● (old/old)일 때 좋은 경우가 많음 Annotation Error를 올바르게 고친 버전
  • 34. References: The Effect of Improving Annotation Quality Ma, J., Ushiku, Y., & Sagara, M. (2022). The Effect of Improving Annotation Quality on Object Detection Datasets: A Preliminary Study. In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (pp. 4849-4858). {TRAIN} / {TEST} ● (new/new)일 때 좋은 경우가 많음 Old Dataset에서 주어진 Annotation New Annotation Error를 올바르게 고친 버전
  • 35. Conclusions 1. ObjectLab은 모델 구조 변화 없이 Annotation Error를 탐지하고, 이를 올바르게 고쳐줄 수 있는 General한 Toolkit임 2. Noisy Dataset으로 학습을 잘 시키는 방법에 대한 연구도 있지만, 데이터셋의 오류를 교정하여 좋은 데이터셋으로 학습 혹은 테스트를 해보자는 접근 방법임 3. 데이터셋에 존재하는 약간의 에러는 너무 쉬운 Task가 되지 않도록 도와 모델의 Robustness를 올려줄 수 있으나, 에러가 많은 경우 학습에 방해가 됨 4. Third-party Data Annotation Vendor에 의해 7%~80%의 레이블 에러 발생 → 직접 데이터를 만들어야 하는 경우 유용하게 쓸 수 있을 것으로 보임
  • 36. Q & A