Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
Various 전문가들의 충고를 듣고 결정을 하는 것이 좋다.
서로 다른 알고리즘들을 결합하는 방법
Various 전문가들의 충고를 듣고 결정을 하는 것이 좋다.
메타 알고리즘
이것이 바로 Adaboost
서로 다른 알고리즘들을 결합해서 좋은 성능을 내자!
boost
분류기 h1 h1으로 분류데이터 x1
데이터 x2
데이터 x3
분류기 h2
분류기 h3
h1,h2으로 분류
h1,h2,h3으로 분류
Adaboost
Adaboost -> 각 데이터에 적절히 가중치를 주고 학습시키자
결합해서 사용하면 왜 좋은가?
결합해서 사용하면 왜 좋은가?
결합해서 사용하면 왜 좋은가?
결합해서 사용하면 왜 좋은가?
분류기 1 데이터 집합`1원본 데이터 S
분류기 2
분류기 3
분류기 n
데이터 집합`2
데이터 집합`3
데이터 집합 n
분류기 1 습득 데이터 집합`1습득 데이터
분류기 2
분류기 3
분류기 n
습득 데이터 집합`2
습득 데이터 집합`3
습득 데이터 집합 n
>,< = ?
습득 데이터 집합`1
습득 데이터 집합`2
습득 데이터 집합`3
습득 데이터 집합 n
데이터 집합`1
데이터 집합`2
데이터 집합`3
데이터 집합 n
Adaboost의 일반적인 접근 방법
훈련(training)
훈련(training)
훈련(training)
머신러닝 시그 에이다부스트 07
머신러닝 시그 에이다부스트 07
머신러닝 시그 에이다부스트 07
머신러닝 시그 에이다부스트 07
머신러닝 시그 에이다부스트 07
머신러닝 시그 에이다부스트 07
머신러닝 시그 에이다부스트 07
Upcoming SlideShare
Loading in …5
×

머신러닝 시그 에이다부스트 07

5,461 views

Published on

에이다부스트
http://vision0814.tistory.com/

Published in: Education

머신러닝 시그 에이다부스트 07

  1. 1. Various 전문가들의 충고를 듣고 결정을 하는 것이 좋다.
  2. 2. 서로 다른 알고리즘들을 결합하는 방법 Various 전문가들의 충고를 듣고 결정을 하는 것이 좋다. 메타 알고리즘
  3. 3. 이것이 바로 Adaboost 서로 다른 알고리즘들을 결합해서 좋은 성능을 내자!
  4. 4. boost 분류기 h1 h1으로 분류데이터 x1 데이터 x2 데이터 x3 분류기 h2 분류기 h3 h1,h2으로 분류 h1,h2,h3으로 분류
  5. 5. Adaboost
  6. 6. Adaboost -> 각 데이터에 적절히 가중치를 주고 학습시키자
  7. 7. 결합해서 사용하면 왜 좋은가?
  8. 8. 결합해서 사용하면 왜 좋은가?
  9. 9. 결합해서 사용하면 왜 좋은가?
  10. 10. 결합해서 사용하면 왜 좋은가?
  11. 11. 분류기 1 데이터 집합`1원본 데이터 S 분류기 2 분류기 3 분류기 n 데이터 집합`2 데이터 집합`3 데이터 집합 n
  12. 12. 분류기 1 습득 데이터 집합`1습득 데이터 분류기 2 분류기 3 분류기 n 습득 데이터 집합`2 습득 데이터 집합`3 습득 데이터 집합 n
  13. 13. >,< = ? 습득 데이터 집합`1 습득 데이터 집합`2 습득 데이터 집합`3 습득 데이터 집합 n 데이터 집합`1 데이터 집합`2 데이터 집합`3 데이터 집합 n
  14. 14. Adaboost의 일반적인 접근 방법
  15. 15. 훈련(training)
  16. 16. 훈련(training)
  17. 17. 훈련(training)

×