해커에게 전해들은 머신러닝 #3

171 views

Published on

한빛미디어 리얼타임 세미나 '해커에게 전해들은 머신러닝' 강의 자료(3/4)
http://www.hanbit.co.kr/store/education/edu_view.html?p_code=S4788493436

Published in: Technology
0 Comments
3 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
171
On SlideShare
0
From Embeds
0
Number of Embeds
37
Actions
Shares
0
Downloads
38
Comments
0
Likes
3
Embeds 0
No embeds

No notes for slide
  • y 햇: h, f 등으로 쓰기도 함.
  • 데이터 마이닝은 지식이나 인사이트를 얻는다.
    머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • 데이터 마이닝은 지식이나 인사이트를 얻는다.
    머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • 데이터 마이닝은 지식이나 인사이트를 얻는다.
    머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • 데이터 마이닝은 지식이나 인사이트를 얻는다.
    머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • 통계학의 알고리즘에 많이 의존함.
    통계학적 머신러닝이라고 부르기도 함.
    컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • 통계학의 알고리즘에 많이 의존함.
    통계학적 머신러닝이라고 부르기도 함.
    컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • 통계학의 알고리즘에 많이 의존함.
    통계학적 머신러닝이라고 부르기도 함.
    컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • 통계학의 알고리즘에 많이 의존함.
    통계학적 머신러닝이라고 부르기도 함.
    컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • AI는 언어학, 뇌의학, 검색, 로봇틱스 포함
    아직 일반지능이 아님
    딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  • AI는 언어학, 뇌의학, 검색, 로봇틱스 포함
    아직 일반지능이 아님
    딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • y 햇: h, f 등으로 쓰기도 함.
  • 훈련데이터/학습데이터
    지도학습: 주가예측, 스팸메일 분류
    비지도학습: 고객 분류
    딥 러닝은 알고리즘의 하나로 학습방법이 아님.
    딥 리인포스먼트 러닝
  • 해커에게 전해들은 머신러닝 #3

    1. 1. 해커에게 전해들은 머신러닝-3 tensorflowkorea.wordpress.com/슬라이드-자료/ tensorflowkorea.wordpress.com/2016/10/29/해커에게-전해들은-머신러닝 github.com/rickiepark/ml-learn 2016. 11. Park Haesun(haesunrpark@gmail.com)
    2. 2. 여러개를 분류하기
    3. 3. 로지스틱 회귀 Neuron 𝑤 * + Sigmoid 0 아니면 1 (악성) (양성) 𝑦 = 1 1 + 𝑒−𝑧 𝑥 𝑏 𝑦
    4. 4. 여러개로 분류할 땐? Dog Cat Rabbit
    5. 5. 여러개로 분류할 땐? Dog Cat Rabbit Sigmoid Sigmoid Sigmoid
    6. 6. 멀티 클래스 분류(Multi Class Classification) Dog Cat Rabbit Sigmoid Sigmoid Sigmoid 0 아니면 1(토끼) 0 아니면 1(고양이) 0 아니면 1(강아지)
    7. 7. 강아지 예제 Dog Cat Rabbit 0.8 0.3 0.1 분류 실패 !
    8. 8. 멀티 클래스 분류의 비용 함수 크로스 엔트로피(Cross Entropy) 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦
    9. 9. 비용 계산 Dog Cat Rabbit 0.8 0.3 0.1 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦
    10. 10. 비용 계산 Dog Cat Rabbit 0.8 0.3 0.1 𝑦 = 𝑑𝑜𝑔 𝑐𝑎𝑡 𝑟𝑎𝑏𝑏𝑖𝑡 = 1 0 0 𝑦 = 0.1 0.8 0.3 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦
    11. 11. 비용 계산 Dog Cat Rabbit 0.8 0.3 0.1 𝐽 = − 1 × ln 0.1 + 0 × ln 0.8 + 0 × ln 0.3 /𝑚 𝑦 = 𝑑𝑜𝑔 𝑐𝑎𝑡 𝑟𝑎𝑏𝑏𝑖𝑡 = 1 0 0 𝑦 = 0.1 0.8 0.3 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦
    12. 12. 소프트맥스
    13. 13. 어느 것이 강아지에 가까울까? Dog Cat Rabbit 𝑦1 = 0.9 0.8 0.7 𝑦2 = 0.5 0.2 0.1
    14. 14. 소프트맥스 𝑦 𝑑𝑜𝑔 = 𝑒 𝑑𝑜𝑔 𝑧 𝑒 𝑑𝑜𝑔 𝑧 + 𝑒 𝑐𝑎𝑡 𝑧 + 𝑒 𝑟𝑎𝑏𝑏𝑖𝑡 𝑧 = 𝑒 𝑑𝑜𝑔 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖 𝑧 = 𝑤 × 𝑥 + 𝑏 𝑦 = 𝑦 𝑑𝑜𝑔 𝑦 𝑐𝑎𝑡 𝑦 𝑟𝑎𝑏𝑏𝑖𝑡
    15. 15. 시그모이드의 z 값 구하기 𝑦1 = 0.9 0.8 0.7 𝑦2 = 0.5 0.2 0.1 𝑦 = 1 1 + 𝑒−𝑧 𝑧 = −𝑙𝑛 1 𝑦 − 1
    16. 16. 시그모이드의 z 값 구하기 𝑦1 = 0.9 0.8 0.7 𝑦2 = 0.5 0.2 0.1 𝑦 = 1 1 + 𝑒−𝑧 𝑧 = −𝑙𝑛 1 𝑦 − 1 𝑧1 = 2.2 1.39 0.85 𝑧2 = 0 −1.39 −2.2 𝑦 𝑑𝑜𝑔 = 𝑒 𝑑𝑜𝑔 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖
    17. 17. 시그모이드의 z 값 구하기 𝑦1 = 0.9 0.8 0.7 𝑦2 = 0.5 0.2 0.1 𝑦 = 1 1 + 𝑒−𝑧 𝑧 = −𝑙𝑛 1 𝑦 − 1 𝑧1 = 2.2 1.39 0.85 𝑧2 = 0 −1.39 −2.2 𝑦 𝑑𝑜𝑔 = 𝑒 𝑑𝑜𝑔 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖 𝑦1 = 0.59 0.26 0.15 𝑦2 = 0.74 0.18 0.08
    18. 18. 시그모이드의 z 값 구하기 𝑦 = 1 1 + 𝑒−𝑧 𝑧 = −𝑙𝑛 1 𝑦 − 1 𝑧1 = 2.2 1.39 0.85 𝑧2 = 0 −1.39 −2.2 𝑦 𝑑𝑜𝑔 = 𝑒 𝑑𝑜𝑔 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖 𝑦1 = 𝟎. 𝟗 0.8 0.7 𝑦2 = 𝟎. 𝟓 0.2 0.1 𝑦1 = 𝟎. 𝟓𝟗 0.26 0.15 𝑦2 = 𝟎. 𝟕𝟒 0.18 0.08 시그모이드 출력 소프트맥스 출력 (정규화된 확률)
    19. 19. 소프트맥스 미분은? Neuron 𝑤 * + Softmax 𝑥 𝑏 𝑦 𝑦 = 𝑒 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦 그래디언트는?
    20. 20. 소프트맥스를 사용한 비용함수 미분 𝜕𝐽 𝜕𝑤 = − 1 𝑚 𝑖=1 𝑚 𝑦 − 𝑦 𝑥 선형 회귀, 로지스틱 회귀의 비용함수 미분과 동일 !
    21. 21. 그래디언트 전파 Neuron 𝑤 * + Softmax 𝑥 𝑏 𝑦 𝑦 = 𝑒 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦 𝑦 − 𝑦 𝑦 − 𝑦 𝑥 𝑦 − 𝑦 1
    22. 22. 주의: 구현시 고려사항 1 무한대 값 오버플로우 발생 𝑦 = 𝑒 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖
    23. 23. 주의: 구현시 고려사항 1 𝑦 𝑑𝑜𝑔 = 𝑒1000 𝑒1000 + 𝑒500 + 𝑒10 = 𝑒1000 × 𝑒−1000 𝑒1000 + 𝑒500 + 𝑒10 × 𝑒−1000 = 𝑒1000−1000 𝑒1000−1000 + 𝑒500−1000 + 𝑒10−1000 = 𝑒0 𝑒0 + 𝑒−500 + 𝑒−900 = 1.0 최대값으로 뺀 후 소프트맥스 함수 적용
    24. 24. 주의: 구현시 고려사항 2 안전하지 않음 𝑦 = 1 1 + 𝑒−𝑧
    25. 25. 주의: 구현시 고려사항 2 안전하지 않음 𝑦 = 1 1 + 𝑒−𝑧 안전한 scipy.special.expit 함수를 사용함
    26. 26. 손글씨 숫자 데이터
    27. 27. load_digits load_digits 데이터셋 이용 1797개 데이터 8x8 크기 0~9 까지 숫자
    28. 28. 데이터 확인 0(흰색)~16(검은색) 까지 숫자
    29. 29. 이미지 확인 반전 그레이톤
    30. 30. train_test_split 컬러 값 정규화 훈련 / 테스트 데이터 분리
    31. 31. 원 핫 인코딩(One Hot Encoding) 𝑦 = 𝑑𝑜𝑔 𝑐𝑎𝑡 𝑟𝑎𝑏𝑏𝑖𝑡 = 1 0 0
    32. 32. 원 핫 인코딩(One Hot Encoding) 𝑦 = 𝑑𝑜𝑔 𝑐𝑎𝑡 𝑟𝑎𝑏𝑏𝑖𝑡 = 1 0 0 X
    33. 33. OneHotEncoder 10개 클래스 2차원 배열 변경
    34. 34. 딥 뉴럴 네트워크
    35. 35. 뉴럴 네트워크 완전 연결 뉴럴 네트워크 (Fully Connected Neural Network) 덴스 네트워크 (Dense Network) 딥 뉴럴 네트워크 (Deep Neural Network, DNN) 입력 데이터 자체
    36. 36. 퍼셉트론(Perceptron) 1957년 프랑크 로젠블라트가 발표 뉴럴 네트워크를 멀티레이어 퍼셉트론으로도 부름 사이킷런(v0.18)에는 MLPClassifier, MLPRegressor
    37. 37. 완전 연결이 아닌 네트워크 콘볼루션 뉴럴 네트워크 (Convolution Neural Network) 리커런트 뉴럴 네트워크 (Recurrent Neural Network)
    38. 38. 피드 포워드 뉴럴 네트워크 = 완전 연결 뉴럴 네트워크 (Fully Connected Neural Network) = 덴스 네트워크 (Dense Network) = 멀티 레이어 퍼셉트론 (Multi-Layer Perceptron) = 피드 포워드 뉴럴 네트워크 (Feed Forward Neural Network)
    39. 39. 완전 연결 레이어
    40. 40. 100개의 히든 유닛 ... ... 히든 레이어 입력 레이어 출력 레이어 이미지의 64개 픽셀 숫자 10개 분류 시그모이드 소프트맥스 𝑥 𝑦 𝑤1, 𝑏1 𝑤2, 𝑏2
    41. 41. 바이어스 표기 방식 ... ... 이미지의 64개 픽셀 숫자 10개 분류 𝑥 𝑦 𝑤1 𝑏1 𝑏2 𝑤2
    42. 42. 뉴런의 갯수 히든 레이어 100개 + 출력 레이어 10개 = 110개
    43. 43. 뉴런의 갯수 히든 레이어 100개 + 출력 레이어 10개 = 110개 히든 유닛의 갯수가 수백, 수천개이고 레이어의 갯수가 수십, 수백라면?
    44. 44. 뉴런의 식 A B C a b 𝑤 𝑎𝐴 𝑤 𝑎𝐵 𝑤 𝑎𝐶 𝑏 𝑎 𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
    45. 45. 뉴런의 식 A B C a b 𝑤 𝑎𝐴 𝑤 𝑎𝐵 𝑤 𝑎𝐶 𝑏 𝑎 𝑨 𝑩 𝑪 × 𝒘 𝒂𝑨 𝒘 𝒂𝑩 𝒘 𝒂𝑪 + 𝒃 𝒂 = (𝒂) 행렬 곱으로 표현 가능 𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
    46. 46. 행렬곱(Dot Product) 1 × 7 + 2 × 9 + 3 × 11 = 58 행(row) 열(column)
    47. 47. 행렬식 A B C a b 𝑤 𝑎𝐴 𝑤 𝑎𝐵 𝑤 𝑎𝐶 𝑏 𝑎 𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎 𝑨 𝑩 𝑪 × 𝒘 𝒂𝑨 𝒘 𝒃𝑨 𝒘 𝒂𝑩 𝒘 𝒃𝑩 𝒘 𝒂𝑪 𝒘 𝒃𝑪 + 𝒃 𝒂 𝒃 𝒃 = (𝒂 𝒃) 𝑏 = 𝐴 × 𝑤 𝑏𝐴 + 𝐵 × 𝑤 𝑏𝐵 + 𝐶 × 𝑤 𝑏𝐶 + 𝑏 𝑏
    48. 48. 행렬식 A B C a b 𝑤 𝑏𝐴 𝑤 𝑏𝐵 𝑤 𝑏𝐶 𝑏 𝑏 𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎 𝑨 𝑩 𝑪 × 𝒘 𝒂𝑨 𝒘 𝒃𝑨 𝒘 𝒂𝑩 𝒘 𝒃𝑩 𝒘 𝒂𝑪 𝒘 𝒃𝑪 + 𝒃 𝒂 𝒃 𝒃 = (𝒂 𝒃) 𝑏 = 𝐴 × 𝑤 𝑏𝐴 + 𝐵 × 𝑤 𝑏𝐵 + 𝐶 × 𝑤 𝑏𝐶 + 𝑏 𝑏
    49. 49. 넘파이로는
    50. 50. 넘파이로는 𝑥1 1 ⋯ 𝑥64 1 𝑥1 2 ⋯ 𝑥64 2 𝑥1 3 ⋯ 𝑥64 3 ⋮ 𝑥1 1617 ⋯ 𝑥64 1617 × 𝑤1 1 ⋯ 𝑤100 1 𝑤1 2 ⋯ 𝑤100 2 ⋮ 𝑤1 64 ⋯ 𝑤100 64 + 𝑏1 ⋯ 𝑏100 = 𝑡1 1 ⋯ 𝑡100 1 𝑡1 2 ⋯ 𝑡100 2 ⋮ 𝑡1 1617 ⋯ 𝑡100 1617 1617개 데이터 64개의 픽셀 100개의 히든 레이어 출력 1617개 데이터 1617 × 64 ⋅ 64 × 100 + 100 = 1617 × 100
    51. 51. 가중치 행렬 크기 앞 레이어 유닛의 크기 X 현재 레이어 유닛의 크기
    52. 52. 가중치 행렬 크기 ... ... 히든 레이어 100개 입력 레이어 64개 출력 레이어 10개 이미지의 64개 픽셀 숫자 10개 분류 𝑦 𝑤2 = 100 × 10 𝑥 𝑤1 = 64 × 100
    53. 53. 히든 레이어 계산 ... ... 히든레이어 100개 이미지의 64개 픽셀 숫자 10개 분류 𝑦𝑥 1617 × 64 ⋅ 64 × 100 + 100 = 1617 × 100 𝒙 ⋅ 𝒘 𝟏 + 𝒃 𝟏 = 𝒕
    54. 54. 출력 레이어 계산 ... ... 히든레이어 100개 이미지의 64개 픽셀 숫자 10개 분류 𝑦𝑥 1617 × 100 ⋅ 100 × 10 + 10 = 1617 × 10 𝒕 ⋅ 𝒘 𝟐 + 𝒃 𝟐 = 𝒚
    55. 55. 정방향 계산 히든 레이어 계산 시그모이드 활성화 함수(expit) 출력 레이어 계산소프트맥스 계산
    56. 56. 소프트맥스 함수 행방향 최대값 행방향 exp 합계 열벡터로 변경 𝑦 = 𝑒 𝑧−𝑧 𝑚𝑎𝑥 𝑖=1 𝑛 𝑒 𝑧 𝑖−𝑧 𝑚𝑎𝑥 = 𝑒 𝑡𝑚𝑝 𝑖=1 𝑛 𝑒 𝑡𝑚𝑝 = 𝑒𝑥𝑝_𝑡𝑚𝑝 𝑖=1 𝑛 𝑒𝑥𝑝_𝑡𝑚𝑝𝑖
    57. 57. 그래디언트 행렬 계산
    58. 58. 가중치와 바이어스 그래디언트 히든 레이어 파라메타 출력 레이어 파라메타
    59. 59. 로지스틱 오차와 동일 출력 레이어 𝑤2 * + 𝑡 𝑏2 𝑦 𝑦 = 𝑒 𝑧 𝑖=1 𝑛 𝑒 𝑧 𝑖 𝐽 = − 1 𝑚 𝑖=1 𝑚 𝑦𝑙𝑜𝑔 𝑦 𝑦 − 𝑦 히든 레이어 𝑤1 * + 𝑥 𝑏1
    60. 60. 로지스틱 오차와 동일 출력 레이어 𝑤2 * + 𝑡 𝑏2 𝑦 𝜕𝐽 𝜕𝑤2 = 𝑦 − 𝑦 𝑡 𝑦 − 𝑦 𝑦 − 𝑦 𝑡 𝑦 − 𝑦 1 히든 레이어 𝑤1 * + 𝑥 𝑏1 𝑦 − 𝑦 𝑤2 𝜕𝐽 𝜕𝑏2 = 𝑦 − 𝑦 1 𝜕𝐽 𝜕𝑡 = 𝑦 − 𝑦 𝑤2
    61. 61. 로지스틱 오차와 동일 출력 레이어 𝑤2 * + 𝑡 𝑏2 𝑦 𝑦 − 𝑦 𝑦 − 𝑦 𝑡 𝑦 − 𝑦 1 히든 레이어 𝑤1 * + 𝑥 𝑏1 𝑒𝑟𝑟2 𝑥 𝑒𝑟𝑟21 𝑦 − 𝑦 𝑤2 𝜕𝐽 𝜕𝑤1 = 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)𝑥 𝜕𝐽 𝜕𝑏1 = 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)1 𝑠 = 1 1 + 𝑒−𝑧 𝜕𝑠 𝜕𝑥 = 𝑠(1 − 𝑠) 𝑒𝑟𝑟2 = 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)
    62. 62. 전치행렬
    63. 63. 출력 레이어 그래디언트 출력 레이어 𝑤2 * + 𝑡 𝑏2 𝑦 𝑦 − 𝑦 𝑦 − 𝑦 𝑡 𝑦 − 𝑦 1 𝑦 − 𝑦 𝑤2 𝑦 − 𝑦 = 1617 × 10 𝑡 = 1617 × 100 𝑡 𝑇 = 100 × 1617 𝑡 𝑇 ⋅ 𝑦 − 𝑦 = [100 × 10] 1617개의 훈련 데이터에 각각의 에러를 곱하기 위해 전치시킴
    64. 64. 넘파이로는 100 × 1617 ⋅ 1617 × 10 = 100 × 10 1617개의 그래디언 트가 모두 합쳐짐 전치행렬 𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 10 ) = 10 열방향으로 평균 𝑤2 𝑏2
    65. 65. 출력 레이어 그래디언트 출력 레이어 𝑤2 * + 𝑡 𝑦 𝑦 − 𝑦 𝑦 − 𝑦 𝑤2 𝑦 − 𝑦 = 1617 × 10 𝑤2 = 100 × 10 𝑤2 𝑇 = 10 × 100 𝑦 − 𝑦 ⋅ 𝑤2 𝑇 = [1617 × 100] 1617개의 에러를 10개의 출력 유닛 에서 100개의 히든 유닛으로 분할
    66. 66. 넘파이로는 1617 × 10 ⋅ 10 × 100 = 1617 × 100 전치행렬 𝑡
    67. 67. 히든 레이어 그래디언트 출력 레이어 𝑤1 * + 𝑥 𝑏1 𝑡 𝑒𝑟𝑟2 𝑒𝑟𝑟2 𝑥 𝑒𝑟𝑟21 𝑦 − 𝑦 𝑤2 𝑡 1 − 𝑡 = 𝑒𝑟𝑟2 = 1617 × 100 𝑥 = 1617 × 64 𝑥 𝑇 = 64 × 1617 𝑥 𝑇 ⋅ 𝑒𝑟𝑟2 = [64 × 100] 1617개의 훈련 데이터에 각각의 에러를 곱하기 위해 전치시킴
    68. 68. 넘파이로는 64 × 1617 ⋅ 1617 × 100 = 64 × 100 1617개의 그래디언 트가 모두 합쳐짐 전치행렬 𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 100 ) = 100 열방향으로 평균 𝑤1 𝑏1
    69. 69. 역방향 계산 𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 10 ) = 10 100 × 1617 ⋅ 1617 × 10 = 100 × 10 1617 × 10 ⋅ 10 × 100 = 1617 × 100 64 × 1617 ⋅ 1617 × 100 = 64 × 100 𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 100 ) = 100
    70. 70. 그래디언트 업데이트
    71. 71. 완전 연결 뉴럴 네트워크
    72. 72. fit 함수 y_hat이 0일때 음의 무한대 1일때 0 방지
    73. 73. predict 함수 행방향으로 가장 높은 값을 가진 배열의 위치를 반환. 배열의 위치 == 분류값
    74. 74. 파라메타 초기화
    75. 75. 모델 학습
    76. 76. 비용 함수 그래프
    77. 77. 사이킷런에서는
    78. 78. MLPClassifier
    79. 79. 감사합니다.

    ×