SlideShare a Scribd company logo
1 of 5
Download to read offline
Machine Learning 기초
(1) 선형회귀
선형회귀
- 선형 회귀는 종속 변수 y와 한 개 이상의 독립 변수 x와의 선형 상관 관계를 모델링하는 회귀분석 기법이다.
한 개의 설명 변수에 기반한 경우는 단순 선형 회귀, 둘 이상의 설명 변수에 기반한 경우에는 다중 선형 회귀
라고 한다 (위키피디아)
- 선형회귀는 지도학습의 대표적인 유형 중 하나
- 학습을 통해 입력 데이터 x와 출력 데이터 y의 관계를 가장 잘 표현하는 변수 𝑾, 𝒃 를 찾아야 한다.
- 여기서 W는 가중치(Weight), b는 편향(Bias)를 나타낸다.
 가중치(W)는 독립변수 x가 y에 얼마나 영향을 주는지를 나타내는 척도
 편향(b)은 절편 (절편이 없다면 (0, 0)을 지나는 직선만 그릴 수 있기 때문에 회귀식 표현이 제한적일 것)
𝒚 = 𝑾𝒙 + 𝒃 𝒚 = 𝑾 𝟏 𝒙 𝟏 + 𝑾 𝟐 𝒙 𝟐 + … 𝑾 𝒏 𝒙 𝒏 + 𝒃
단순선형회귀
- 하나의 독립 변수 x와 종속 변수 y의 관계식을 찾아라!
(예) 아파트 평수(x)와 가격(y)의 상관관계
상품 가격(x)에 따른 판매량(y)의 변화 등
* 관계식 : 𝒚′ = 𝑾𝒙 + 𝒃
<배운 것을 적용해보자!>
- 선형회귀는 지도학습!
- 그래프처럼 실제 (x, y) 데이터가 주어지면,
관계를 가장 잘 표현하는 하나의 직선을
찾아야 한다.
- 관계식에서 우리가 찾아야 하는 것은
가중치 W와 편향 b이다.
- 관계식을 통해 계산해 낸 예측값 y’와
실제값 y의 차이를 최소화 하도록
학습을 진행한다.
- 오차를 계산하는 두 가지 방법 중
선형회귀에서는 MSE를 사용한다.
- 경사하강법을 사용해서 W와 b 값을
업데이트한다.
다중선형회귀
- 하나의 변수만으로 설명할 수 있는 데이터가 과연 몇이나 될까?
(예) 아파트 평수(x1), 방 개수(x2), 층 수(x3) …와 가격(y)의 상관관계
상품 가격(x1), 광고 노출 횟수(x2), … 에 따른 판매량(y)의 변화 등
* 관계식 : 𝒚 = 𝑾 𝟏 𝒙 𝟏 + 𝑾 𝟐 𝒙 𝟐 + … 𝑾 𝒏 𝒙 𝒏 + 𝒃
- 기존에 (x, y)와 같이 표현되던 데이터쌍을 이제는 ((x1, x2, x3, …, xn), y)와 같이 표현해야 한다.
데이터가 m쌍만큼 있다면, 어떻게 표현하지?
𝒙 𝟏
𝟏
⋯ 𝒙 𝟏
𝒎
⋮ ⋱ ⋮
𝒙 𝒏
𝟏 ⋯ 𝒙 𝒏
𝒎
= (𝒏 × 𝒎) 행렬
변수(feature) n개의
데이터 1개
M개 데이터 쌍
행렬곱
- 다중선형회귀부터는 행렬곱을 사용하는 것이 연산 수행 속도에 훨씬 유리하다. 행렬을 사용하지 않으면
모든 과정을 for-loop으로 구현해야 한다.
- 다중선형회귀에서도 마찬가지로 우리가 찾아야 하는 것은 가중치 W와 오차항 b이다. 단순선형회귀와의 차
이는 가중치 W가 숫자 하나가 아니라 (W1, W2, …, Wn)이라는 것이다. X를 행렬로 나타낸 것처럼 W도 1행
크기의 행렬(벡터)로 표현하면 연산이 훨씬 간단해진다.
𝒚 𝟏
𝒚 𝟐
… 𝒚 𝒎 = 𝑾 𝟏 𝑾 𝟐 ⋯ 𝑾 𝒏 ×
𝒙 𝟏
𝟏
⋯ 𝒙 𝟏
𝒎
⋮ ⋱ ⋮
𝒙 𝒏
𝟏 ⋯ 𝒙 𝒏
𝒎
+ 𝒃
윗첨자는 제곱이 아닌
m번째 데이터를 나타낸다
행렬곱의 방향
오차항은 하나의 실수로 나타내며,
행렬의 모든 항에 더해진다.

More Related Content

What's hot

Feature selection concepts and methods
Feature selection concepts and methodsFeature selection concepts and methods
Feature selection concepts and methodsReza Ramezani
 
SAD06 - Use Case Diagrams
SAD06 - Use Case DiagramsSAD06 - Use Case Diagrams
SAD06 - Use Case DiagramsMichael Heron
 
Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...
Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...
Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...Simplilearn
 
Lesson 27: Lagrange Multipliers I
Lesson 27: Lagrange Multipliers ILesson 27: Lagrange Multipliers I
Lesson 27: Lagrange Multipliers IMatthew Leingang
 
Training data-efficient image transformers & distillation through attention
Training data-efficient image transformers & distillation through attentionTraining data-efficient image transformers & distillation through attention
Training data-efficient image transformers & distillation through attentiontaeseon ryu
 
Dimensionality Reduction
Dimensionality ReductionDimensionality Reduction
Dimensionality Reductionmrizwan969
 
Emerging Properties in Self-Supervised Vision Transformers
Emerging Properties in Self-Supervised Vision TransformersEmerging Properties in Self-Supervised Vision Transformers
Emerging Properties in Self-Supervised Vision TransformersSungchul Kim
 
Chapter 14 AutoEncoder
Chapter 14 AutoEncoderChapter 14 AutoEncoder
Chapter 14 AutoEncoderKyeongUkJang
 
Parametric & Non-Parametric Machine Learning (Supervised ML)
Parametric & Non-Parametric Machine Learning (Supervised ML)Parametric & Non-Parametric Machine Learning (Supervised ML)
Parametric & Non-Parametric Machine Learning (Supervised ML)Rehan Guha
 
Controlled dropout: a different dropout for improving training speed on deep ...
Controlled dropout: a different dropout for improving training speed on deep ...Controlled dropout: a different dropout for improving training speed on deep ...
Controlled dropout: a different dropout for improving training speed on deep ...Byung Soo Ko
 
Taking Splunk to the Next Level - Management
Taking Splunk to the Next Level - ManagementTaking Splunk to the Next Level - Management
Taking Splunk to the Next Level - ManagementSplunk
 
The Object-Oriented Approach to Requirements
The Object-Oriented Approach to RequirementsThe Object-Oriented Approach to Requirements
The Object-Oriented Approach to RequirementsHenhen Lukmana
 
Machine Learning Algorithm - Logistic Regression
Machine Learning Algorithm - Logistic RegressionMachine Learning Algorithm - Logistic Regression
Machine Learning Algorithm - Logistic RegressionKush Kulshrestha
 
Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...
Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...
Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...Databricks
 
Bit plane slicing
Bit plane slicingBit plane slicing
Bit plane slicingAsad Ali
 

What's hot (20)

Decision tree Using c4.5 Algorithm
Decision tree Using c4.5 AlgorithmDecision tree Using c4.5 Algorithm
Decision tree Using c4.5 Algorithm
 
Feature selection concepts and methods
Feature selection concepts and methodsFeature selection concepts and methods
Feature selection concepts and methods
 
SAD06 - Use Case Diagrams
SAD06 - Use Case DiagramsSAD06 - Use Case Diagrams
SAD06 - Use Case Diagrams
 
Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...
Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...
Random Forest Algorithm - Random Forest Explained | Random Forest In Machine ...
 
Lesson 27: Lagrange Multipliers I
Lesson 27: Lagrange Multipliers ILesson 27: Lagrange Multipliers I
Lesson 27: Lagrange Multipliers I
 
Markov Random Field (MRF)
Markov Random Field (MRF)Markov Random Field (MRF)
Markov Random Field (MRF)
 
Decision tree
Decision treeDecision tree
Decision tree
 
Training data-efficient image transformers & distillation through attention
Training data-efficient image transformers & distillation through attentionTraining data-efficient image transformers & distillation through attention
Training data-efficient image transformers & distillation through attention
 
Dimensionality Reduction
Dimensionality ReductionDimensionality Reduction
Dimensionality Reduction
 
Emerging Properties in Self-Supervised Vision Transformers
Emerging Properties in Self-Supervised Vision TransformersEmerging Properties in Self-Supervised Vision Transformers
Emerging Properties in Self-Supervised Vision Transformers
 
Chapter 14 AutoEncoder
Chapter 14 AutoEncoderChapter 14 AutoEncoder
Chapter 14 AutoEncoder
 
Parametric & Non-Parametric Machine Learning (Supervised ML)
Parametric & Non-Parametric Machine Learning (Supervised ML)Parametric & Non-Parametric Machine Learning (Supervised ML)
Parametric & Non-Parametric Machine Learning (Supervised ML)
 
Controlled dropout: a different dropout for improving training speed on deep ...
Controlled dropout: a different dropout for improving training speed on deep ...Controlled dropout: a different dropout for improving training speed on deep ...
Controlled dropout: a different dropout for improving training speed on deep ...
 
Taking Splunk to the Next Level - Management
Taking Splunk to the Next Level - ManagementTaking Splunk to the Next Level - Management
Taking Splunk to the Next Level - Management
 
The Object-Oriented Approach to Requirements
The Object-Oriented Approach to RequirementsThe Object-Oriented Approach to Requirements
The Object-Oriented Approach to Requirements
 
Machine Learning Algorithm - Logistic Regression
Machine Learning Algorithm - Logistic RegressionMachine Learning Algorithm - Logistic Regression
Machine Learning Algorithm - Logistic Regression
 
Digital Image Processing
Digital Image ProcessingDigital Image Processing
Digital Image Processing
 
Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...
Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...
Needle in the Haystack—User Behavior Anomaly Detection for Information Securi...
 
Bit plane slicing
Bit plane slicingBit plane slicing
Bit plane slicing
 
Decision tree
Decision treeDecision tree
Decision tree
 

Similar to 01_ML 기초_선형회귀_Linear Regression

유니티 고급 과정 -2-
유니티 고급 과정 -2-유니티 고급 과정 -2-
유니티 고급 과정 -2-Kiyoung Moon
 
제4강 명제와 논리-정보
제4강 명제와 논리-정보제4강 명제와 논리-정보
제4강 명제와 논리-정보csungwoo
 
python 수학이해하기
python 수학이해하기python 수학이해하기
python 수학이해하기Yong Joon Moon
 
Linear algebra for quantum computing
Linear algebra for quantum computingLinear algebra for quantum computing
Linear algebra for quantum computingssuserd0f07b
 

Similar to 01_ML 기초_선형회귀_Linear Regression (6)

Linear algebra
Linear algebraLinear algebra
Linear algebra
 
선형 대수학
선형 대수학선형 대수학
선형 대수학
 
유니티 고급 과정 -2-
유니티 고급 과정 -2-유니티 고급 과정 -2-
유니티 고급 과정 -2-
 
제4강 명제와 논리-정보
제4강 명제와 논리-정보제4강 명제와 논리-정보
제4강 명제와 논리-정보
 
python 수학이해하기
python 수학이해하기python 수학이해하기
python 수학이해하기
 
Linear algebra for quantum computing
Linear algebra for quantum computingLinear algebra for quantum computing
Linear algebra for quantum computing
 

More from AHRA CHO

선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt OrthogonalizationAHRA CHO
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법AHRA CHO
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영AHRA CHO
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)AHRA CHO
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간AHRA CHO
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합AHRA CHO
 
선형대수 05. 열벡터공간
선형대수 05. 열벡터공간선형대수 05. 열벡터공간
선형대수 05. 열벡터공간AHRA CHO
 
선형대수 04. Inverse and Transpose
선형대수 04. Inverse and Transpose선형대수 04. Inverse and Transpose
선형대수 04. Inverse and TransposeAHRA CHO
 
선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU DecompositionAHRA CHO
 
선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법AHRA CHO
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미AHRA CHO
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념AHRA CHO
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요AHRA CHO
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사AHRA CHO
 

More from AHRA CHO (14)

선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
 
선형대수 05. 열벡터공간
선형대수 05. 열벡터공간선형대수 05. 열벡터공간
선형대수 05. 열벡터공간
 
선형대수 04. Inverse and Transpose
선형대수 04. Inverse and Transpose선형대수 04. Inverse and Transpose
선형대수 04. Inverse and Transpose
 
선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
 
선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법선형대수 02. 가우스 소거법
선형대수 02. 가우스 소거법
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
 

01_ML 기초_선형회귀_Linear Regression

  • 2. 선형회귀 - 선형 회귀는 종속 변수 y와 한 개 이상의 독립 변수 x와의 선형 상관 관계를 모델링하는 회귀분석 기법이다. 한 개의 설명 변수에 기반한 경우는 단순 선형 회귀, 둘 이상의 설명 변수에 기반한 경우에는 다중 선형 회귀 라고 한다 (위키피디아) - 선형회귀는 지도학습의 대표적인 유형 중 하나 - 학습을 통해 입력 데이터 x와 출력 데이터 y의 관계를 가장 잘 표현하는 변수 𝑾, 𝒃 를 찾아야 한다. - 여기서 W는 가중치(Weight), b는 편향(Bias)를 나타낸다.  가중치(W)는 독립변수 x가 y에 얼마나 영향을 주는지를 나타내는 척도  편향(b)은 절편 (절편이 없다면 (0, 0)을 지나는 직선만 그릴 수 있기 때문에 회귀식 표현이 제한적일 것) 𝒚 = 𝑾𝒙 + 𝒃 𝒚 = 𝑾 𝟏 𝒙 𝟏 + 𝑾 𝟐 𝒙 𝟐 + … 𝑾 𝒏 𝒙 𝒏 + 𝒃
  • 3. 단순선형회귀 - 하나의 독립 변수 x와 종속 변수 y의 관계식을 찾아라! (예) 아파트 평수(x)와 가격(y)의 상관관계 상품 가격(x)에 따른 판매량(y)의 변화 등 * 관계식 : 𝒚′ = 𝑾𝒙 + 𝒃 <배운 것을 적용해보자!> - 선형회귀는 지도학습! - 그래프처럼 실제 (x, y) 데이터가 주어지면, 관계를 가장 잘 표현하는 하나의 직선을 찾아야 한다. - 관계식에서 우리가 찾아야 하는 것은 가중치 W와 편향 b이다. - 관계식을 통해 계산해 낸 예측값 y’와 실제값 y의 차이를 최소화 하도록 학습을 진행한다. - 오차를 계산하는 두 가지 방법 중 선형회귀에서는 MSE를 사용한다. - 경사하강법을 사용해서 W와 b 값을 업데이트한다.
  • 4. 다중선형회귀 - 하나의 변수만으로 설명할 수 있는 데이터가 과연 몇이나 될까? (예) 아파트 평수(x1), 방 개수(x2), 층 수(x3) …와 가격(y)의 상관관계 상품 가격(x1), 광고 노출 횟수(x2), … 에 따른 판매량(y)의 변화 등 * 관계식 : 𝒚 = 𝑾 𝟏 𝒙 𝟏 + 𝑾 𝟐 𝒙 𝟐 + … 𝑾 𝒏 𝒙 𝒏 + 𝒃 - 기존에 (x, y)와 같이 표현되던 데이터쌍을 이제는 ((x1, x2, x3, …, xn), y)와 같이 표현해야 한다. 데이터가 m쌍만큼 있다면, 어떻게 표현하지? 𝒙 𝟏 𝟏 ⋯ 𝒙 𝟏 𝒎 ⋮ ⋱ ⋮ 𝒙 𝒏 𝟏 ⋯ 𝒙 𝒏 𝒎 = (𝒏 × 𝒎) 행렬 변수(feature) n개의 데이터 1개 M개 데이터 쌍
  • 5. 행렬곱 - 다중선형회귀부터는 행렬곱을 사용하는 것이 연산 수행 속도에 훨씬 유리하다. 행렬을 사용하지 않으면 모든 과정을 for-loop으로 구현해야 한다. - 다중선형회귀에서도 마찬가지로 우리가 찾아야 하는 것은 가중치 W와 오차항 b이다. 단순선형회귀와의 차 이는 가중치 W가 숫자 하나가 아니라 (W1, W2, …, Wn)이라는 것이다. X를 행렬로 나타낸 것처럼 W도 1행 크기의 행렬(벡터)로 표현하면 연산이 훨씬 간단해진다. 𝒚 𝟏 𝒚 𝟐 … 𝒚 𝒎 = 𝑾 𝟏 𝑾 𝟐 ⋯ 𝑾 𝒏 × 𝒙 𝟏 𝟏 ⋯ 𝒙 𝟏 𝒎 ⋮ ⋱ ⋮ 𝒙 𝒏 𝟏 ⋯ 𝒙 𝒏 𝒎 + 𝒃 윗첨자는 제곱이 아닌 m번째 데이터를 나타낸다 행렬곱의 방향 오차항은 하나의 실수로 나타내며, 행렬의 모든 항에 더해진다.