SlideShare a Scribd company logo
Linear Algebra
2. 가우스 소거법 (Gaussian Elimination)
한양대 이상화 교수님 <선형대수>
http://www.kocw.net/home/search/kemView.do?kemId=977757
가우스 소거법 (Gaussian Elimination)
• 행렬로 표현된 연립방정식을 푸는 전형적인 방법
2𝑢 + 𝑣 + 𝑤 = 5
4𝑢 − 6𝑣 = −2
−2𝑢 + 7𝑣 + 2𝑤 = 9
- ①
- ②
- ③
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 2𝑤 = −12
8𝑣 + 3𝑤 = 14
- ①
- 2*① - ②
- ③ + ①
1st Pivot
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 2𝑤 = −12
𝑤 = 2
- ②’
- ②’ + ①
2nd Pivot
3rd Pivot
Forward Elimination
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 2𝑤 = −12
𝑤 = 2
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 4 = −12
𝑤 = 2
𝑣 = −1
𝑤 = 2
2𝑢 + 1 + 2 = 5
−8𝑣 − 4 = −12
𝑤 = 2
𝑢 = 1
𝑣 = 1
𝑤 = 2
Backward Substitution
가우스 소거법과 행렬
• 앞의 과정을 벡터로 나타내면,
2 1 1 5
4 −6 0 −2
−2 7 2 9

2 1 1 5
0 −8 −2 −12
0 8 3 14

2 1 1 5
0 −8 −2 −12
0 0 1 2
• 과정 중에 Pivot 자리에 0이 생기면, 아래 쪽의 0이 아닌 행과 자리를 바꿀 수 있고, 이를
Pivoting이라고 한다.
Upper Triangular Matrix : U
𝑢 + 𝑣 + 𝑤 = 𝑎
2𝑢 + 2𝑣 + 5𝑤 = 𝑏
4𝑢 + 6𝑣 + 8𝑤 = 𝑐
𝑢 + 𝑣 + 𝑤 = 𝑎
3𝑤 = 𝑏 − 2𝑎
2𝑣 + 4𝑤 = 𝑐 − 4𝑎
𝑢 + 𝑣 + 𝑤 = 𝑎
2𝑣 + 4𝑤 = 𝑐 − 4𝑎
3𝑤 = 𝑏 − 2𝑎
Singular Case와 가우스 소거법
• Singular Case : 해가 없거나, 해가 무수히 많거나
𝑢 + 𝑣 + 𝑤 = 𝑎
2𝑢 + 2𝑣 + 5𝑤 = 𝑏
4𝑢 + 4𝑣 + 8𝑤 = 𝑐
𝑢 + 𝑣 + 𝑤 = 𝑎
3𝑤 = 𝑏 − 2𝑎
4𝑤 = 𝑐 − 4𝑎
②식에서 𝑤 =
𝑏−2𝑎
3
③식에서 𝑤 =
𝑐−4𝑎
4
이기 때문에,
𝑏−2𝑎
3
=
𝑐−4𝑎
4
일 때만 해가 존재(무수히 많은 해)
그렇지 않으면 해가 존재하지 않음
Pivot 위치에 0이 있고,
Pivoting으로도 해결할 수 없다  U 모양 실패!
연립방정식의 Matrix Notation
2𝑢 + 𝑣 + 𝑤 = 5
4𝑢 − 6𝑣 = −2
−2𝑢 + 7𝑣 + 2𝑤 = 9
• 앞의 내용을 행렬로 접근해보자.
“연립방정식은 결국 행렬 𝑨의 열벡터들의 Linear Combination으로
우항(𝒃)을 만들 수 있는지를 푸는 것이다.”
2 1 1
4 −6 0
−2 7 2
𝑢
𝑣
𝑤
=
5
−2
9
Coefficient Matrix
𝑢
2
4
−2
+ 𝑣
1
−6
7
+ 𝑤
1
0
2
=
5
−2
9
𝑨𝒙 = 𝒃
𝑨𝒙 is a combination
of the columns of 𝑨.

More Related Content

What's hot

PR 171: Large margin softmax loss for Convolutional Neural Networks
PR 171: Large margin softmax loss for Convolutional Neural NetworksPR 171: Large margin softmax loss for Convolutional Neural Networks
PR 171: Large margin softmax loss for Convolutional Neural Networks
jaewon lee
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
AHRA CHO
 
Hill-climbing #2
Hill-climbing #2Hill-climbing #2
Hill-climbing #2
Mohamed Gad
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
AHRA CHO
 
Proximal Policy Optimization
Proximal Policy OptimizationProximal Policy Optimization
Proximal Policy Optimization
ShubhaManikarnike
 
[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化
[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化
[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化
Deep Learning JP
 
Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링
Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링
Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링
Jiho Lee
 
Hillclimbing search algorthim #introduction
Hillclimbing search algorthim #introductionHillclimbing search algorthim #introduction
Hillclimbing search algorthim #introduction
Mohamed Gad
 
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
WON JOON YOO
 
Reinforcement Learning with Deep Energy-Based Policies
Reinforcement Learning with Deep Energy-Based PoliciesReinforcement Learning with Deep Energy-Based Policies
Reinforcement Learning with Deep Energy-Based Policies
Sangwoo Mo
 
강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction
Taehoon Kim
 
Mysql query optimization
Mysql query optimizationMysql query optimization
Mysql query optimizationBaohua Cai
 
가깝고도 먼 Trpo
가깝고도 먼 Trpo가깝고도 먼 Trpo
가깝고도 먼 Trpo
Woong won Lee
 
[머가]Chap11 강화학습
[머가]Chap11 강화학습[머가]Chap11 강화학습
[머가]Chap11 강화학습
종현 최
 
Chapter 2 (final)
Chapter 2 (final)Chapter 2 (final)
Chapter 2 (final)
Nateshwar Kamlesh
 
Variable neighborhood search
Variable neighborhood searchVariable neighborhood search
Variable neighborhood search
Ahmed Fouad Ali
 
hands on machine learning Chapter 4 model training
hands on machine learning Chapter 4 model traininghands on machine learning Chapter 4 model training
hands on machine learning Chapter 4 model training
Jaey Jeong
 
第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習
第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習
第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習Computational Materials Science Initiative
 
6.4 inverse matrices t
6.4 inverse matrices t6.4 inverse matrices t
6.4 inverse matrices t
math260
 
Deep sarsa, Deep Q-learning, DQN
Deep sarsa, Deep Q-learning, DQNDeep sarsa, Deep Q-learning, DQN
Deep sarsa, Deep Q-learning, DQN
Euijin Jeong
 

What's hot (20)

PR 171: Large margin softmax loss for Convolutional Neural Networks
PR 171: Large margin softmax loss for Convolutional Neural NetworksPR 171: Large margin softmax loss for Convolutional Neural Networks
PR 171: Large margin softmax loss for Convolutional Neural Networks
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
 
Hill-climbing #2
Hill-climbing #2Hill-climbing #2
Hill-climbing #2
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
 
Proximal Policy Optimization
Proximal Policy OptimizationProximal Policy Optimization
Proximal Policy Optimization
 
[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化
[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化
[DL輪読会]Deep Learning 第8章 深層モデルの訓練のための最適化
 
Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링
Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링
Pg 클러스터 기반의 구성 및 이전, 그리고 인덱스 클러스터링
 
Hillclimbing search algorthim #introduction
Hillclimbing search algorthim #introductionHillclimbing search algorthim #introduction
Hillclimbing search algorthim #introduction
 
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
 
Reinforcement Learning with Deep Energy-Based Policies
Reinforcement Learning with Deep Energy-Based PoliciesReinforcement Learning with Deep Energy-Based Policies
Reinforcement Learning with Deep Energy-Based Policies
 
강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction
 
Mysql query optimization
Mysql query optimizationMysql query optimization
Mysql query optimization
 
가깝고도 먼 Trpo
가깝고도 먼 Trpo가깝고도 먼 Trpo
가깝고도 먼 Trpo
 
[머가]Chap11 강화학습
[머가]Chap11 강화학습[머가]Chap11 강화학습
[머가]Chap11 강화학습
 
Chapter 2 (final)
Chapter 2 (final)Chapter 2 (final)
Chapter 2 (final)
 
Variable neighborhood search
Variable neighborhood searchVariable neighborhood search
Variable neighborhood search
 
hands on machine learning Chapter 4 model training
hands on machine learning Chapter 4 model traininghands on machine learning Chapter 4 model training
hands on machine learning Chapter 4 model training
 
第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習
第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習
第5回CCMSハンズオン(ソフトウェア講習会): AkaiKKRチュートリアル 2. AkaiKKRの実習
 
6.4 inverse matrices t
6.4 inverse matrices t6.4 inverse matrices t
6.4 inverse matrices t
 
Deep sarsa, Deep Q-learning, DQN
Deep sarsa, Deep Q-learning, DQNDeep sarsa, Deep Q-learning, DQN
Deep sarsa, Deep Q-learning, DQN
 

Similar to 선형대수 02. 가우스 소거법

선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
AHRA CHO
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
AHRA CHO
 
Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2
Thisisone Lee
 
0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix
Jeonghun Yoon
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
AHRA CHO
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
AHRA CHO
 
Closest pair problem with randomization
Closest pair problem with randomizationClosest pair problem with randomization
Closest pair problem with randomization
Changki Yun
 
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
Euijin Jeong
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
강민국 강민국
 

Similar to 선형대수 02. 가우스 소거법 (10)

선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
 
행렬
행렬행렬
행렬
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
 
Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2
 
0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
Closest pair problem with randomization
Closest pair problem with randomizationClosest pair problem with randomization
Closest pair problem with randomization
 
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 

More from AHRA CHO

선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
AHRA CHO
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
AHRA CHO
 
선형대수 05. 열벡터공간
선형대수 05. 열벡터공간선형대수 05. 열벡터공간
선형대수 05. 열벡터공간
AHRA CHO
 
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression
AHRA CHO
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념
AHRA CHO
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요AHRA CHO
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
AHRA CHO
 

More from AHRA CHO (7)

선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
 
선형대수 05. 열벡터공간
선형대수 05. 열벡터공간선형대수 05. 열벡터공간
선형대수 05. 열벡터공간
 
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
 

선형대수 02. 가우스 소거법

  • 1. Linear Algebra 2. 가우스 소거법 (Gaussian Elimination) 한양대 이상화 교수님 <선형대수> http://www.kocw.net/home/search/kemView.do?kemId=977757
  • 2. 가우스 소거법 (Gaussian Elimination) • 행렬로 표현된 연립방정식을 푸는 전형적인 방법 2𝑢 + 𝑣 + 𝑤 = 5 4𝑢 − 6𝑣 = −2 −2𝑢 + 7𝑣 + 2𝑤 = 9 - ① - ② - ③ 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 2𝑤 = −12 8𝑣 + 3𝑤 = 14 - ① - 2*① - ② - ③ + ① 1st Pivot 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 2𝑤 = −12 𝑤 = 2 - ②’ - ②’ + ① 2nd Pivot 3rd Pivot Forward Elimination 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 2𝑤 = −12 𝑤 = 2 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 4 = −12 𝑤 = 2 𝑣 = −1 𝑤 = 2 2𝑢 + 1 + 2 = 5 −8𝑣 − 4 = −12 𝑤 = 2 𝑢 = 1 𝑣 = 1 𝑤 = 2 Backward Substitution
  • 3. 가우스 소거법과 행렬 • 앞의 과정을 벡터로 나타내면, 2 1 1 5 4 −6 0 −2 −2 7 2 9  2 1 1 5 0 −8 −2 −12 0 8 3 14  2 1 1 5 0 −8 −2 −12 0 0 1 2 • 과정 중에 Pivot 자리에 0이 생기면, 아래 쪽의 0이 아닌 행과 자리를 바꿀 수 있고, 이를 Pivoting이라고 한다. Upper Triangular Matrix : U 𝑢 + 𝑣 + 𝑤 = 𝑎 2𝑢 + 2𝑣 + 5𝑤 = 𝑏 4𝑢 + 6𝑣 + 8𝑤 = 𝑐 𝑢 + 𝑣 + 𝑤 = 𝑎 3𝑤 = 𝑏 − 2𝑎 2𝑣 + 4𝑤 = 𝑐 − 4𝑎 𝑢 + 𝑣 + 𝑤 = 𝑎 2𝑣 + 4𝑤 = 𝑐 − 4𝑎 3𝑤 = 𝑏 − 2𝑎
  • 4. Singular Case와 가우스 소거법 • Singular Case : 해가 없거나, 해가 무수히 많거나 𝑢 + 𝑣 + 𝑤 = 𝑎 2𝑢 + 2𝑣 + 5𝑤 = 𝑏 4𝑢 + 4𝑣 + 8𝑤 = 𝑐 𝑢 + 𝑣 + 𝑤 = 𝑎 3𝑤 = 𝑏 − 2𝑎 4𝑤 = 𝑐 − 4𝑎 ②식에서 𝑤 = 𝑏−2𝑎 3 ③식에서 𝑤 = 𝑐−4𝑎 4 이기 때문에, 𝑏−2𝑎 3 = 𝑐−4𝑎 4 일 때만 해가 존재(무수히 많은 해) 그렇지 않으면 해가 존재하지 않음 Pivot 위치에 0이 있고, Pivoting으로도 해결할 수 없다  U 모양 실패!
  • 5. 연립방정식의 Matrix Notation 2𝑢 + 𝑣 + 𝑤 = 5 4𝑢 − 6𝑣 = −2 −2𝑢 + 7𝑣 + 2𝑤 = 9 • 앞의 내용을 행렬로 접근해보자. “연립방정식은 결국 행렬 𝑨의 열벡터들의 Linear Combination으로 우항(𝒃)을 만들 수 있는지를 푸는 것이다.” 2 1 1 4 −6 0 −2 7 2 𝑢 𝑣 𝑤 = 5 −2 9 Coefficient Matrix 𝑢 2 4 −2 + 𝑣 1 −6 7 + 𝑤 1 0 2 = 5 −2 9 𝑨𝒙 = 𝒃 𝑨𝒙 is a combination of the columns of 𝑨.