SlideShare a Scribd company logo
1 of 26
00. 선형대수학 OVERVIEW01
도정찬
KMOOC, 선형대수학, 성균관대, 이상구 교수님, 2020-1학기
소개
선형대수학은 수학, 공학, 경제학, 사회학 등 거의 모든 학문 분야에서 이용되며, 가장 중요한 수학 과목의 하나로
실제 응용뿐만 아니라 이론적인 연구도 활발한 수학 분야 중의 하나입니다.
우리는 그 첫 걸음으로 벡터와 그 성질을 공부하고 이를 바탕으로 선형대수학의 기본 원리들을 하나하나 공부해
갈것입니다.
크기와 방향 모두를 가지는 것(object, 양)을 벡터라 합니다. n-차원 벡터는 유전학이나 경제학, 생태학 등 다양
한 분야에서도 볼 수 있답니다. 우리는 3차원 공간에서 이러한 벡터들이 갖는 기본 성질을 알아보고, 그 내용을
n-차원공간으로 확장할 것입니다. 또한 내적을 정의하고 직선과 평면의 방정식을 공부할 것입니다.
목표
1.1 공학과 수학에서의 벡터
1.2 내적(inner product)과 직교
1.3 직선과 평면의 벡터 방정식
1.1 공학과 수학에서의 벡터 : n-차원 공간
1.1 공학과 수학에서의 벡터: n 차원 공간
스칼라(Scalar) : 길이, 넓이, 질량, 온도
- 크기만 주어지면 완전히 나타낼수 있는 양
벡터(vector) : 속도, 위치이동, 힘
- 크기 뿐만아니라 방향까지 지정하지 않으면 완전히 나타낼수 없는 양
- 벡터는 크기와 방향을 갖는 유향 선분이다.
- 특히 2차원, 3차원 공간에서의 벡터는 화살표로 표현가능하다.
1.1 공학과 수학에서의 벡터: n 차원 공간
세 실수들의 순서조 를 (공간)벡터(vector in space)라 하고
로 나타낸다. 이때 실수 를 공간 벡터 x의 성분(component)라 한다.
n개의 실수의 순서조 를 n차원 벡터(n-dimensional vector)라 하고
로 나타낸다.
이때 실수 를 x의 성분(component)라 한다.
1.1 공학과 수학에서의 벡터: n 차원 공간
1.1 공학과 수학에서의 벡터: n 차원 공간
n차원에서 벡터의 상등(equivalent)
의 벡터 에 대하여
이면 x = y 라 한다.
1.1 공학과 수학에서의 벡터: n 차원 공간
- n차원에서 벡터합, 스칼라배, 양벡터, 음벡터
의 벡터 와 스칼라 k에 대하여
두 벡터의 합 x + y와 k에 의한 x의 스칼라배 kx를 각각 다음과 같이 정의한다.
또한 에서 모든 성분이 0인 벡터를 영벡터 또는 원점이라 하고 0으로 나타낸다. 그러면 임의의
에 대하여 x + 0 = x, x + (-1)x = 0이 성립함을 쉽게 알 수 있따. 여기서 (-1)x = -x로 정의하며
-x를 x의 음벡터라 한다.
1.1 공학과 수학에서의 벡터: n 차원 공간
- 예제
의 벡터 에 대하여 x + y, x - y, (-2)x를 구하여라.
1.1 공학과 수학에서의 벡터: n 차원 공간
- n차원에서 벡터의 성질 1
의 벡터 x, y, z와 스칼라 h, k에 대해 다음의 성질이 성립한다.
1.1 공학과 수학에서의 벡터: n 차원 공간
- n차원에서 벡터의 성질 2
의 벡터 x와 스칼라 k에 대하여 다음이 성립한다.
(1) 0x = 0
(2) k0 = 0
(3) (-1)x = -x
1.1 공학과 수학에서의 벡터: n 차원 공간
- 일차 결합(Linear Combination)
가 의 벡터이고, 계수 가 실수 일 때,
인 형태를 의 일차 결합(linear combination)이라 한다.
->V_i들의 상수배를 더해서 얻은 벡터를 V_i들의 선형 결합.
1.2 내적과 직교
에 대한 벡터의 크기 norm, 거리 distance, 사잇각 theta angle 및
평행성과 직교성 orthogonality에 대해 학습한다.
1.2 내적과 직교
- 노름, 거리(norm, distance)
의 벡터 에 대해
을 x의 노름(norm, length, magnitude)라 한다.
위 정의에서 는 원점에서 점 에 이르는 거리로 정의됨을 말한다.
따라서 의 두 벡터 에 대해 는
두 점 와 사이의 거리로 정의한다. 즉,
1.2 내적과 직교
- 내적 (Euclidean inner product, Dot product)
의 벡터 에 대해
실수 을
x와 y의 내적(Euclidean inner product, dot product)라 하고,
로 나타낸다.
1.2 내적과 직교
- 같은 벡터의 내적
의 벡터 에 대해
1.2 내적과 직교
- 내적 1
1.2 내적과 직교
- 코시 슈바르츠 부등식
의 임의의 벡터 x, y에 대해 다음 부등식이 성립한다.
단, 등호는 x, y 중 하나가 다른 것의 실수배 일때 만 성립한다.
x, y가 둘다 0벡터가 아니면 norm은 0이 아니고,
x와 y의 inner product over는 x의 norm 곱하기 y의 norm은 -1과 1사이에 있기 때문에
이 값을 만족하는 각이 존재한다.
1.2 내적과 직교
- 두 벡터 사이의 각(angle)
의 벡터 x, y에 대해
인 를 x와 y가 이루는 각(angle, 사잇각)이라 한다.
- 직교와 평행
= 0 일 때 x, y는 서로 직교(orthogonal)한다.
적당한 실수 k에 대해 x = ky인 경우 x는 y와 평행하다.
1.2 내적과 직교
- 단위 벡터, 직교 벡터, 정규 직교 벡터
의 벡터 x에 대해 노름이 1인 벡터, 즉
인 벡터를 단위 벡터(unit vector)라 한다.
의 벡터 x, y가 서로 직교한다면, 이 벡터를 직교(orthogonal) 벡터들이라 하고,
x, y가 서로 직교벡터이면서 각각 단위 벡터이면 정규직교(orthonormal) 벡터라 한다.
1.2 내적과 직교
- 내적 2
다음의 벡터는 서로 직교한가?
1.2 내적과 직교
- 벡터에 대한 삼각 부등식(triangle inequality)
의 벡터 x, y에 대하여 다음 부등식이 성립한다.
단, 등호는 x, y 중 하나가 다른 것의 k>=0배인 경우에만 성립한다.
와 코시-슈바르츠 부등식을 이용하면
이므로 가 성립 한다.
1.2 내적과 직교
- 기본 단위 벡터(standard unit vector)
임의의 벡터 x(!= 0)에 대해 는 단위 벡터이다.
의 단위 벡터 중에서 다음 n개의 벡터
기본단위벡터(standard unit vector, 표준 단위벡터)라 한다.
1.2 내적과 직교
- 기본 단위 벡터(standard unit vector)
을 의 임의의 벡터라 할 때 기본 단위 벡터를 사용하여
다음과 같이 나타낼 수 있다.
감사합니다

More Related Content

More from jdo

[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수jdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Othersjdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNetjdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNetjdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16jdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷jdo
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2jdo
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1jdo
 
[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2jdo
 
[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1jdo
 
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수jdo
 
[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트jdo
 
[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망jdo
 
[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열jdo
 
[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화jdo
 
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제jdo
 
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부jdo
 
Titanic kaggle competition
Titanic kaggle competitionTitanic kaggle competition
Titanic kaggle competitionjdo
 
소형 무인 비행체 5장-선형 모델 설계
 소형 무인 비행체 5장-선형 모델 설계 소형 무인 비행체 5장-선형 모델 설계
소형 무인 비행체 5장-선형 모델 설계jdo
 
소형 무인 비행체 4장-힘과 모멘트
소형 무인 비행체 4장-힘과 모멘트소형 무인 비행체 4장-힘과 모멘트
소형 무인 비행체 4장-힘과 모멘트jdo
 

More from jdo (20)

[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
 
[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2
 
[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1
 
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
 
[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트
 
[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망
 
[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열
 
[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화
 
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
 
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
 
Titanic kaggle competition
Titanic kaggle competitionTitanic kaggle competition
Titanic kaggle competition
 
소형 무인 비행체 5장-선형 모델 설계
 소형 무인 비행체 5장-선형 모델 설계 소형 무인 비행체 5장-선형 모델 설계
소형 무인 비행체 5장-선형 모델 설계
 
소형 무인 비행체 4장-힘과 모멘트
소형 무인 비행체 4장-힘과 모멘트소형 무인 비행체 4장-힘과 모멘트
소형 무인 비행체 4장-힘과 모멘트
 

1-1. 공학과 수학에서 벡터/ 내적 직교

  • 1. 00. 선형대수학 OVERVIEW01 도정찬 KMOOC, 선형대수학, 성균관대, 이상구 교수님, 2020-1학기
  • 2. 소개 선형대수학은 수학, 공학, 경제학, 사회학 등 거의 모든 학문 분야에서 이용되며, 가장 중요한 수학 과목의 하나로 실제 응용뿐만 아니라 이론적인 연구도 활발한 수학 분야 중의 하나입니다. 우리는 그 첫 걸음으로 벡터와 그 성질을 공부하고 이를 바탕으로 선형대수학의 기본 원리들을 하나하나 공부해 갈것입니다. 크기와 방향 모두를 가지는 것(object, 양)을 벡터라 합니다. n-차원 벡터는 유전학이나 경제학, 생태학 등 다양 한 분야에서도 볼 수 있답니다. 우리는 3차원 공간에서 이러한 벡터들이 갖는 기본 성질을 알아보고, 그 내용을 n-차원공간으로 확장할 것입니다. 또한 내적을 정의하고 직선과 평면의 방정식을 공부할 것입니다.
  • 3. 목표 1.1 공학과 수학에서의 벡터 1.2 내적(inner product)과 직교 1.3 직선과 평면의 벡터 방정식
  • 4. 1.1 공학과 수학에서의 벡터 : n-차원 공간
  • 5. 1.1 공학과 수학에서의 벡터: n 차원 공간 스칼라(Scalar) : 길이, 넓이, 질량, 온도 - 크기만 주어지면 완전히 나타낼수 있는 양 벡터(vector) : 속도, 위치이동, 힘 - 크기 뿐만아니라 방향까지 지정하지 않으면 완전히 나타낼수 없는 양 - 벡터는 크기와 방향을 갖는 유향 선분이다. - 특히 2차원, 3차원 공간에서의 벡터는 화살표로 표현가능하다.
  • 6. 1.1 공학과 수학에서의 벡터: n 차원 공간 세 실수들의 순서조 를 (공간)벡터(vector in space)라 하고 로 나타낸다. 이때 실수 를 공간 벡터 x의 성분(component)라 한다.
  • 7. n개의 실수의 순서조 를 n차원 벡터(n-dimensional vector)라 하고 로 나타낸다. 이때 실수 를 x의 성분(component)라 한다. 1.1 공학과 수학에서의 벡터: n 차원 공간
  • 8. 1.1 공학과 수학에서의 벡터: n 차원 공간 n차원에서 벡터의 상등(equivalent) 의 벡터 에 대하여 이면 x = y 라 한다.
  • 9. 1.1 공학과 수학에서의 벡터: n 차원 공간 - n차원에서 벡터합, 스칼라배, 양벡터, 음벡터 의 벡터 와 스칼라 k에 대하여 두 벡터의 합 x + y와 k에 의한 x의 스칼라배 kx를 각각 다음과 같이 정의한다. 또한 에서 모든 성분이 0인 벡터를 영벡터 또는 원점이라 하고 0으로 나타낸다. 그러면 임의의 에 대하여 x + 0 = x, x + (-1)x = 0이 성립함을 쉽게 알 수 있따. 여기서 (-1)x = -x로 정의하며 -x를 x의 음벡터라 한다.
  • 10. 1.1 공학과 수학에서의 벡터: n 차원 공간 - 예제 의 벡터 에 대하여 x + y, x - y, (-2)x를 구하여라.
  • 11. 1.1 공학과 수학에서의 벡터: n 차원 공간 - n차원에서 벡터의 성질 1 의 벡터 x, y, z와 스칼라 h, k에 대해 다음의 성질이 성립한다.
  • 12. 1.1 공학과 수학에서의 벡터: n 차원 공간 - n차원에서 벡터의 성질 2 의 벡터 x와 스칼라 k에 대하여 다음이 성립한다. (1) 0x = 0 (2) k0 = 0 (3) (-1)x = -x
  • 13. 1.1 공학과 수학에서의 벡터: n 차원 공간 - 일차 결합(Linear Combination) 가 의 벡터이고, 계수 가 실수 일 때, 인 형태를 의 일차 결합(linear combination)이라 한다. ->V_i들의 상수배를 더해서 얻은 벡터를 V_i들의 선형 결합.
  • 14. 1.2 내적과 직교 에 대한 벡터의 크기 norm, 거리 distance, 사잇각 theta angle 및 평행성과 직교성 orthogonality에 대해 학습한다.
  • 15. 1.2 내적과 직교 - 노름, 거리(norm, distance) 의 벡터 에 대해 을 x의 노름(norm, length, magnitude)라 한다. 위 정의에서 는 원점에서 점 에 이르는 거리로 정의됨을 말한다. 따라서 의 두 벡터 에 대해 는 두 점 와 사이의 거리로 정의한다. 즉,
  • 16. 1.2 내적과 직교 - 내적 (Euclidean inner product, Dot product) 의 벡터 에 대해 실수 을 x와 y의 내적(Euclidean inner product, dot product)라 하고, 로 나타낸다.
  • 17. 1.2 내적과 직교 - 같은 벡터의 내적 의 벡터 에 대해
  • 19. 1.2 내적과 직교 - 코시 슈바르츠 부등식 의 임의의 벡터 x, y에 대해 다음 부등식이 성립한다. 단, 등호는 x, y 중 하나가 다른 것의 실수배 일때 만 성립한다. x, y가 둘다 0벡터가 아니면 norm은 0이 아니고, x와 y의 inner product over는 x의 norm 곱하기 y의 norm은 -1과 1사이에 있기 때문에 이 값을 만족하는 각이 존재한다.
  • 20. 1.2 내적과 직교 - 두 벡터 사이의 각(angle) 의 벡터 x, y에 대해 인 를 x와 y가 이루는 각(angle, 사잇각)이라 한다. - 직교와 평행 = 0 일 때 x, y는 서로 직교(orthogonal)한다. 적당한 실수 k에 대해 x = ky인 경우 x는 y와 평행하다.
  • 21. 1.2 내적과 직교 - 단위 벡터, 직교 벡터, 정규 직교 벡터 의 벡터 x에 대해 노름이 1인 벡터, 즉 인 벡터를 단위 벡터(unit vector)라 한다. 의 벡터 x, y가 서로 직교한다면, 이 벡터를 직교(orthogonal) 벡터들이라 하고, x, y가 서로 직교벡터이면서 각각 단위 벡터이면 정규직교(orthonormal) 벡터라 한다.
  • 22. 1.2 내적과 직교 - 내적 2 다음의 벡터는 서로 직교한가?
  • 23. 1.2 내적과 직교 - 벡터에 대한 삼각 부등식(triangle inequality) 의 벡터 x, y에 대하여 다음 부등식이 성립한다. 단, 등호는 x, y 중 하나가 다른 것의 k>=0배인 경우에만 성립한다. 와 코시-슈바르츠 부등식을 이용하면 이므로 가 성립 한다.
  • 24. 1.2 내적과 직교 - 기본 단위 벡터(standard unit vector) 임의의 벡터 x(!= 0)에 대해 는 단위 벡터이다. 의 단위 벡터 중에서 다음 n개의 벡터 기본단위벡터(standard unit vector, 표준 단위벡터)라 한다.
  • 25. 1.2 내적과 직교 - 기본 단위 벡터(standard unit vector) 을 의 임의의 벡터라 할 때 기본 단위 벡터를 사용하여 다음과 같이 나타낼 수 있다.