CM10197 Analytical Maths for Applications Revision Notes

289
-1

Published on

Course revision notes for the CM10197 Analytical Mathematics course at the University of Bath.

Published in: Education, Technology
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
289
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
10
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

CM10197 Analytical Maths for Applications Revision Notes

  1. 1. Analytical Mathematics For Applications Linear Algebra Matrix ­ a rectangular n­dimensional array of numbers, arranged in rows & columns Numbers in matrices can be real numbers, which are numbers that include algebraic, rational, integers, natural numbers and 0. However a matrix can contain other types of numbers such as complex numbers, so these matrices are referred to as complex m x n matrices. A real m x n matrix consists of m rows and n columns of real numbers ­ denoted A Here, the first sub­number is the row number, and the second number is the column number. The ij­th component is the real number at the i­th row and the j­th column. This is referred to as the ij­th component of A ­ written; Aij. Real 1 x n matrix ­ a matrix with 1 row and many columns. Also called a real n­dimensional row vector. Real m x 1 matrix ­ a matrix with m rows and 1 column. Also called a real m­dimensional column vector. Vector generally relates to a real m­dimensional column vector ­ i.e. a m x 1 matrix. This is written as; This is unless m is 2 or 3, which is written horizontally as (a1, a2, a3). m x n matrices can be thought of as a list of m n­dimensional row vectors, denoting the i­th row by Ri and the j­th column by Cj. The n­dimensional column vector where 1 is in the i­th position and 0’s everywhere else is denoted Li. A square matrix will have equal amounts of rows and columns ­ 1
  2. 2. so m = n. The sum of two m x n matrices A & B (A+B) ­ Add the respective ij components together (A + B)ij = Aij + Bij or This can be done with any amount of matrices. This means that the sum of matrices is associative ­ (A + B) + C = A + (B + C) ­ commutative ­ A + B = B + A ­ has inverses A + (­A) = 0, & A = 0 + A. Multiple of a matrix ­ Times each number in the matrix by the multiple Scalar multiplication is associative ­ (rs)A = r(sA) ­ has a unit ­ 1A = A ­ and respects the sum of matrices ­ r(A +B) = rA + rB. Transpose of a matrix ­ writing a horizontal matrix as a vertical matrix by swapping rows and columns Writing the transpose of a matrix can help to calculate its inverse if one exsits. Multiplication of matrices ­ Given m x n matrix A and n x p matrix B, AB = m x p i.e we multiply each row in A by each column in B ­ so A must have the same column number as B’s row number 2
  3. 3. Matrix multiplication is associative ­ (AB)C = A(BC) ­ obeys the laws of addition ­ A(B + C) = AB + AC ­ obeys scalars ­ r(AB) = (rA)B = A(rB) ­ and there exists a matrix In such that AIn = A & InB = B We can use matrix equations to express several simultaneous equations as follows; Linear Transformations Every m*n matrix A determines a function LA : Rn  → Rm ­ where n and m are real numbers, so Rn  and Rn  are the nth and mth dimension. Meaning; LA is a function that is defined by an m*n matrix A multiplied by a column vector of the nth dimension. Every LA is linear for any matrix A. In general a linear transformation between two vector spaces Rn and Rm is a map T : Rn  → Rm, and is linear where for vectors a and b ­ T(a + b) = Ta + Tb & T(ra) = rT(a) where r is a scalar number. The main example of linear transformation is given by matrix multiplication; give m*n matrix a, T(v) = Av, where v is a column vector with m co­ordinates. 3
  4. 4. It is therefore also true that LA + B = LA + LB , LrA = rLA & LA+LB = LAB. If V1, V2, …., Vk is a list of vectors, then a vector of the form r1V1 + r2V2, ….+ rkVk is a linear combination of V1, V2, …., Vk. Li is the column vector with 1 in the ith position and 0 everywhere else. Every n­dimensional vector is expressible as a linear combination of it’s Li ‘s, given as V = L1V1 + L2V2, ….+ LnVn and since T is linear it follows that T(v) = T(L1)V1 + T(L2)V2, ….+ T(Ln)Vn. T is only linear if there is an m*n matrix A for which T = LA . Given T : Rn  → Rm , the kernel of T (kerT) is the set of vectors in Rn (v E Rn) such that T(v) = 0 and the range of T RangeT is the set of those m­dimensional vectors w for which there exists V E Rn for which T(V) = w. When n and m are equal, it is possible for T to be invertible (T­1) where TT­1 = 1. Gaussian Elimination Gaussian elimination is used to find if a square matrix (where m and n are equal) is invertible ­ i.e is the use of the elementary row operations to convert matrix A into one in row echelon form. There are three elementary row operations: ­ Multiply one row by a non­zero real number ­ Ri |→ rRi ­ Add a multiple of one row to another row Ri |→ Ri  + rRj ­ Interchange two rows Ri <­> Rj A matrix A is in reduced row echelon form if; ­ There is a row of all zero’s at the bottom of the matrix ­ The first non­zero number from the left is 1 ­ The first 1 in a lower row occurs further than the right than the first 1 in the row above it ­ Any column containing the first 1 in a row has zeros everywhere else A matrix is in simply row echelon form if it satisfies only the first 3 of these conditions. Gauss­Jordan elimination uses the elementary row operations to convert a matrix A into one in reduced row echelon form. This uses the gaussian elimination along side the matrix’s identity matrix to find the matrix’s inverse. If a matrix has a row of zero’s then it will not have an inverse. We can check our working of the inverse by multiplying it by the original matrix and seeing if we get the identity matrix i.e.  AA­1 = Identity matrix. Examples of Gaussian and Gauss­Jordan elimination in notes! Reminder: identity matrix 4
  5. 5. http://mathworld.wolfram.com/GaussianElimination.html http://mathworld.wolfram.com/Gauss­JordanElimination.html Determinants Every square matrix has a determinant, and we can tell from it whether the matrix has an inverse. A matrix A is invertible if det(A) is not equal to zero. Written as det(A) or |A| , if n=1 , det(A) = a11 , the first and only entry in A, else if n>1 Mij is the (n­1) dimensional matrix determined by deleting the ith and jth column of A. When we have it down to a 2x2 matrix, the determinant is given by ad­bc. If n>1, det(A) = a11det(M11) ­ a12det(M12) +.... a1n(­1)1+n(M1n). Remember det(AB) = det(A)det(B). http://mathworld.wolfram.com/Determinant.html Eigenvalues, Eigenspaces & Eigenvectors A real number λ is an eigenvalue of A if det(A­λI)=0 where A is an n*n (square) matrix and I is the identity matrix. For any eigenvalue λ, the set Eλ of those vectors v for which (A­λI)v = 0 is called the eigenspace corresponding to λ, where the vectors in Eλ are called the eigenvectors. I.e the eigenspace is the subspace spanned by all of the eigenvectors corresponding to the given eigenvalue. If λ1, λ2, …, λm are different eigenvalues of matrix A, and if v1, v2, …, vm are eigenvectors corresponding to λ1, λ2, …, λm respectively, then v1, v2, …, vm are linearly independent. http://mathworld.wolfram.com/Eigenvalue.html Span, Linear Independence and Basis Every n­dimensional vector is uniquely expressible as a linear combination of L1,L2,...,Ln . https://www.khanacademy.org/math/linear­algebra/vectors_and_spaces/linear_combinations/v/li near­combinations­and­span The span of vectors v1, v2, …, vk in Rn, the span of { v1, v2, …, vk } is the set of linear combinations of  v1, v2, …, vk ­ ie.e span { v1, v2, …, vk } = r1v1 + r2v2 + … + rkvk for any values of r1 ­ rk ( ri E R for 1 <= i <= n ). The span of the vectors L1,L2,...,Ln in R3 is the whole of R3. This is due to the set of linear combinations of L1,L2,...,Ln (i.e r1L1 + r2L2 +... + rnLn  where r1 to rn are any real numbers) can be 5
  6. 6. made to represent any vector in 3 dimensions ­ R3. The span of any two nonzero vectors in R3 that are not parallel to each other is a plane passing through the origin. Given vectors v1, v2, …, vk in Rn, the vectors are linearly independent if whenever r1, r2,…,rk are real numbers for which r1v1 + r2v2 +... + rkvk = 0 it follows that r1 = r2 = …=rk = 0. Any set of n linearly independent vectors in Rn spans Rn. So vectors are not linearly independent if they are multiples of each other on the same line. The vectors must always equal zero to be linearly independent ­ in some examples they can equal zero, but could possible equal something else as well. Zero must be the only solution. v1, v2, …, vk in Rn are linearly independent if and only if v1, v2, …, vk is invertible ­ i.e its determinant is not equal to zero. If determinant does equal zero, then the matrix is not invertible, and so they are not linearly independent. A basis is a set of linearly independent vectors that span a space. A subspace (lets call it F) is the span of a set of vectors. The the set of vectors (lets call that set S) which must be linearly independent, is the basis for the subset. So S is a basis for F. http://au.answers.yahoo.com/question/index?qid=20110923215012AAWgDRs http://answers.yahoo.com/question/index?qid=20090822093846AA8XEvo https://www.khanacademy.org/math/linear­algebra/vectors_and_spaces/subspace_basis/v/linea r­algebra­­basis­of­a­subspace Lines and Planes in 3­Space The dot product is useful for any dimension (any n in Rn). Given two n­dimensional vectors u & v, to dot product ­ denoted u.v ­ is defined to be the matrix multiplication utv ­ ie pictured below. u.v = u1v1 + u2v2 .. + unvn The dot product can also be described as ­ u.v = |u||v|cosθ  ­ where θ is the angle between vector u and vector v. Two n­dimensional vectors u and v are called orthogonal if u.v = 0. This 6
  7. 7. will usually be when these vectors are at right angles to each other ­ i.e cos(90) = 0. The magnitude of a vector v ­ |v| =  √v.v  ­ each dimension squared and added together. The direction of an n­dimensional vector in R3 is given by a unit vector u ­ u = v/|v| ­ i.e the vector divided by its magnitude. The cross product is useful only in 3 dimensions (R3). Given 3­dimensional vectors u and v, their cross product is the vector a or the determinant of vector b; a b where i,j,k are (1,0,0) , (0,1,0) , (0,0,1) respectively. Given 3­dimensional vectors u and v, if θ is the angle between u and v, then |u * v| = |u||v|sinθ . A line (x,y,z) can be specified by a point (x0, y0, z0) and a direction given by a vector parallel to the line (a,b,c) which can be any multiple of real number r. So, (x,y,z) = (x0, y0, z0) + r(a,b,c)  ­ is the vector equation for a line. The corresponding simultaneous equations are called parametric equations, and if a, b & c are all non zero then the corresponding equations are the symmetric equations of the line; To give a plane in R3 is equivalent to giving a point in the plane and a vector n that is orthogonal to every vector in the plane ­ ie n is normal to the plane. If P is the point in the plane (x0, y0, z0) and n is (a,b,c), then the plan is given by the set of points Q = (x,y,z) satisfying the equation; a(x − x0) + b(y − y0) + c(z − z0) = 0 This is because the vector from P to Q is normal to n. The standard equation of a line is written; ax + by + cz = d To describe the equation of a plane containing three points: 1­ Choose one point, and create 2 vectors (a,b,c) and (d,e,f) by minusing the other two points from the chosen point. 7
  8. 8. 2 ­ Find the cross product of the 2 new vectors (a,b,c) and (d,e,f) by finding the determinant of (i,j,k/a,b,c/d,e,f) 3 ­ So (x,y,z) lies in the plan if & only if ((x,y,z) ­ (chosen point)) * (cross product) = 0 as they are perpendicular 4 ­ simiplify ((x,y,z) ­ (chosen point)) * (cross product) = 0 into a standard equation in the form ax + by + cz = d 5 ­ check all three points satisfy this equation Calculus Differentiation Differentiation gives us the rate of change ­ or the gradient ­ of something. A function f: R → R is continuous if it is continuous at every element of r. All polynomial and trigonometric functions are continuous. The differential of an expression is written as f’ or d/dx f, or df/dx. To derive, multiply by the power and then take one from the power. Example derivatives; 1. d/dx(xn) = nxn−1 for any natural number n > 0 2. d/dx(xr) = rxr−1 for any non­zero real number r 3. d/dx(sinx) = cosx 4. d/dx(cosx) = −sinx 5. d/dx(lnx) = 1/x if x > 0 6. d/dx(ex) = ex The product rule: Use for expression with two parts that are multiplied! if h(x) = f(x)g(x) then; dh/dx = f*dg/dx + g*df/dx or as we remember → if u = f(x) & v = g(x) then dh/dx = u.v’ + v.u’ The chain rule: Used for expressions inside others ­ z(x) = f(g(x)) ­ i.e brackets (ax +b)C or Sin(x2) etc. (fg)’(a) = f’(g(a)).g’(a) 8
  9. 9. also written as dz/dx = dz/dy . dy/dx We also need to know how to draw graphs! ­ HELP Partial Differentiation We use partial differentiation for expressions with more than one variable in (e.g x2y). To do this we find derivatives fx and fy by treating the other variables like constants for each derivative. Total derivatives are defined as a combination of partial derivatives ­ if u = f(x,y) then du/dt = (fx)dx/dt + (fy)dy/dt      (dy/dt and dx/dt are literally written like that) Integration Integration is used to measure area / volume, and is the inverse of differentiation. Noted as;   F(x) =  ∫ f (x).dx   sends x to F(x) + c. Usually done by adding one to the power and dividing by this new power. A definite integral has limits a and b; b ∫ f (x).dx   =  F (b)  −  F (a) a b a a b It follows that  ∫ f (x).dx  = ­  ∫ f (x).dx b c c a b a ∫ f (x).dx  +  ∫ f (x).dx  =  ∫ f (x).dx b b b a a a ∫(f(x) + g(x)).dx  =  ∫ f (x).dx  +  ∫ g(x).dx b b a a ∫ r * f (x).dx  =  r  *   ∫ f (x).dx Integration by parts ­ Inverse of the product rule for differentiation. 9
  10. 10. Sometimes this needs to be applied more than once Convergence of Infinite Series A sequence of real numbers an or (a1, a2...) converges to a if for all e > 0 there exists a natural number N such that for all n>N, one has |an ­ a| < e. Then a is called the limted of the sequence, written an → a. Geometric series converges to a/1­k Harmonic series ­ 1 + ½ + ⅓ + ¼ +...+ 1/n Look at cauchy product, power series and exponential series Taylor and Maclaurin Series Taylor’s theorem ­ if f is a continuous real­values function for which all the derivatives f’, f’’ etc. up to f(n) exist in an interval  a  ≤  x  ≤ b  and f(n+1) exists in a < x < b then 10
  11. 11. Complex Numbers  A complex number z is represented as z = (x,y) = x + iy ; where x is the real part of z and iy is the imaginary part of z. 11

×