4 Matricer

Kommentarer/spørgsmål?
Når man har regnet med lineære ligninger et stykke tid opstår behovet for at forenkle notationen. For eksempel kan ligningerne
2y+4z=23x+2y+7z=4(4.1) \begin{matrix} && &2y &+ &4z &= &-2\\ &3x &+ &2y &+ &7z &= &4 \end{matrix} \tag{4.1}
repræsenteres ved talskemaet
(02423274)(4.2) \begin{pmatrix} 0 & 2 & 4 & -2\\ 3 & 2 & 7 & 4 \end{pmatrix} \tag{4.2}
og mange af de operationer vi foretager for at løse ligningerne kan lige så vel udføres på det tilsvarende talskema.

4.1 Matricer

4.1.1 Definitioner

Et rektangulært talskema kaldes en matrix. En matrix med mm rækker og nn søjler kaldes en m×nm\times n (læs: mm gange nn) matrix. Notation for en m×nm\times n matrix AA er
A=(a11a1ja1nai1aijainam1amjamn),(4.3) A = \begin{pmatrix} a_{11} & \cdots &a_{1j}& \cdots& a_{1 n} \\ \vdots & \ddots &\vdots & \ddots & \vdots\\ a_{i1} & \cdots &a_{ij}& \cdots& a_{i n} \\ \vdots & \ddots &\vdots & \ddots & \vdots\\ a_{m1} & \cdots &a_{mj}& \cdots& a_{m n} \end{pmatrix}, \tag{4.3}
hvor Aij=aijA_{ij} = a_{i j} betegner tallet i ii-te række og jj-te søjle. Hvis vi kalder matricen i (4.2) for AA, består den af 22 rækker og 44 søjler med A14=2A_{14} = -2.
  1. En matrix kaldes kvadratisk hvis den har lige så mange rækker som søjler. For eksempel er de første to matricer nedenfor kvadratiske, mens den tredje ikke er det.
    (1),(123456789),(010101). \begin{pmatrix} 1 \end{pmatrix}, \qquad \begin{pmatrix} 1 & 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9\end{pmatrix}, \qquad \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 1\end{pmatrix}.
  2. Diagonalen i en matrix er defineret som indgangene i matricen med samme række- og søjlenummer. Nedenfor er angivet en 3×43\times 4 matrix, hvor diagonalelementerne er markerede
    (130132151036). \begin{pmatrix} \color{red}{1} & 3 & 0 & 1\\ 3 & \color{red}{2} & 1 & 5\\ 1 & 0 & \color{red}{3} & 6 \end{pmatrix}.
    En matrix kaldes en diagonalmatrix, hvis alle dens indgange udenfor diagonalen er =0=0. Nedenfor er et eksempel på en kvadratisk diagonalmatrix
    (100020003). \begin{pmatrix} 1 & 0 & 0\\ 0 & 2 & 0\\ 0 & 0 & 3 \end{pmatrix}.
  3. En matrix kaldes en rækkevektor hvis den kun har en række. For eksempel er
    (123) \begin{pmatrix} 1 & 2 & 3 \end{pmatrix}
    en rækkevektor med tre søjler.
  4. En matrix kaldes en søjlevektor hvis den kun har en søjle. For eksempel er
    (123) \begin{pmatrix} 1\\ 2 \\ 3 \end{pmatrix}
    en søjlevektor med tre rækker.
  5. Rækkerne i en matrix kaldes matricens rækkevektorer. Den ii-række i en matrix AA betegnes AiA_i. For eksempel har matricen AA i (4.2) rækkevektorerne
    A1=(0242)ogA2=(3274). A_1 = \begin{pmatrix} 0 & 2 & 4 & -2 \end{pmatrix} \qquad\mathrm{og}\qquad A_2 = \begin{pmatrix} 3 & 2 & 7 & 4 \end{pmatrix}.
  6. Søjlerne i en matrix kaldes matricens søjlevektorer. Den jj-te søjle i en matrix AA betegnes AjA^j. For eksempel har matricen AA i (4.2) søjlevektorerne
    A1=(03),A2=(22),A3=(47)ogA4=(24). A^1 = \begin{pmatrix} 0 \\ 3 \end{pmatrix},\quad A^2 =\begin{pmatrix} 2 \\ 2 \end{pmatrix},\quad A^3 =\begin{pmatrix} 4 \\ 7 \end{pmatrix}\quad\mathrm{og}\quad A^4 = \begin{pmatrix} -2 \\ 4 \end{pmatrix}.
  7. En række- eller søjlevektor refereres til som en vektor.
Vi vil senere give en mere abstrakt definition af vektorer som elementer i et såkaldt vektorrum.

4.2 Matrixmultiplikation

Antag vi har givet to ligningssystemer
u+2v=pu2v=qog2x+3y=ux2y=v. \begin{matrix} & \color{blue}{u} &+ &2 \color{red}{v} &= p\\ & \color{blue}{u} &- &2 \color{red}{v} &= q \end{matrix} \qquad\mathrm{og}\qquad \begin{matrix} &2 x &+ &3 y &= \color{blue}{u}\\ &-x &- &2 y &= \color{red}{v}. \end{matrix}
i de variable u,vu, v og x,yx, y. Vi får et nyt ligningssystem i xx og yy ved at sætte u=2x+3yu = 2x + 3 y og v=x2yv=-x-2y ind i det første ligningssystem:
u+2v=(2x+3y)+2(x2y)=y=pu2v=(2x+3y)2(x2y)=4x+7y=q. \begin{matrix} &u &+ &2 v &= &(2 x + 3 y) &+ &2(-x -2 y) &= & &- &y &= p\\ &u &- &2 v &= &(2 x + 3 y) &- &2(-x -2 y) &= &4 x &+ &7 y &= q. \end{matrix}
Med matricer skriver vi
(1212)(2312)=(0147)(4.4) \begin{pmatrix} 1 & 2\\ 1 & -2 \end{pmatrix} \begin{pmatrix} 2 & 3\\ -1 & -2 \end{pmatrix} = \begin{pmatrix} 0 & -1\\ 4 & 7 \end{pmatrix} \tag{4.4}
Lad os prøve at skrive operationen i (4.4) ud generelt det vil sige antag vi har to ligningssystemer a la ovenfor:
a11u+a12v=pa21u+a22v=qogb11x+b12y=ub21x+b22y=v \begin{matrix} & a_{11} \color{blue}{u} &+ &a_{12}\color{red}{v} &= p\\ & a_{21} \color{blue}{u} &+ &a_{22}\color{red}{v} &= q \end{matrix} \qquad\mathrm{og}\qquad \begin{matrix} &b_{11} x &+ &b_{12} y &= \color{blue}{u}\\ &b_{21} x &+ &b_{22} y &= \color{red}{v} \end{matrix}
men nu med generelle koefficienter. Ved substitution fås som før
a11u+a12v=a11(b11x+b12y)+a12(b21x+b22y)a21u+a22v=a21(b11x+b12y)+a22(b21x+b22y) \begin{matrix} & a_{11} u &+ &a_{12} v &= & a_{11} (b_{11} x + b_{12} y) &+ &a_{12} (b_{21} x + b_{22} y)\\ & a_{21} u &+ &a_{22} v &= &a_{21} (b_{11} x + b_{12} y) &+ &a_{22} (b_{21} x + b_{22} y) \end{matrix}
som så er lig med
(a11b11+a12b21)x+(a11b12+a12b22)y=p(a21b11+a22b21)x+(a21b12+a22b22)y=q \begin{matrix} &(a_{11} b_{11} + a_{12} b_{21}) x &+ &(a_{11}b_{12} + a_{12} b_{22}) y &= p\\ &(a_{21} b_{11} + a_{22} b_{21}) x &+ &(a_{21} b_{12} + a_{22} b_{22}) y &= q \end{matrix}
Formuleret med matricer som i (4.4) skrives
(a11a12a21a22)(b11b12b21b22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22)(4.5) \begin{pmatrix} a_{11} & a_{12}\\ \color{blue}{a_{21}} & \color{red}{a_{22}} \end{pmatrix} \begin{pmatrix} \color{blue}{b_{11}} & b_{12}\\ \color{red}{b_{21}} & b_{22} \end{pmatrix} = \begin{pmatrix} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12} + a_{12} b_{22}\\ \color{blue}{a_{21} b_{11}} + \color{red}{a_{22} b_{21}} & a_{21} b_{12} + a_{22} b_{22} \end{pmatrix} \tag{4.5}
Ligningen ovenfor er intet mindre end formlen for multiplikation af to 2×22\times 2 matricer, præcis som den blev indført historisk af Cayley omkring 1857. Ved nærmere eftersyn (og markeret med farver i (4.5) for i=2i=2 og j=1j= 1) ses reglen at tallet i den ii-te række og jj-te søjle i produktmatricen er række-søjle multiplikationen mellem ii-te række og jj-te søjle i de to matricer.
Rækkesøjle multiplikationen mellem en rækkevektor
x=(x1x2xn) \mathbf x = (x_1 x_2 \ldots x_n)
og en søjlevektor
y=(y1y2yn) \mathbf y = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}
med det samme antal indgange er defineret som
xy=x1y1+x2y2++xnyn. \mathbf x \mathbf y = x_1 y_1 + x_2 y_2 + \cdots + x_n y_n.
Hvis man er lidt pedantisk vil man måske i notationen skelne mellem tallet 55 og 1×11\times 1 matricen (5)(5), men det er vi ikke.
Lad AA være en m×p\color{blue}{m}\times \color{black}{p} matrix og BB en p×r\color{black}{p}\times \color{red}{r} matrix. Så er produktet ABA B defineret som m×r\color{blue}{m}\times\color{red}{r} matricen CC givet ved
Cij=AiBj C_{ij} = A_i B^j
for 1im1\leq i \leq m og 1jr1\leq j \leq r.
Hvis AA er en m×nm\times n matrix og BB en r×sr\times s matrix giver matrixproduktet ABA B kun mening, hvis n=rn = r: Antallet af søjler i AA skal være lig med antallet af rækker i BB.

Quiz

Lad matricerne
A=(100010),B=(1001),C=(111),ogD=(111) A = \begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \end{pmatrix}, \quad B = \begin{pmatrix} 1 & 0\\ 0 & 1\end{pmatrix}, \quad C = \begin{pmatrix} 1 & 1 & 1\end{pmatrix}, \quad\mathrm{og}\quad D = \begin{pmatrix} 1 \\ 1 \\ 1\end{pmatrix}
være givet. Hvilke af nedenstående matrixprodukter giver mening?
BAB A
ABA B
CDC D
DCD C
CAC A
ADA D
Kommentarer/spørgsmål?
Med formlen for matrix multiplikation kan ligningssystemet (4.1) nu skrives som
(024327)(xyz)=(24) \begin{pmatrix} 0 & 2 & 4\\ 3 & 2 & 7 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} -2 \\ 4 \end{pmatrix}
Her ganger vi en 2×32\times 3 matrix sammen med en 3×13\times 1 matrix. Rækkesøjlemultiplikationen giver 2×12\times 1 matricen
(2y+4z3x+2y+7z). \begin{pmatrix} 2 y + 4 z\\ 3 x + 2 y + 7 z \end{pmatrix}.
Denne matrix skal netop være lig med 2×12\times 1 matricen på højresiden ovenfor for at ligningssystemet (4.1) er opfyldt.

Quiz

Lad
A=(1230123x1),B=(111222011)ogC=AB A = \begin{pmatrix} 1 & 2 & 3\\ 0 & 1 & 2\\ 3 & x & 1 \end{pmatrix}, \quad B = \begin{pmatrix} 1& 1 & 1\\ 2 & 2 & 2\\ 0 & 1 & 1 \end{pmatrix}\quad\mathrm{og}\quad C = A B
Hvilke af nedenstående udsagn er rigtige?
C12=9C_{12} = 9
C23=4C_{23} = 4
Hvis C32=4C_{32} = 4, så er x=0x = 0.
Hvis C31=1C_{31} = -1, så er x=1x=-1.
Matrixmultiplikation optræder mange steder. Nedenfor et meget anvendeligt eksempel indenfor sandsynlighedsregning, som i generaliseret form leder til Googles berømte page rank algoritme.

Eksempel

Matrixmultiplikation forekommer naturligt i sandsynlighedsregning. Lad os illustrere med et enkelt eksempel. Lad os antage at rundt regnet 20%20\% af de mennesker, der bor på landet, flytter til byen og at 30%30\% af de mennesker, som bor i byen flytter til landet. Lad os også fastslå at disse procentsatser er opgjort per år og lige omformulere en smule:
  1. Hvis man bor på landet er sandsynligheden for at man flytter til byen 0.20.2,
  2. Hvis man bor på landet er sandsynligheden for at man bliver boende 0.80.8,
  3. Hvis man bor i byen er sandsynligheden for at man flytter til landet 0.30.3,
  4. Hvis man bor i byen er sandsynligheden for at man bliver boende 0.70.7,
når man ser på et år som tidsramme. Dette kan illustreres med nedenstående diagram Dette giver anledning til lidt købmandsregning. Lad os sige at der i starten til tiden t=0t = 0 år bor x0x_0 mennesker i byen og y0y_0 mennesker på landet. Hvor mange mennesker x1x_1 bor der så i byen og hvor mange mennesker y1y_1 bor der på landet til tiden t=1t = 1 år? Med ord bliver byen affolket med 30%30\%, men der kommer tilflyttere, som udgør 20%20\% af befolkningen på landet. Det vil sige
x1=0.7x0+0.2y0. x_1 = 0.7 x_0 + 0.2 y_0.
Tilsvarende har vi for befolkningen på landet at
y1=0.3x0+0.8y0. y_1 = 0.3 x_0 + 0.8 y_0.
Dette kan skrives via matrixmultiplikation som
(x1y1)=(0.70.20.30.8)(x0y0). \begin{pmatrix} x_1 \\ y_1 \end{pmatrix} = \begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix} \begin{pmatrix} x_0 \\ y_0 \end{pmatrix}.
Proceduren giver også mening for t=2t=2 år. Her bliver resultatet
(x2y2)=(0.70.20.30.8)(x1y1)=(0.70.20.30.8)((0.70.20.30.8)(x0y0))=((0.70.20.30.8)(0.70.20.30.8))(x0y0)=P2(x0y0),(4.6)\begin{aligned} \begin{pmatrix} x_2 \\ y_2 \end{pmatrix} &= \begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix} \begin{pmatrix} x_1 \\ y_1 \end{pmatrix} = \begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix} \left(\begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix} \begin{pmatrix} x_0 \\ y_0 \end{pmatrix}\right)\\ &= \left( \begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix} \begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix}\right) \begin{pmatrix} x_0 \\ y_0 \end{pmatrix} = P^2 \begin{pmatrix} x_0 \\ y_0 \end{pmatrix}, \end{aligned}\tag{4.6}
hvor
P=(0.70.20.30.8).(4.7) P=\begin{pmatrix} 0.7 & 0.2\\ 0.3 & 0.8 \end{pmatrix}. \tag{4.7}
Ovenstående kan generaliseres så vi har formlen
(xnyn)=Pn(x0y0),(4.8) \begin{pmatrix} x_n \\ y_n \end{pmatrix} = P^n \begin{pmatrix} x_0 \\ y_0 \end{pmatrix}, \tag{4.8}
som giver fordelingen af by- og landbefolkning til tiden t=nt = n år. For at kunne benytte formlen (4.8) skal vi altså udføre n1n-1 matrixmultiplikationer, hvilket kan være lidt overvældende, for eksempel hvis vi ønsker at kende befolkningstallet på landet efter 5050 år. Hver matrixmultiplikation indeholder 88 almindelige talmultiplikationer og 44 almindelige taladditioner. Vi vil senere i kapitlet se hvordan egenvektorer og egenværdier for matricer kan hjælpe med denne udregning. Inden da, lad os blot eksperimentere med at udregne de første potenser af PP:
P2=(0.550.30.450.7)P3=PP2=(0.4750.350.5250.65)P4=PP3=(0.43750.3750.56250.625)P15=(0.4000180.3999510.5999820.600012)P16=(0.4000090.3999940.5999910.600006)\begin{aligned} P^2 &= \begin{pmatrix} 0.55 & 0.3\\ 0.45 & 0.7 \end{pmatrix}\\ P^3 = P P^2 &= \begin{pmatrix} 0.475 & 0.35\\ 0.525 & 0.65 \end{pmatrix}\\ P^4 = P P^3 &= \begin{pmatrix} 0.4375 & 0.375\\ 0.5625 & 0.625 \end{pmatrix}\\ &\vdots\\ P^{15} &= \begin{pmatrix} 0.400018 & 0.399951\\ 0.599982 & 0.600012 \end{pmatrix}\\ P^{16} &= \begin{pmatrix} 0.400009 & 0.399994\\ 0.599991 & 0.600006 \end{pmatrix} \end{aligned}
Umiddelbart ser det ud som om udregningerne stabiliseres på et stationært niveau, hvor 40%40\% bor i byen og 60%60\% på landet taget ud fra det samlede indbyggertal til at begynde med det vil sige til t=0t = 0 år. Matricen PP er et eksempel på en stokastisk 2×22\times 2 matrix. Generelt kaldes en kvadratisk matrix en stokastisk matrix hvis alle dens indgange er 0\geq 0 og dens søjlesummer er 11.
Nedenfor et eksempel på anvendelser i netværksteori.

Eksempel

Matrixmultiplikation forekommer også i praktiske problemer, hvor netværk er involveret. Lad os antage vi har fem byer, som er forbundet med forskellige veje som nedenfor Dette netværk har en 5×55\times 5 incidensmatrix, hvor by nummer ii hører til ii-te række og ii-te søjle. Et 11-tal i matricen på plads (i,j)(i, j) betyder at der er en vej fra by ii til by jj, mens et 00 betyder at by ii og by jj ikke er forbundet med en vej:
A=(0110010110110110110100110). A = \begin{pmatrix} 0 & 1 & 1 & 0 & 0\\ 1 & 0 & 1 & 1 & 0\\ 1 & 1 & 0 & 1 & 1\\ 0 & 1 & 1 & 0 & 1\\ 0 & 0 & 1 & 1 & 0 \end{pmatrix}.
Her er
A2=(2112113212124212123112112)ogA3=(2563354773676763774533652). A^2 = \begin{pmatrix} 2 & 1 & 1 & 2 & 1 \\ 1 & 3 & 2 & 1 & 2 \\ 1 & 2 & 4 & 2 & 1 \\ 2 & 1 & 2 & 3 & 1 \\ 1 & 2 & 1 & 1 & 2 \end{pmatrix}\quad\mathrm{og}\quad A^3 = \begin{pmatrix} 2 & 5 & 6 & 3 & 3 \\ 5 & 4 & 7 & 7 & 3 \\ 6 & 7 & 6 & 7 & 6 \\ 3 & 7 & 7 & 4 & 5 \\ 3 & 3 & 6 & 5 & 2 \end{pmatrix}.
Hvad er netværksfortolkningen af A2,A3A^2, A^3 og generelt AnA^n? Det viser sig at fortolkningen af indgang (i,j)(i, j) i matricen AnA^n netop er antallet af stier af længde nn fra by ii til by jj. For eksempel ser vi ovenfor at der er 33 stier fra by 11 til by 55 af længde 33 svarende til 1245,1345,12351245, 1345, 1235. De 22 stier fra by 11 til by 11 af længde 33 er 1231,13211231, 1321 og de 55 stier af længde 33 fra by 11 til 22 er 1342,1242,1323,1212,12321342, 1242, 1323, 1212, 1232. Lad os antage at vi har et netværk med mm byer og en tilhørende incidensmatrix AA. Det generelle bevis bygger på at en sti af længde nn fra by ii til by jj må ende med en vej fra en naboby kk til jj. For hver af disse nabobyer kan vi så nøjes med at tælle antallet af stier af længde n1n-1 fra by ii. Hvis vi nu antager at Aghn1A^{n-1}_{gh} er antallet af stier af længde n1n-1 fra by gg til by hh, så siger matrixmultiplikation at
Aijn=Ai1n1A1j++Aimn1Amj A^n_{i j} = A^{n-1}_{i 1} A_{1 j} + \cdots + A^{n-1}_{i m} A_{m j}
Dette tal er antallet af stier af længde nn fra by ii til by jj fordi Akj=1A_{k j} = 1 netop når kk er en naboby til jj (og ellers 00).

4.3 Matrixregning

Matrixmultiplikation er forskellig fra almindelig talmultiplikation på et helt centralt punkt: Faktorernes orden er ikke ligegyldig. Betragt matricerne
A=(1101)ogB=(1011). A= \begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix}\qquad\mathrm{og}\qquad B = \begin{pmatrix} 1 & 0\\ 1 & 1 \end{pmatrix}.
Så er
AB=(2111)ogBA=(1112) A B = \begin{pmatrix} 2 & 1 \\ 1 & 1\end{pmatrix}\qquad \mathrm{og} \qquad B A = \begin{pmatrix} 1 & 1 \\ 1 & 2\end{pmatrix}
dvs ABBAA B \neq B A. Man siger også at matrixmultiplikation er ikke-kommutativ.

4.3.1 Addition af matricer

Man kan (næsten) regne med matricer som almindelige tal. Specielt giver det mening at lægge matricer med samme antal rækker og søjler sammen indgang for indgang:
(a11a1nam1amn)+(b11b1nbm1bmn)=(a11+b11a1n+b1nam1+bm1amn+bmn). \begin{pmatrix} a_{11} & \cdots & a_{1 n} \\ \vdots & \ddots & \vdots\\ a_{m1} & \cdots & a_{m n} \end{pmatrix} + \begin{pmatrix} b_{11} & \cdots& b_{1 n} \\ \vdots & \ddots & \vdots\\ b_{m1} & \cdots & b_{m n} \end{pmatrix} = \begin{pmatrix} a_{11} + b_{11} & \cdots & a_{1 n} + b_{1n}\\ \vdots & \ddots & \vdots\\ a_{m1}+b_{m1} & \cdots & a_{m n}+b_{mn} \end{pmatrix}.
Med hensyn til addition opfører matricer sig ligesom almindelige tal, det vil sige at A+B=B+AA+B=B+A.

4.3.2 Skalarmultiplikation af matricer

En matrix kan på naturlig måde multipliceres med et tal λ\lambda ved at gange ind plads for plads:
λ(a11a1nam1amn)=(λa11λa1nλam1λamn). \lambda \begin{pmatrix} a_{11} & \cdots & a_{1 n} \\ \vdots & \ddots & \vdots\\ a_{m1} & \cdots & a_{m n} \end{pmatrix} = \begin{pmatrix} \lambda a_{11} & \cdots & \lambda a_{1 n} \\ \vdots & \ddots & \vdots\\ \lambda a_{m1} & \cdots & \lambda a_{m n} \end{pmatrix}.

Opgave

Findes et tal λ\lambda
λ(123456)+(000002)=(24681015)? \lambda \begin{pmatrix} 1 & 2 & 3\\ 4 & 5 & 6 \end{pmatrix} + \begin{pmatrix} 0 & 0 & 0\\ 0 & 0 & 2 \end{pmatrix} = \begin{pmatrix} 2 & 4 & 6\\ 8 & 10 & 15 \end{pmatrix}?

4.3.3 Den distributive lov

For almindelige tal gælder at man kan gange ind i en parentes det vil sige a(b+c)=ab+aca (b + c) = a b + a c. Denne regel gælder også for matricer og kaldes generelt for den distributive lov (gange bliver distribueret (fordelt) over plus).
Lad BB og CC være m×nm\times n matricer, AA en r×mr\times m matrix og DD en n×sn\times s matrix. Så gælder
A(B+C)=AB+ACog(B+C)D=BD+CD. A ( B + C) = A B + A C\qquad\mathrm{og}\qquad (B + C) D = B D + C D.

Bevis

Man kan nøjes med at bevise den første påstand i tilfældet, hvor AA er en rækkevektor og B,CB, C søjlevektorer, fordi
(A(B+C))ij=Ai(B+C)j=Ai(Bj+Cj). (A (B+C))_{ij} = A_i (B+C)^j = A_i (B^j + C^j).
Tilsvarende kan den anden påstand bevises i tilfældet hvor B,CB, C er rækkevektorer og DD en søjlevektor, fordi
((B+C)D)ij=(B+C)iDj=(Bi+Ci)Dj. ((B+C) D)_{ij} = (B+C)_i D^j = (B_i + C_i) D^j.
Begge disse tilfælde følger af den distributive lov for almindelige tal. For eksempel, hvis A=(a1,,am)A = (a_1,\ldots,a_m) er en rækkevektor og
B=(b1b2bm)C=(c1c2cm) B= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_m \end{pmatrix} \qquad C= \begin{pmatrix} c_1\\ c_2\\ \vdots\\ c_m \end{pmatrix}
søjlevektorer, så er A(B+C)A(B+C) og AB+ACAB+AC begge 1×11\times 1 matricer, det vil sige at de kun har et eneste element. Helt præcis er
A(B+C)=(iai(bi+ci))=(i(aibi+aici))=(iaibi)+(iaici)=AB+AC\begin{aligned} A(B+C)&=(\sum_i{a_i(b_i+c_i)})\\ &=(\sum_i{(a_ib_i+a_ic_i)})\\ &=(\sum_i{a_ib_i})+(\sum_i{a_ic_i})\\ &=AB+AC \end{aligned}

4.3.4 Den mirakuløse associative lov

Giver det mening at gange tre matricer A,BA, B og CC sammen? Vi har faktisk kun defineret produktet af to matricer. Der er to naturlige måder at udregne produktet ABCA B C på:
(AB)CogA(BC). ( A B ) C\qquad \mathrm{og}\qquad A (B C).
Vi kan begynde med at gange AA sammen med BB og så gange CC på fra højre. Vi kan også først gange BB sammen med CC og så gange AA på fra venstre. Det er slet ikke klart at de to måder leder frem til samme resultat! At det gælder er helt centralt når man regner med matricer. Resultatet kaldes den associative lov for matrixmultiplikation.
Lad AA være en m×nm\times n matrix, BB en n×rn\times r matrix og CC en r×sr\times s matrix. Så er
(AB)C=A(BC). (A B) C = A (B C).
Det nedenstående bevis er ikke særlig informativt, men det er korrekt. Senere, når vi har set sammenhængen mellem matricer og lineære afbildninger, vil vi være i stand til at give en meget bedre forklaring på hvorfor den associative lov er en selvfølge.

Bevis

Vi skal bevise at
((AB)C)ij=(A(BC))ij ((A B) C)_{ij} = (A (B C))_{ij}
for 1im1\leq i \leq m og 1js1\leq j \leq s. Venstresiden kan skrives
(AB)iCj=(AiB1,,AiBr)Cj=(AiB1)C1j+(AiB2)C2j++(AiBr)Crj.(4.9)\begin{aligned} (A B)_i C^j &= (A_i B^1, \ldots, A_i B^r) C^j\\ &= (A_i B^1) C_{1j} + (A_i B^2) C_{2j} + \cdots + (A_i B^r) C_{rj}. \end{aligned}\tag{4.9}
Højresiden kan skrives som
Ai(BC)j=Ai(B1CjBnCj)=Ai1(B1Cj)++Ain(BnCj).(4.10) A_i (B C)^j = A_i \begin{pmatrix} B_1 C^j \\ \vdots \\ B_n C^j\end{pmatrix} = A_{i1} (B_1 C^j) + \cdots + A_{in} (B_n C^j). \tag{4.10}
Ved at skrive rækkesøjle multiplikationerne i (4.9) ud fås
Ai1B11C1j++AinBn1C1j+Ai1B12C2j++AinBn2C2j+Ai1B1rCrj++AinBnrCrj.(4.11)\begin{aligned} &A_{i1} B_{11} C_{1j} + \cdots + A_{in} B_{n1} C_{1j} +\\ &A_{i1} B_{12} C_{2j} + \cdots + A_{in} B_{n2} C_{2j} +\\ &\vdots\\ &A_{i1} B_{1r} C_{rj} + \cdots + A_{in} B_{nr} C_{rj}. \end{aligned}\tag{4.11}
Ved at skrive rækkesøjle multiplikationerne i (4.10) ud fås
Ai1B11C1j++Ai1B1rCrj+Ai2B21C1j++Ai2B2rCrj+AinBn1C1j++AinBnrCrj.(4.12)\begin{aligned} &A_{i1} B_{11} C_{1j} + \cdots + A_{i1} B_{1r} C_{rj} +\\ &A_{i2} B_{21} C_{1j} + \cdots + A_{i2} B_{2r} C_{rj} +\\ &\vdots\\ &A_{in} B_{n1} C_{1j} + \cdots + A_{in} B_{nr} C_{rj}. \end{aligned}\tag{4.12}
Rækkerne i summen i (4.11) svarer til søjlerne i summen (4.12) og det ses at disse summer er ens. Derfor er ((AB)C)ij=(A(BC))ij((A B) C)_{ij} = (A (B C))_{ij}.

4.3.5 Opbygning af matricer fra søjler

Hvis vi har nn søjlevektorer vi\mathbf v_i som alle har højde nn kan vi danne en m×nm\times n matrix A=(v1,v2,vn)A=(\mathbf v_1,\mathbf v_2,\ldots \mathbf v_n) ved at sætte dem ved siden af hinanden. Så hvis vi har søjlevektorerne
v1=(03),v2=(22),v3=(47)ogv4=(24). \mathbf v_1 = \begin{pmatrix} 0 \\ 3 \end{pmatrix},\quad \mathbf v_2 =\begin{pmatrix} 2 \\ 2 \end{pmatrix},\quad \mathbf v_3 =\begin{pmatrix} 4 \\ 7 \end{pmatrix}\quad\mathrm{og}\quad \mathbf v_4 = \begin{pmatrix} -2 \\ 4 \end{pmatrix}.
så er
A=(v1,v2,,vn)=(02423274) A=(\mathbf v_1,\mathbf v_2,\ldots, \mathbf v_n)= \begin{pmatrix} 0&2&4&-2\\ 3&2&7&4 \end{pmatrix}
Vi kan genfinde søjlevektorerne af AA som A1=v1A^1=\mathbf v_1,A2=v2A^2=\mathbf v_2,A3=v3A^3=\mathbf v_3 og A4=v4A^4=\mathbf v_4. Vi vil senere få brug for følgende simple udregning.
Hvis BB er en p×mp\times m matrix, så er
BA=B(v1,v2,,vn)=(Bv1,Bv2,,Bvn) BA=B(\mathbf v_1,\mathbf v_2,\ldots,\mathbf v_n)=(B\mathbf v_1,B\mathbf v_2,\ldots,B\mathbf v_n)

Bevis

Vi regner efter. På den ene side er
(BA)ij=BiAj=Bivj (BA)_{ij}=B_iA^j=B_i\mathbf v_j
På den anden side er
(Bv1,Bv2,,Bvn)ij=(Bvj)ij=Bivj (B\mathbf v_1,B\mathbf v_2,\ldots,B\mathbf v_n)_{ij}=(B\mathbf v_j)_{ij}=B_i\mathbf v_j

Illustration af beviset ved et eksempel

A=(1210);B=(123101)=((11),(20),(31)) A= \begin{pmatrix} 1&2\\ 1&0 \end{pmatrix} ;\quad B= \begin{pmatrix} 1&2&3\\ 1&0&-1 \end{pmatrix} = \left( \begin{pmatrix} 1\\1 \end{pmatrix}, \begin{pmatrix} 2\\0 \end{pmatrix}, \begin{pmatrix} 3\\-1 \end{pmatrix} \right)
Nu er
AB=(1210)(123101)=(11+2112+2013+2(1)11+0112+0013+0(1))=((1210)(11),(1210)(20),(1210)(31))\begin{aligned} AB &= \begin{pmatrix} 1&2\\ 1&0 \end{pmatrix} \begin{pmatrix} 1&2&3\\ 1&0&-1 \end{pmatrix} \\ &= \begin{pmatrix} 1 * 1 +2*1&1*2+2*0&1*3+2*(-1)\\ 1*1+0*1&1*2+0*0&1*3+0*(-1) \end{pmatrix} \\ &= \left( \begin{pmatrix} 1&2\\ 1&0 \end{pmatrix}\begin{pmatrix} 1\\1 \end{pmatrix}, \begin{pmatrix} 1&2\\ 1&0 \end{pmatrix}\begin{pmatrix} 2\\0 \end{pmatrix}, \begin{pmatrix} 1&2\\ 1&0 \end{pmatrix}\begin{pmatrix} 3\\-1 \end{pmatrix} \right) \end{aligned}

4.3.6 Identitetsmatricen

Identitetsmatricen InI_n af orden nn er n×nn\times n diagonalmatricen med 11 i diagonalen. Nedenfor er identitetsmatricen af orden 55
(1000001000001000001000001) \begin{pmatrix} 1 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 0 & 1 \end{pmatrix}
Identitetsmatricen InI_n har egenskaben at
InA=AIn=A I_n A = A I_n = A
for alle n×nn\times n matricer AA.

Opgave

Gør rede for ovenstående egenskab det vil sige at identitetsmatricen ikke ændrer ved en kvadratisk matrix når den bliver ganget på enten fra venstre eller fra højre.

4.3.7 Den inverse matrix

Man kan dividere med almindelige tal 0\neq 0. Giver det mening at dividere med matricer? Et almindeligt tal a0a\neq 0 har et "inverst" tal ccac=ca=1a c = c a = 1. Her kan vi bare sætte c=1/a=a1c = 1/a = a^{-1}. Vi kan umiddelbart overføre denne definition til kvadratiske matricer.

Opgave

Lad A,BA, B og CC være n×nn\times n matricer. Gør rede for at hvis
BA=In B A = I_n
og
AC=In A C = I_n
så må B=CB = C.
En n×nn\times n matrix AA siges at være invertibel, hvis der eksisterer en n×nn\times n matrix BB
AB=BA=In. A B = B A = I_n.
I givet fald kaldes BB den inverse matrix og betegnes A1A^{-1}.
Man kunne jo spørge om det kan ske for en m×nm\times n matrix AA hvor m<nm<n at der findes en n×mn\times m matrix BB så at BA=InBA=I_n. Det kan desværre aldrig lade sig gøre, selv om det sagtens kan ske at der findes en n×mn\times m matrix BB så at AB=ImAB=I_m.
Kommentarer/spørgsmål?
Den inverse matrix kommer for eksempel ind i billedet ved løsning af lineære ligninger. Et lineært ligningssystem med nn ligninger og nn ubekendte:
a11x1+a12x2++a1nxn=b1an1x1+an2x2++annxn=bn\begin{aligned} a_{11}x_1 + a_{12} x_2 + \cdots + a_{1n} x_n &= b_1\\ &\vdots\\ a_{n1} x_1 + a_{n2} x_2 + \cdots + a_{nn} x_n &= b_n \end{aligned}
kan med matrixnotation skrives
(a11a1nan1ann)(x1xn)=(b1bn) \begin{pmatrix} a_{11} & \cdots & a_{1 n} \\ \vdots & \ddots & \vdots\\ a_{n1} & \cdots & a_{n n} \end{pmatrix} \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} = \begin{pmatrix} b_1 \\ \vdots \\ b_n \end{pmatrix}
eller mere kompakt som Ax=bA \mathbf x = \mathbf b. Hvis AA er invertibel giver den associative lov følgende udregning:
Ax=bA1(Ax)=A1b(A1A)x=A1bIx=A1bx=A1b.\begin{aligned} A \mathbf x &= \mathbf b \Rightarrow\\ A^{-1} \left(A \mathbf x\right) &= A^{-1} \mathbf b \Rightarrow \\ (A^{-1} A) \mathbf x &= A^{-1} \mathbf b \Rightarrow\\ I \mathbf x &= A^{-1} \mathbf b\Rightarrow\\ \mathbf x &= A^{-1} \mathbf b.\\ \end{aligned}
Den inverse matrix giver altså løsningen til ligningssystemet ud fra kun en matrixmultiplikation med højresiden. Bemærk at denne udregning gælder for alle højresider b\mathbf b i ligningssystemet.

Eksempel

Ligningssystemet
5x+3y=133x+2y=8(4.13) \begin{matrix} &5 x &+ &3 y &= &13\\ &3 x &+&2 y &= &8 \end{matrix} \tag{4.13}
kan ved hjælp af matrixmultiplikation skrives som
Av=b, A \mathbf v = \mathbf b,
hvor
A=(5332),v=(xy)ogb=(138). A = \begin{pmatrix} 5& 3 \\ 3 & 2 \end{pmatrix}, \qquad \mathbf v = \begin{pmatrix} x \\ y \end{pmatrix}\qquad \mathrm{og}\qquad \mathbf b = \begin{pmatrix} 13 \\ 8 \end{pmatrix}.
Jeg kan her afsløre at AA rent faktisk er invertibel samt at
A1=(2335). A^{-1} = \begin{pmatrix} 2 & -3\\ -3 & 5 \end{pmatrix}.
En enkel matrixmultiplikation:
(xy)=(2335)(138)=(21) \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2 & -3\\ -3 & 5 \end{pmatrix} \begin{pmatrix} 13 \\ 8 \end{pmatrix} = \begin{pmatrix} 2 \\ 1 \end{pmatrix}
afslører som forventet løsningen til ligningssystemet i (4.13).
Produktet af to invertible matricer (når produktet giver mening) er også en invertibel matrix. Dette er indholdet af følgende resultat, som bevises helt formelt ud fra definitionen og den associative lov.
Produktet ABA B af to invertible matricer AA og BB er invertibelt med (AB)1=B1A1(A B)^{-1} = B^{-1} A^{-1}.

Bevis

Vi skal checke betingelserne i definitionen det vil sige at
(B1A1)(AB)=IogAB(B1A1)=I. (B^{-1} A^{-1}) (A B) = I\qquad\mathrm{og}\qquad A B (B^{-1} A^{-1}) = I.
Lad os checke den første betingelse ved brug af den associative lov:
(B1A1)(AB)=((B1A1)A)B=(B1(A1A))B=(B1I)B=B1(IB)=B1B=I,\begin{aligned} (B^{-1} A^{-1}) (A B) &= ((B^{-1} A^{-1}) A) B\\ &= (B^{-1} (A^{-1} A)) B \\ &= (B^{-1} I) B = B^{-1} (I B) = B^{-1} B = I, \end{aligned}
hvor II betegner identitetsmatricen. Betingelsen AB(B1A1)=IA B (B^{-1} A^{-1}) = I checkes analogt.
For de nysgerrige er her en udfordring. Vi har defineret en matrix AA til at være invertibel, hvis der findes en matrix BB så både AB=IA B = I og BA=IB A = I. Kan vi umiddelbart konkludere at BA=IB A = I hvis kun AB=IA B = I? Vi vil vende tilbage til denne udfordring senere.

4.3.8 Den transponerede matrix

Den transponerede til en m×nm\times n matrix AA er n×mn\times m matricen ATA^T givet ved
AijT=Aji, A^T_{i j} = A_{j i},
det vil sige matricen, som indeholder søjlerne i AA som rækker (og rækkerne som søjler). For eksempel er
(02423274)T=(03224724). \begin{pmatrix} 0 & 2 & 4 & -2\\ 3 & 2 & 7 & 4 \end{pmatrix}^T = \begin{pmatrix} 0 & 3\\ 2 & 2\\ 4 & 7\\ -2 & 4 \end{pmatrix}.
Læg også mærke til at (AT)T=A(A^T)^T = A for en vilkårlig matrix AA.
Lad AA være en m×rm\times r matrix og BB en r×nr\times n matrix. Så er
(AB)T=BTAT. (A B)^T = B^T A^T.

Bevis

Per definition er (AB)ijT=(AB)ji(A B)^T_{i j} = (A B)_{j i}. Denne indgang er givet som række-søjle multiplikation mellem jj-te række i AA og ii-te søjle i BB, hvilket er identisk med række-søjle multiplikation mellem ii-række i BTB^T og jj-te søjle i ATA^T.

Opgave

Lad AA være en kvadratisk matrix. Gør rede for at AA er invertibel hvis og kun hvis ATA^T er invertibel.

Opgave

En kvadratisk matrix AA kaldes symmetrisk hvis A=ATA = A^T. Gør rede for at
BBT B B^T
er en symmetrisk matrix, hvor BB er en vilkårlig matrix.

Vink

Brug proposition 4.16!

4.4 Rækkeoperationer

Der er en række meget naturlige operationer man kan udføre på matricer, som præcis svarer til hvad man ville gøre på det tilsvarende system af ligninger:
  1. Ombytning af to rækker.
  2. Multiplikation af en række med et tal forskellig fra nul.
  3. Addition af en række multipliceret med et tal til en anden række.
Disse operationer kaldes rækkeoperationer. Rækkeoperationer er invertible: \bullet Ved først at ombytte to rækker og dernæst ombytte de samme to rækker genfinder vi den oprindelige matrix. \bullet Ved først at gange en række med et tal λ0\lambda\neq 0 og dernæst gange samme række med 1/λ1/\lambda genfinder vi den oprindelige matrix. \bullet Ved at addere λ\lambda gange rækken ii til rækken jj og dernæst addere λ-\lambda gange rækken ii til rækken jj genfinder vi den oprindelige matrix.
To matricer AA og BB kaldes rækkeækvivalente, hvis man kan udføre en følge af rækkeoperationer på AA og få BB frem. Dette skrives ABA\sim B.

Quiz

Betragt følgende fire 2×22\times 2 matricer
A=(2112),B=(1001),C=(3113)ogD=(1111). A = \begin{pmatrix} 2 & 1\\ 1 & 2 \end{pmatrix},\quad B = \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix},\quad C = \begin{pmatrix} 3 & 1\\ 1 & 3 \end{pmatrix}\quad\mathrm{og}\quad D= \begin{pmatrix} 1 & 1\\ 1 & 1 \end{pmatrix}.
Hvilke af følgende udsagn er sande?
AAA\sim A
ABA\sim B
ACA\sim C
BDB\sim D

Opgave

Lad AA, BB og CC være tre matricer med samme antal rækker og søjler. Gør rede for at
  1. AAA\sim A.
  2. ABA\sim B\quad medfører at BA\quad B\sim A.
  3. ABogBCA\sim B\quad\mathrm{og}\quad B\sim C\quad medfører at ACA\sim C.

Opgave

Vis at hvis ABA\sim B så er BAB\sim A, det vil sige, hvis at man kan udføre en følge af rækkeoperationer på BB så at man ender med at få AA frem.
Operationen (γ\gamma) svarer til Gauss elimination. At trække første ligning fra anden ligning i (4.1) svarer til at gange første række i (4.2) med 1-1 og addere til anden række. Efter denne operation på matricen (4.2) har vi matricen
(02423036)(4.14) \begin{pmatrix} 0 & 2 & 4 & -2\\ 3 & 0 & 3 & 6 \end{pmatrix} \tag{4.14}
Vi benytter nu operationen (β\beta) og ganger anden række med 13\frac {1}{3} og får matricen
(02421012). \begin{pmatrix} 0 & 2 & 4 & -2\\ 1 & 0 & 1 & 2 \end{pmatrix}.
Tilsvarende ganger vi første række med 12\frac{1}{2} og får matricen
(01211012). \begin{pmatrix} 0 & 1 & 2 & -1\\ 1 & 0 & 1 & 2 \end{pmatrix}.
Hvis vi omformulerer matricen ovenfor til ligninger, svarer den til
y+2z=1x+z=2 \begin{matrix} && &y &+ &2z &= &-1\\ &x & & &+ &z &= &2 \end{matrix}
Intuitivt er rækkefølgen af ligningerne her forkert. Vi vil gerne have at ligningen indeholdende den første variabel xx kommer først. Vi benytter operationen (α\alpha) og bytter rundt på første og anden række. Dermed har vi
(02423036)(10120121).(4.15) \begin{pmatrix} 0 & 2 & 4 & -2\\ 3 & 0 & 3 & 6 \end{pmatrix} \quad\sim\quad \begin{pmatrix} 1 & 0 & 1 & 2\\ 0 & 1 & 2 & -1 \end{pmatrix}. \tag{4.15}
Vi accepterer matricen til sidst i (4.15) som en specielt enkel form vi kan reducere den oprindelige matrix (4.2) til. Den enkle form af matricen afspejler sig i det tilsvarende ligningssystem ved at man umiddelbart kan aflæse løsningerne til at være
x=z+2y=2z1. \begin{matrix} &x& & &= &-z &+ &2\\ & & &y&= &-2z &-&1 \end{matrix}.
Det Vil Sige zz er en fri variabel og bestemmer xx og yy som ovenfor. Den simple form vi har reduceret den oprindelige matrix til kaldes reduceret række echelon form.

4.5 Reduceret række echelon form (RREF)

En række i en matrix kaldes en nulrække hvis alle dens indgange er tallet 00.
En matrix AA siges at være på reduceret række echelon form (RREF) hvis
  1. Nulrækker er i bunden af matricen.
  2. Hvis en række i AA ikke er en nulrække, så er den første indgang 0\neq 0 i rækken tallet 11. Denne indgang kaldes et pivotelement.
  3. Et pivotelement er længere til højre end pivotelementerne i de foregående rækker.
  4. Et pivotelement er den eneste indgang 0\neq 0 i sin søjle.

Quiz

Hvilke af nedenstående matricer er på RREF?
(110010001) \begin{pmatrix} 1 & 1 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix}
(101011000) \begin{pmatrix} 1 & 0 & 1\\ 0 & 1 & 1\\ 0 & 0 & 0 \end{pmatrix}
(011101000) \begin{pmatrix} 0 & 1 & 1\\ 1 & 0 & 1\\ 0 & 0 & 0 \end{pmatrix}
(000101011) \begin{pmatrix} 0 & 0 & 0\\ 1 & 0 & 1\\ 0 & 1 & 1 \end{pmatrix}
(100101010021) \begin{pmatrix} 1 & 0 & 0 & -1\\ 0 & 1 & 0 & 1\\ 0 & 0 & 2 & 1 \end{pmatrix}
(100001200001) \begin{pmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 2 & 0\\ 0 & 0 & 0 & 1 \end{pmatrix}
Enhver m×nm\times n matrix AA er rækkeækvivalent med en entydig m×nm\times n matrix på RREF.

Bevis *

En konkret matrix

A=(0000024100211) A= \begin{pmatrix} 0 & 0 & 0 & 0\\ 0 & 2 & 4 & 10\\ 0 & 2 & 1 & 1 \end{pmatrix}
Lad jj markere første søjle i AA, som indeholder en indgang 0\neq 0. Efter ombytning af rækker kan vi antage at a=A1j0a = A_{1j}\neq 0.

Vi følger A

(0241000000211) \begin{pmatrix} 0 & 2 & 4 & 10\\ 0 & 0 & 0 & 0\\ 0 & 2 & 1 & 1 \end{pmatrix}
Ved at gange første række igennem med 1/a1/a kan vi yderligere antage at A1j=1A_{1j} = 1.

Fortsætning

(012500000211) \begin{pmatrix} 0 & 1 & 2 & 5\\ 0 & 0 & 0 & 0\\ 0 & 2 & 1 & 1 \end{pmatrix}
Vi kan så rækkereducere via Gauss elimination ud fra antagelsen A1j=1A_{1j}=1 og opnå at A1jA_{1j} er eneste indgang 0\neq 0 i sin søjle. Lad os kalde første række RR efter disse modifikationer af AA.

Nu ser vi på R

(012500000039)R=(0125) \begin{pmatrix} 0 & 1 & 2 & 5\\ 0 & 0 & 0 & 0\\ 0 & 0 & -3 & -9 \end{pmatrix}\quad R= \begin{pmatrix} 0 & 1 & 2 & 5 \end{pmatrix}
Denne procedure kan gentages på (m1)×n(m-1)\times n matricen BB bestående af de sidste m1m-1 rækker i AA og vi kan antage at denne mindre matrix kan rækkereduceres til (m1)×n(m-1)\times n matricen HH på RREF.

Og på B og H

B=(000039)H=(013000) B= \begin{pmatrix} 0 & 0 & 0\\ 0 & -3 & -9 \end{pmatrix}\quad H= \begin{pmatrix} 0 & 1 & 3\\ 0 & 0 & 0 \end{pmatrix}
Lad m×nm\times n matricen CC bestå af RR som første række og HH som de sidste m1m-1 rækker.

Reduktion til C

C=(012500130000) C= \begin{pmatrix} 0&1&2&5\\ 0&0 & 1 & 3\\ 0&0 & 0 & 0 \end{pmatrix}\quad
RREF for den oprindelige matrix AA fremkommer nu ved at benytte pivotelementerne i HH til at skabe 00 i første række i CC i deres respektive søjler.

Endelig har vi en RREF

(010100130000) \begin{pmatrix} 0&1&0&-1\\ 0&0 & 1 & 3\\ 0&0 & 0 & 0 \end{pmatrix}\quad
Dermed har vi vist eksistensen af en RREF. Nu skitserer vi et bevis for entydigheden af RREF (fra en artikel af Thomas Yuster i Mathematics Magazine, March, 1984). Vi bruger et induktionsargument. Induktionen bruger antallet søjler.
phantom\phantom{phantom}
Hvis n=1n=1 har AA kun en søjle. Der er kun to muligheder. AA kunne være nullvektoren 0\mathbf 0. Men 0\mathbf 0 er selv på RREF, og den ændrer sig ikke under rækkoperationer, så entydigheden er klar. Hvis A0A\neq \mathbf 0 er RREF også entydig, fordi rækkereduktionen af AA er nødvendigvis søjlevektoren med 11 på første indgang og 00 på de øvrige indgange. Nu har vi klaret induktionsstarten. For at give et fuldstændigt induktionsbevis for entydigheden er det nok at vise at hvis vi allerede har bevist entydighed af RREF for matricer på formen m×(n1)m\times (n-1), så er entydigheden også gældende for matricer på formen m×nm\times n.
phantom\phantom{phantom}
Vi laver nu induktionskridtet, og antager at n>1n>1, og at sætningen gælder for alle m×(n1)m\times (n-1) matricer. Lad AA' betegne m×(n1)m\times (n-1) matricen som fremkommer fra AA ved at slette sidste søjle i AA. Hvis nu BB og CC er to RREF, som begge hører til AA, kan vi antage at de stemmer overens på de første n1n-1 søjler.

Stop! Hvorfor kan vi antage det?

Jo, fordi hvis vi tilsvarende sletter de sidste søjler i BB og CC får vi to m×(n1)m\times (n-1) matricer BB' og CC'. Og BB' og CC' er begge RREF for AA'. Ifølge vores induktionsantagelse er dermed B=CB'=C'.
BB og CC kan kun adskille i den sidste søjle, så vores opgave er at vise at også de to sidste søjler er ens, det vil sige at Bn=CnB^n=C^n. Vi skelner nu mellem to tilfælder. Det første tilfælde er at både BnB^n og CnC^n er pivotsøjler. Det andet tilfælde er at enten BnB^n ikke er en pivotsøjle i BB, eller at CnC^n ikke er en pivotsøjle i CC. Vi giver et argument der viser at B=CB=C i det første tilfælde, og et helt andet argument der viser at B=CB=C i det andet tilfælde. Tilsammen beviser de to argumenter sætningen.

Bevis for at B og C er ens i det første tilfælde

Antag at BnB^n og CnC^n begge er pivotsøjler. Vi kigger først på BB. Vi bemærker at pivotsøjlen BnB^n er bestemt af BB'. Hvis vi kender BB' og ved at den sidste søjle er en pivotsøjle, så kender vi også BB. Pivotelementet står nemlig i den første række i BB der er en nullrække i BB'.

Sådan her:

(10600010300000100000) \begin{pmatrix} 1&0&6&0& 0\\ 0&1&0&3&0\\ 0&0&0&0&\color{red}1\\ 0&0&0&0&0 \end{pmatrix}
På den samme måde er CC bestemt af CC', fordi vi ved at CnC^n er en pivotsøjle. Men da B=CB'=C' følger det at B=CB=C.

Bevis for at B og C er ens i det andet tilfælde

Enten er den sidste række i BB eller den sidste række i CC ikke en pivotsøjle. Der er ikke forskel på BB og CC i antagelserne, så vi kan også lige så godt antage at det er BnB^n der ikke er en pivotsøjle. Det efterfølgende argument virker lige så fint for CC, vi skifter bare BB ud mod CC i notationen. Vi antager altså at BnB^n ikke er en pivotsøjle. Da den sidste række i BB ikke er en pivotsøjle, kan vi finde ifølge bemærkning 4.27 finde en løsning uu til vektorligningen Bu=0Bu=0 som opfylder at un0u_n\neq 0. Nu er BB og CC RREF til den samme matrix AA, så hvis Bu=0Bu=0 er også Au=0Au =0 og Cu=0Cu=0, og dermed (BC)u=0(B-C)u=0. Siden B=CB'=C' befinder sig de eneste elementer i BCB-C der er forskellige fra 0 i den sidste søjle. Hvis vi tager højde for dette og udfører matrixmultiplikationen får vi
0=(BC)u=(BnCn)(un)=un(BnCn) 0=(B-C)u=(B^n-C^n)\color{red}(u_n)\color{black}=u_n(B^n-C^n)
Her er (un)\color{red}(u_n)\color{black} en 1×11\times 1 matrix. Da un0u_n\neq 0 har vi lov til at dividere med unu_n. Vi får at BnCn=0B^n-C^n=0, og dermed er vi færdige.

Eksempel

Et eksempel til illustration af proceduren i beviset kunne være
A=(011110011100110), A = \begin{pmatrix} 0 & 1 & 1 & 1 & 1\\ 0 & 0 & 1 & 1 & 1\\ 0 & 0 & 1 & 1 & 0 \end{pmatrix},
hvor j=2j = 2. Her er
B=(0011100110) B = \begin{pmatrix} 0 & 0 & 1 & 1 & 1\\ 0 & 0 & 1 & 1 & 0 \end{pmatrix}
og dermed
H=(0011000001). H = \begin{pmatrix} 0 & 0 & 1 & 1 & 0\\ 0 & 0 & 0 & 0 & 1 \end{pmatrix}.
Derfor bliver
C=(011110011000001) C = \begin{pmatrix} 0 & 1 & 1 & 1 & 1\\ 0 & 0 & \color{red}{1} & 1 & 0\\ 0 & 0 & 0 & 0 & \color{red}{1} \end{pmatrix}
og de markerede pivotelementer ovenfor bruges ved Gauss elimination til at give den endelige RREF
(010000011000001). \begin{pmatrix} 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 1 & 1 & 0\\ 0 & 0 & 0 & 0 & 1 \end{pmatrix}.

4.5.1 Løsning af ligninger ved hjælp af RREF

Hvis en m×nm\times n matrix RR er på RREF er ligningssystemet Rx=bR \mathbf x = \mathbf b med mm ligninger og nn variable specielt nemt at gå til. Pivotelementerne i RR er de eneste indgange i deres søjle 0\neq 0. Deres søjlenumre BB svarer til de såkaldte bundne variable. De øvrige søjlenumre FF svarer til de såkaldte frie variable. Vi samler de frie variable i en vektor xF\mathbf x_F, og de bundne variable i en anden vektor xB\mathbf x_B. Lad os se på et konkret eksempel. Lad
R=(012001000101000013) R= \begin{pmatrix} 0 & 1 & 2 & 0 & 0 & 1\\ 0 & 0 & 0 &1 & 0 & 1\\ 0 & 0 & 0 & 0 & 1 & 3 \end{pmatrix}
Da er RR på RREF, og de tre pivoter står i søjlerne med nummer 2,4,52,4,5. Hvis vi vil løse en ligning Rx=bR\mathbf x=\mathbf b, så er x=(x1,x2,x3,x4,x5.x6)T\mathbf x=(x_1,x_2,x_3,x_4,x_5.x_6)^T , de bundne variable er x2,x4,x5x_2,x_4,x_5 og de frie variable er x1,x3,x6x_1,x_3,x_6. Vi skriver altså xF=(x1,x3,x6)T\mathbf x_F=(x_1,x_3,x_6)^T og xB=(x2,x4,x5)T\mathbf x_B=(x_2,x_4,x_5)^T. Vi laver nu en lille omsortering af søjlerne i RR. Vi flytter de tre pivot søjle foran. De resterende søjler der svarer til bundne variable samler vi til en matrix vi kalder
R=(021001003). R'= \begin{pmatrix} 0&2&1\\ 0&0&1\\ 0&0&3 \end{pmatrix} .
Nu ser vi at følgende to ligninger er fuldstændigt ensbetydende:
(012001000101000013)(x1x2x3x4x5x6)=(b1b2b3) \begin{pmatrix} 0 & 1 & 2 & 0 & 0 & 1\\ 0 & 0 & 0 &1 & 0 & 1\\ 0 & 0 & 0 & 0 & 1 & 3 \end{pmatrix} \begin{pmatrix} x_1\\ x_2\\ x_3\\ x_4\\ x_5\\ x_6 \end{pmatrix}= \begin{pmatrix} b_1\\ b_2\\ b_3 \end{pmatrix}
(100021010001001003)(x2x4x5x1x3x6)=(b1b2b3) \begin{pmatrix} 1 & 0 & 0 & 0 & 2 & 1\\ 0 & 1 & 0 & 0 & 0 & 1\\ 0 & 0 & 1 & 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} x_2\\ x_4\\ x_5\\ x_1\\ x_3\\ x_6 \end{pmatrix}= \begin{pmatrix} b_1\\ b_2\\ b_3 \end{pmatrix}
Formuleret i matrixsprog siger det at ligningen
A=b A=\mathbf b
er ensbetydende med at
I3xB+RxF=b I_3\mathbf x_B+R'\mathbf x_F=\mathbf b
som er ensbetydende med at
xB=bRxF. \mathbf x_B=\mathbf b-R'\mathbf x_F.
For eksempel er x=(x1,x2,x3,x4,x5,x6)T\mathbf x = (x_1, x_2, x_3, x_4, x_5, x_6)^T en løsning til
(012001000101000013)v=(123) \begin{pmatrix} 0 & 1 & 2 & 0 & 0 & 1\\ 0 & 0 & 0 &1 & 0 & 1\\ 0 & 0 & 0 & 0 & 1 & 3 \end{pmatrix} v = \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}
hvis og kun hvis
(x2x4x5)=(123)(021001003)(x1x3x6). \begin{pmatrix} x_2 \\ x_4 \\ x_5 \end{pmatrix} = \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} - \begin{pmatrix} 0 & 2 & 1\\ 0 & 0 & 1\\ 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} x_1 \\ x_3 \\ x_6 \end{pmatrix}.
Her er x2,x4,x5x_2, x_4, x_5 de bundne variable og x1,x3,x6x_1, x_3, x_6 de frie variable. Skrevet som ligninger svarer dette til ligningssystemet
x2+2x3+x6=1x4+x6=2x5+3x6=3 \begin{matrix} &x_2 &+ &2x_3 & && &&+ &x_6 &= &1\\ && && &x_4 & &&+ &x_6 &= &2\\ && && && &x_5&+ &3x_6 &= &3 \end{matrix}
med løsningsformlerne
x2=12x3x6x4=2x6x5=33x6.\begin{aligned} x_2 &= 1 - 2x_3 - x_6\\ x_4 &= 2 - x_6\\ x_5 &= 3 - 3 x_6. \end{aligned}
Læg mærke til at x1x_1 er en fri variabel, som her ikke indgår i formlerne for x2,x4,x5x_2, x_4, x_5.
Det betyder, for eksempel, at hvis RR er en matrix på RREF, og hvis en søjle i matricen RR med søjlenummer ii ikke indeholder en pivot, så findes der en søjlevektor u\mathbf u så at hver indgang i u\mathbf u opfylder at ui=1u_i=1, og desuden sådan at Ru=0R\mathbf u=0.

Opgave

Vi har allerede brugt denne bemærkning i beviset for den vigtige sætning (4.25). Men måske var det snyd at vi brugte et resultat der står senere i teksten? Lidt som at rejse tilbage i tiden og give sig selv de rigtige lottotal? Argumentér for at vi ikke har snydt (eller argumentér alternativt for at vi har snydt).
Kommentarer/spørgsmål?

4.6 Elementære matricer

Vi vil nu omfortolke rækkeoperationer ved hjælp af matrixmultiplikation. Hver af de tre typer af rækkeoperationer som vi beskrev i begyndelsen af 4.4 svarer til multiplikation fra venstre med en matrix af en bestemt type. For eksempel er ombytning af rækkke 1 med række 2 i en 3×n3\times n matrix det samme som multiplikation fra venstre med
(010100001). \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1 \end{pmatrix}.
Multiplikation af den anden række med 5 er detsamme som produkt med
(100050001), \begin{pmatrix} 1 & 0 & 0\\ 0 & 5 & 0\\ 0 & 0 & 1 \end{pmatrix},
og operationen at gange den tredie række med 3-3 og lægge den til den første række er detsamme som multiplikation med matricen
(103010001). \begin{pmatrix} 1 & 0 & -3\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix}.

Eksempel

For eksempel giver udtrykket for matrixmultiplikation
(103010001)(abcdefghi)=(1a+0d3g1b+0e3h1c+0f3i0a+1d+0g0b+1e+0h0c+1f+0i0a+0d+1g0b+0e+1h0c+0f+1i)=(a3gb3hc3idefghi)\begin{aligned} &\begin{pmatrix} 1 & 0 & -3\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} a & b & c\\ d & e & f\\ g & h & i \end{pmatrix} \\ =&\begin{pmatrix} 1*a+0*d-3*g & 1*b+0*e-3*h & 1*c+0*f-3*i\\ 0*a+1*d+0*g & 0*b+1*e+0*h & 0*c+1*f+0*i\\ 0*a+0*d+1*g & 0*b+0*e+1*h & 0*c+0*f+1*i \end{pmatrix}\\ =& \begin{pmatrix} a -3g& b-3h & c-3i\\ d & e & f\\ g & h & i \end{pmatrix} \end{aligned}

Opgave

Vis de resterende to af de ovenstående påstande for 3×33\times 3 matricer ved direkte udregning!
Vi siger at en elementær matrix fremkommer ved at udføre præcis en rækkeoperation på den kvadratiske m×mm\times m identitetsmatrix ImI_m. Hvis denne rækkeoperation er givet ved at multiplicere fra venstre med en matrix EE, er den tilhørende elementære matrix altså EIm=EEI_m=E. Vi indfører betegnelser for de tre typer af elementære matricer. Lad PrsP_{rs} være den matrix der fremkommer fra identitetsmatricen ved at bytte om på rækkerne med nummer rr respektive ss. Vi lader Di(λ)D_i(\lambda) betegne matricen, som fremkommer ved at gange ii-te række i identitetsmatricen af orden mm med λ\lambda. Dette er stadig en diagonal matrix, lige som enhedsmatricen, det vil sige at hvis jkj\neq k er Di(λ)jk=0D_i(\lambda)_{jk}=0. Til sidst lader vi Eij(λ)E_{ij}(\lambda) betegne den elementære matrix, som fremkommer fra identitetsmatricen af orden mm ved at gange jj-te række med λ\lambda og addere til ii-te række. Denne matrix er lig identitetsmatricen med undtagelse af at der i indgangen i ii-te række og jj-te søjle står λ\lambda i stedet for 00.

Quiz

Et

Lad A=(1103.14)A= \begin{pmatrix} 1 &1\\ 0&3.14 \end{pmatrix} Hvad gælder om AA?
A=P12A=P_{12}
A=D1(2)A=D_{1}(2)
A=E12(1)A=E_{12}(1)
AA er ikke en elementær matrix.

To

Lad A=(1101)A= \begin{pmatrix} 1 &1\\ 0&1 \end{pmatrix} Hvad gælder om AA?
A=P12A=P_{12}
A=D1(2)A=D_{1}(2)
A=E12(1)A=E_{12}(1)
AA er ikke en elementær matrix.

Tre

Lad A=(1002)A= \begin{pmatrix} 1 &0\\ 0&2 \end{pmatrix} Hvad gælder om AA?
A=P12A=P_{12}
A=D1(2)A=D_{1}(2)
A=E12(1)A=E_{12}(1)
AA er ikke en elementær matrix.

Fire

Lad A=(100010)A= \begin{pmatrix} 1 &0&0\\ 0&1&0 \end{pmatrix} Hvad gælder om AA?
A=P23A=P_{23}
A=D1(1)A=D_{1}(1)
A=E12(1)A=E_{12}(1)
AA er ikke en elementær matrix.

Fem

Lad A=(0110)A= \begin{pmatrix} 0&1\\ 1&0 \end{pmatrix} Hvad gælder om AA?
A=P12A=P_{12}
A=D2(2)A=D_{2}(2)
A=E12(1)A=E_{12}(1)
AA er ikke en elementær matrix.

Seks

Lad A=(1002)A= \begin{pmatrix} 1 &0\\ 0&2 \end{pmatrix} Hvad gælder om AA?
A=P12A=P_{12}
A=D2(2)A=D_{2}(2)
A=E12(1)A=E_{12}(1)
AA er ikke en elementær matrix.

Syv

Lad A=(001010100)A= \begin{pmatrix} 0 &0&1\\ 0&1&0\\ 1&0&0 \end{pmatrix} Hvad gælder om AA?
A=P13A=P_{13}
A=D2(1)A=D_{2}(1)
A=E12(0)A=E_{12}(0)
AA er ikke en elementær matrix.

Otte

Lad A=(10003.140001)A= \begin{pmatrix} 1 &0&0\\ 0&3.14&0\\ 0&0&1 \end{pmatrix} Hvad gælder om AA?
A=P12A=P_{12}
A=D2(3.14)A=D_{2}(3.14)
A=E12(3.14)A=E_{12}(3.14)
AA er ikke en elementær matrix.
  1. At udføre en rækkeoperation på en m×nm\times n matrix AA svarer til at gange den tilsvarende elementære m×mm\times m matrix på fra venstre.
  2. En elementær matrix svarende til en rækkeoperation er invertibel. Dens inverse matrix er den elementære matrix svarende til den inverse rækkeoperation.

Bevis

Vi begynder med at bevis for (α). Vi betragter først tilfældet at AA er en m×1m\times 1 matrix, det vil sige at AA er en søjlevektor. For at spare på det dyrbare papir plejer man at skrive en søjlevektor som (v1,v2,,vm)T(v_1,v_2,\ldots,v_m)^T hvor TT står for transponering, og gamle vaner er svære at give slip på selv når man skriver for skærmen. Nu regner vi ved at bruge formlen for matrixmultiplikation. Følgende to produkter er nemme at beregne:
Pij(v1,v2,,vm)T=(,vi1,vj,vi+1,,vj1,vi,vj+1,)TDi(λ)(v1,v2,,vm)T=(,vi1,λvi,vi+1,)T\begin{aligned} P_{ij}(v_1,v_2,\ldots,v_m)^T&=(\ldots,v_{i-1},v_j,v_{i+1},\ldots,v_{j-1},v_i,v_{j+1},\ldots)^T\\ D_i(\lambda)(v_1,v_2,\ldots,v_m)^T&=(\ldots,v_{i-1},\lambda v_i,v_{i+1},\ldots)^T \end{aligned}
Vi er lidt mere forsigtige i det tredie tilfælde.
Eij(λ)(v1,v2,,vm)T=(w1,,wm) E_{ij}(\lambda)(v_1,v_2,\ldots,v_m)^T=(w_1,\ldots,w_m)
hvor
wr=sEij(λ)rsvs w_r=\sum_s E_{ij}(\lambda)_{rs}v_s
Hvis rir\neq i er Eij(λ)rs=0E_{ij}(\lambda)_{rs}=0 for rsr\neq s, så at
wr=Eij(λ)rrvr=1vr=vr. w_r=E_{ij}(\lambda)_{rr}v_r=1\cdot v_r=v_r.
Hvis r=ir=i så er Eij(λ)is=0E_{ij}(\lambda)_{is}=0 for sis\neq i eller sjs\neq j, så at
wr=Eij(λ)rivi+Eij(λ)rjvj=1vi+λvj=vi+λvj w_r=E_{ij}(\lambda)_{ri}v_i+E_{ij}(\lambda)_{rj}v_j=1\cdot v_i+\lambda\cdot v_j=v_i+\lambda v_j
Det vil sige,
Eij(λ)(v1,v2,,vm)T=(,vi1,vi+λvj,vi+1,)T E_{ij}(\lambda)(v_1,v_2,\ldots,v_m)^T=(\ldots,v_{i-1},v_i+\lambda v_j,v_{i+1},\ldots)^T
Vi ser at i alle tre tilfælder er multiplikation med en elementær matrix EAEA detsamme som den tilsvarende rækkeoperation, hvis AA er en søjlevektor. I det generelle tilfælde kan vi skrive matricen AA som opbygget af søjlevektorer af højde mm, og bruge 4.9
A=(A1,,An)EA=(EA1,,EAn)\begin{aligned} A&=(A_1,\ldots, A_n)\\ EA&=(EA_1,\ldots,EA_n) \end{aligned}
Ifølge specialtilfældet brugt på hver søjle AiA_i, så fremkommer EAEA fra AA ved at bruge den samme rækkeoperation på hver søjle i AA. Men det er det samme som at bruge søjleoperationen på AA. Nu ser vi på del (β). Hvis E1,E2E_1,E_2 er en elementære matricer der svarer til inverse søjleoperationer, så er E1E2=E1E2ImE_1E_2=E_1E_2 I_m den matrix der fremkommer ved at udføre først søjleoperationen der svarer E2E_2 på identitetsmatricen, og derefter udføre søjleoperationen der svarer til E1E_1 på resultatet. Da disse søjleoperationer er inverse, ender vi med at få identitetsmatricen tilbage, det vil sige at E1E2=ImE_1E_2=I_m. Tilsvarende er E2E1=ImE_2E_1=I_m, så at E1E_1 og E2E_2 er inverse matricer.
Nu er vi endelig i stand til at gengive en algoritme til at udregne den inverse matrix.
En n×nn\times n matrix AA er invertibel hvis og kun hvis dens RREF er InI_n. Hvis AA er invertibel er RREF for n×(2n)n\times (2n) matricen
(AIn) \left(A | I_n\right)
lig med n×(2n)n\times (2n) matricen
(InA1). \left(I_n | A^{-1}\right).

Bevis

En n×nn\times n matrix på RREF som ikke er identitetsmatricen bliver nødt til at indeholde en nulrække. Med andre ord, hvis en matrix på RREF er invertibel, så er den nødt til at være identitetsmatricen. Lad os antage at AA er invertibel. Som for enhver anden matrix kan vi finde et produkt EE af elementære matricer så EAE A er RREF for AA, men da EE og EAE A er invertible bliver denne RREF altså nødt til at være lig identitetsmatricen. Modsat hvis matricen har RREF lig identitetsmatricen så findes et produkt FF af elementære matricer så FA=InF A = I_n og AA er invertibel med A1=FA^{-1} = F, da FF som produkt af elementære matricer er invertibel. Den sidste påstand følger ved at gange matricen FF ovenfor på matricen (AIn)(A | I_n). Dette matrixprodukt giver (FAFIn)=(InF)(FA | FI_n)=(I_n | F). Da multiplikation med FF fra venstre giver rækkereduktion, og da (InF)=(InA1)(I_n | F)=(I_n| A^{-1}) er på RREF, er (In,A1)(I_n,A^{-1}) den entydigt bestemte RREF af (AIn)(A| I_n).
Ovenstående sætning giver en metode til at udregne den inverse matrix.
Kommentarer/spørgsmål?
Lad AA være en n×nn\times n matrix. Så er AA invertibel hvis og kun hvis ligningssystemet
Av=0 A \mathbf v = \mathbf 0
kun har løsningen v=0\mathbf v=\mathbf 0.

Bevis

Hvis AA er invertibel fås
Av=0A1(Av)=A10=0(A1A)v=0v=0. A \mathbf v = \mathbf 0\Rightarrow A^{-1} (A \mathbf v) = A^{-1}\mathbf 0 =\mathbf 0 \Rightarrow (A^{-1} A) \mathbf v = \mathbf 0 \Rightarrow \mathbf v = \mathbf 0.
Hvis AA ikke er invertibel kan vi rækkereducere AA til en matrix BB med en nulrække til sidst (se Sætning 4.33 og Opgave 4.8.12). Men her gælder Av=0Bv=0A \mathbf v = \mathbf 0 \Leftrightarrow B \mathbf v = \mathbf 0 og ligningsystemet Bv=0B \mathbf v = \mathbf 0 har en løsning 0\neq \mathbf 0, fordi det har mindst en fri variabel svarende til at den sidste søjle ikke indeholder et pivotelement (se afsnit 4.5.1).

4.7 Egenvektorer og egenværdier for en matrix

I eksemplet med stokastiske matricer havde vi brug for at udregne potenser P2,P3,P^2, P^3, \ldots af en matrix PP. Hvis PP er en kvadratisk diagonalmatrix er disse operationer meget mere overkommelige.
Hvis
D=(λ1000λ2000λn) D = \begin{pmatrix} \lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & \vdots &\ddots &\vdots\\ 0 & 0 & \ldots & \lambda_n \end{pmatrix}
er en kvadratisk diagonalmatrix, så er
Dm=(λ1m000λ2m000λnm). D^m = \begin{pmatrix} \lambda_1^m & 0 & \ldots & 0\\ 0 & \lambda_2^m & \ldots & 0\\ \vdots & \vdots &\ddots &\vdots\\ 0 & 0 & \ldots & \lambda_n^m \end{pmatrix}.
Det vil sige en kvadratisk diagonalmatrix opløftes til en potens ved at opløfte diagonalelementerne til potensen.

Bevis

Definition 4.1 (af matrixmultiplikation) for to diagonalmatricer giver
(λ1000λ2000λn)(μ1000μ2000μn)=(λ1μ1000λ2μ2000λnμn). \begin{pmatrix} \lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & \vdots &\ddots &\vdots\\ 0 & 0 & \ldots & \lambda_n \end{pmatrix} \begin{pmatrix} \mu_1 & 0 & \ldots & 0\\ 0 & \mu_2 & \ldots & 0\\ \vdots & \vdots &\ddots &\vdots\\ 0 & 0 & \ldots & \mu_n \end{pmatrix} = \begin{pmatrix} \lambda_1 \mu_1 & 0 & \ldots & 0\\ 0 & \lambda_2 \mu_2 & \ldots & 0\\ \vdots & \vdots &\ddots &\vdots\\ 0 & 0 & \ldots & \lambda_n \mu_n \end{pmatrix}.
Formlen for DmD^m er en konsekvens af dette.
Det betaler sig at lave PP om til en diagonalmatrix for at udregne PmP^m og jeg vil her kort forklare hvordan dette ofte kan lade sig gøre.

4.7.1 Konjugering

For en invertibel matrix TT findes den inverse matrix T1T^{-1} og udregningen T1ATT^{-1} A T giver mening for en kvadratisk matrix AA med samme antal rækker som TT. Denne operation kaldes konjugering med TT og matricen T1ATT^{-1} A T kaldes en konjugeret matrix til AA.

Quiz

Lad
T=(λ100λ2)ogA=(a11a12a21a22), T = \begin{pmatrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{pmatrix}\qquad\mathrm{og}\qquad A = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix},
hvor λ10\lambda_1\neq 0 og λ20\lambda_2\neq 0. Lad B=T1ATB = T^{-1} A T. Hvad er rigtigt af nedenstående?
B=(a11λ2λ1a12λ1λ2a21a22). B = \begin{pmatrix} a_{11} & \frac{\lambda_2}{\lambda_1} a_{12} \\ \frac{\lambda_1}{\lambda_2} a_{21} & a_{22} \end{pmatrix}.
B=(λ2λ1a11a12λ1λ2a21a22). B = \begin{pmatrix} \frac{\lambda_2}{\lambda_1} a_{11} & a_{12} \\ \frac{\lambda_1}{\lambda_2} a_{21} & a_{22} \end{pmatrix}.
AT=TA. A T = T A.
B=A B = A
hvis λ1=λ2\lambda_1 = \lambda_2.
Konjugering viser sig at være central i lineær algebra. Lad os se på et eksempel. Lad os antage et øjeblik at matricen PP kan konjugeres til en diagonalmatrix det vil sige vi kan finde en invertibel matrix TT
T1PT=D, T^{-1} P T = D,
hvor DD er en diagonalmatrix. Så vil
P=TDT1 P = T D T^{-1}
og dermed
P2=(TDT1)(TDT1)=TD(T1T)DT1=TD2T1. P^2 = (T D T^{-1}) (T D T^{-1}) = T D (T^{-1} T) D T^{-1} = T D^2 T^{-1}.
Nøjagtig den samme udregning kan laves ikke bare for potensen 22, men for en generel potens mm:
Pm=TDmT1. P^m = T D^m T^{-1}.
Det Vil Sige hvis vi er så heldige at finde en invertibel matrix TT, således at T1PTT^ {-1} P T er en diagonalmatrix, så kan vi udregne potenser af PP meget nemmere end ved almindelig matrixmultiplikation. Der er slet ikke sikkert at TT findes, men vi kan prøve på at analysere hvad matricen PP skal opfylde for at det lader sig gøre.
Lad PP være en n×nn\times n matrix, TT en invertibel n×nn\times n matrix med søjlevektorer v1,,vn\mathbf v_1, \ldots, \mathbf v_n og DD diagonalmatricen
D=(λ1000λ2000λn). D = \begin{pmatrix} \lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & \vdots &\ddots &\vdots\\ 0 & 0 & \ldots & \lambda_n \end{pmatrix}.
Så gælder T1PT=DT^{-1} P T = D hvis og kun hvis
Pvi=λivi P \mathbf v_i = \lambda_i \mathbf v_i
for i=1,,ni = 1, \ldots, n.

Bevis

T1PT=DT^{-1} P T = D gælder hvis og kun hvis PT=TDP T = T D. Per definition af matrixmultiplikation følger det at søjlevektorerne i PTP T er PviP \mathbf v_i for i=1,,ni=1, \ldots, n samt at de tilsvarende søjlevektorer i TDT D er λivi\lambda_i \mathbf v_i.
Disse overvejelser leder frem til følgende definitioner.
Lad PP være en kvadratisk matrix.
  1. PP kaldes diagonaliserbar hvis der findes en invertibel matrix TT
    T1PT T^{-1} P T
    er en diagonalmatrix.
  2. En vektor v\mathbf v kaldes en egenvektor for PP, hvis v0\mathbf v\neq \mathbf 0 og
    Pv=λv, P \mathbf v = \lambda \mathbf v,
    for et tal λ\lambda (som gerne må være 0). Dette tal kaldes for en egenværdi for PP og v\mathbf v siges at være en egenvektor hørende til λ\lambda.
Det er ikke oplagt med vores viden nu om en matrix overhovedet har endeligt mange egenværdier eller hvordan man bærer sig ad med at regne egenværdier ud. Lad os prøve at kigge på 2×22\times 2 matricer.

4.7.2 Hvad sker der for små matricer?

At finde egenværdier for en kvadratisk n×nn\times n matrix AA kan omformuleres til at at finde et tal λ\lambda (en egenværdi), så der findes en vektor v0\mathbf v\neq \mathbf 0 med Av=λvA \mathbf v = \lambda \mathbf v. Dette er det samme som at der findes en vektor v0\mathbf v\neq \mathbf 0 med
(AλIn)v=0.(4.16) (A - \lambda I_n) \mathbf v = 0. \tag{4.16}
Lad os i dette lille afsnit foregribe begivenhedernes gang ved at kigge på en 2×22\times 2 matrix
B=(b11b12b21b22) B = \begin{pmatrix} b_{11} & b_{12}\\ b_{21} & b_{22} \end{pmatrix}
og spørgsmålet: Hvornår findes en vektor v0\mathbf v\neq 0Bv=0B \mathbf v = 0? Vi ved fra Sætning 4.34 at dette forekommer præcis når BB ikke er invertibel. Samtidig ved vi fra Sætning 4.33 at BB er invertibel hvis og kun BB er rækkeækvivalent med identitetsmatricen. Lad os eksperimentere: Hvis både b11b_{11} og b21b_{21} er 00 kan BB ikke være invertibel. Hvis b110b_{11}\neq 0 så er
B=(b11b12b21b22)(b11b120b22b21b11b12) B = \begin{pmatrix} b_{11} & b_{12}\\ b_{21} & b_{22} \end{pmatrix} \sim \begin{pmatrix} b_{11} & b_{12}\\ 0 & b_{22} - \frac{b_{21}} {b_{11}} b_{12} \end{pmatrix}
og dermed er BB invertibel hvis og kun hvis
b11(b22b21b11b12)=b11b22b21b120. b_{11} \left(b_{22} - \frac{b_{21}}{b_{11}} b_{12}\right) = b_{11} b_{22} - b_{21} b_{12} \neq 0.
Samme betingelse gør sig gældende ved rækkereduktioner ud fra antagelsen b210b_{21}\neq 0. Vi kalder b11b22b21b12b_{11} b_{22} - b_{21} b_{12} for determinanten for BB og betegner den det(B)\det(B). Nu kan vi svare på hvornår
(a11λa12a21a22λ)v=0 \begin{pmatrix} a_{11} -\lambda & a_{12}\\ a_{21} & a_{22}-\lambda \end{pmatrix} v = 0
har en løsning v0v\neq 0 for en 2×22\times 2 matrix
A=(a11a12a21a22) A = \begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix}
i (4.16). Dette gælder hvis og kun hvis
det(a11λa12a21a22λ)=λ2(a11+a22)λ+det(A)=0.(4.17) \det \begin{pmatrix} a_{11} -\lambda & a_{12}\\ a_{21} & a_{22}-\lambda \end{pmatrix} = \lambda^2 - (a_{11} + a_{22}) \lambda + \det(A) = 0. \tag{4.17}
Polynomiet i (4.17) kaldes for det karakteristiske polynomium hørende til AA. Det vi har vist er altså at en 2×22\times 2 matrix AA har mindst en egenvektor hørende til egenværdien λ\lambda hvis og kun hvis λ\lambda er en rod i det karakteristiske polynomium. I næste kapitel kommer vi ind på hvad der sker for større matricer ved at definere determinanten af en generel n×nn\times n matrix.

4.7.3 Differentialligninger som eksempel

Egenværdier og egenvektorer er ekstremt nyttige ved løsning af koblede differentialligninger som
x1(t)=ax1(t)+bx2(t)x2(t)=cx1(t)+dx2(t),(4.18)\begin{aligned} x'_1(t) &= a x_1(t) + b x_2(t)\\ x'_2(t) &= c x_1(t) + d x_2(t), \end{aligned}\tag{4.18}
hvor a,b,c,dRa, b, c, d\in \mathbb{R}. Tilfældet med kun en ubekendt funktion kendes fra radioaktivt henfald. Her støder vi på differentialligningen
x(t)=λx(t), x'(t) = \lambda x(t),
som har løsningen x(t)=Ceλtx(t) = C e^{\lambda t}, hvor CC er en konstant. Hvis man arbejder ud fra hypotesen om at (4.18) har løsninger af formen
x1(t)=Aeλtogx2(t)=Beλt x_1(t)= A e^{\lambda t}\qquad\mathrm{og}\qquad x_2(t) = B e^{\lambda t}
så kan man indsætte i (4.18) og komme frem til at
(AB)erenegenvektorfor(abcd) \begin{pmatrix} A \\ B\end{pmatrix}\quad \mathrm{er en egenvektor for}\quad \begin{pmatrix} a & b\\ c & d \end{pmatrix}
hørende til egenværdien λ\lambda. Dette er gennemgået i videoen nedenfor.
Kommentarer/spørgsmål?

4.8 Opgaver

4.8.1

Lad
P=(p11p12p21p22) P = \begin{pmatrix} p_{11} & p_{12}\\ p_{21} & p_{22} \end{pmatrix}
være en stokastisk matrix det vil sige alle indgangene i matricen er 0\geq 0 og p11+p21=1p_{11} + p_{21} = 1 samt p12+p22=1p_{12} + p_{22} = 1. Antag at p21+p12>0p_{21} + p_{12} > 0 og lad vv være vektoren
(p12p21+p12p21p21+p12) \begin{pmatrix} \dfrac{p_{12}}{p_{21} + p_{12}}\\ \\ \dfrac{p_{21}}{p_{21} + p_{12}} \end{pmatrix}
Hvorfor er Pv=vP v = v? Hvordan relaterer det til Eksempel 4.4 om stokastiske matricer?

4.8.2

Lad AA og BB være invertible n×nn\times n matricer. Gør detaljeret rede for at AB(B1A1)=IA B (B^{-1} A^{-1}) = I ved brug af den associative lov.

4.8.3

Forklar hvorfor matricen
(145257369) \begin{pmatrix} 1 & 4 & 5\\ 2 & 5 & 7\\ 3 & 6 & 9 \end{pmatrix}
ikke er invertibel.

4.8.4

For hvilke tal xx er matricen
(101x11321) \begin{pmatrix} 1 & 0 & 1\\ x & 1 & 1\\ 3 & 2 & 1 \end{pmatrix}
invertibel.

4.8.5

Lad
A=(1278934131415). A = \begin{pmatrix} 1 & -2 & -7 & -8 & -9\\ 3 & -4 & -13 & -14 & -15 \end{pmatrix}.
  1. Find den reducerede række echelon form for AA.
  2. Find samtlige løsninger til ligningssystemet
    x2y7z8w=93x4y13z14w=15.\begin{aligned} x -2 y -7z - 8 w &= -9 \\ 3x -4 y -13 z - 14 w &= -15. \end{aligned}

4.8.6

Udregn den inverse matrix til matricen
(i111i111i) \begin{pmatrix} i & 1 & 1\\ 1 & i & 1\\ 1 & 1 & -i \end{pmatrix}
og gør rede for alle trin i din beregning.

4.8.7

Skriv matricen
(5332) \begin{pmatrix} 5 & 3\\ 3 & 2 \end{pmatrix}
som et produkt af elementære matricer.

4.8.8

Giv alle detaljer i udregningen (4.17).

4.8.9

Lad
A=(72154). A = \begin{pmatrix} 7 & -2 \\ 15 & -4 \end{pmatrix}.
Bestem egenværdierne for AA og egenværdierne for A10A^{10}. Hvad er egenvektorerne for A10A^{10}? Begrund dine svar.

4.8.10

Find, ved at bruge teorien i dette kapitel, to funktioner x1(t),x2(t):RRx_1(t), x_2(t): \mathbb{R}\rightarrow \mathbb{R} som udgør en løsning til systemet
x1(t)=x1(t)+x2(t)x2(t)=x1(t)+x2(t),\begin{aligned} x'_1(t) &= x_1(t) + x_2(t)\\ x'_2(t) &= -x_1(t) + x_2(t), \end{aligned}
af differentialligninger og som opfylder x1(0)=1x_1(0) = 1 og x2(0)=0x_2(0) = 0. Skitser din metode grundigt og henvis kun til materialet i disse noter.

4.8.11

I udregningen (4.6) i eksemplet om stokastiske matricer er der urent trav i forklaringerne. Hvad er der galt?

4.8.12

Gør rede for at en kvadratisk matrix forskellig fra identitetsmatricen bliver nødt til at indeholde en nulrække hvis den er på RREF.

4.8.13

Lad AA og BB være to 2×22\times 2 matricer. Er det rigtigt at
(A+B)2=(A+B)(A+B)=A2+B2+2AB? (A+B)^2 = (A+B)(A+B) = A^2 + B^2 + 2 A B?
Hvad med
(A+B)(AB)=A2B2? (A + B)(A - B) = A^2 - B^2?