4Matricer

Når man har regnet med lineære ligninger et stykke tid, opstår behovet for at forenkle notationen. For eksempel kan ligningerne
repræsenteres ved talskemaet
og mange af de operationer vi foretager for at løse ligningerne, kan lige så vel udføres på det tilsvarende talskema.
En notation der nogle gange kan være brugbar, for at huske på at vi her ser på et talskema relateret til et ligningssystem, er at indsætte en lodret streg der adskiller koefficienterne og højresiden af ligningssystemet:

4.1 Definition af matrix

Et talskema med rækker og søjler kaldes en (læs: gange ) matrix. Notation for en matrix er
Tallene betegner tallet i 'te række og 'te søjle. Hvis vi kalder matricen i (4.2) for består den af to rækker og fire søjler med
Vi vil senere i Kapitel 6 give en mere abstrakt definition af vektorer, som elementer i et såkaldt vektorrum.

4.2 Matrixregning

I resten af kurset skal vi stort set udelukkende regne på matricer, så det er helt essentielt hurtigt at blive bekvemme med dem.

4.2.1 Addition og skalarmultiplikation af matricer

Man kan (næsten) regne med matricer som almindelige tal. Eksempelvis giver det mening at lægge matricer sammen, med samme antal rækker og søjler, indgang for indgang:
Med hensyn til addition opfører matricer sig ligesom almindelige tal, det vil sige at og
En matrix kan også naturligt multipliceres med et tal ved at gange ind indgang for indgang:

4.2.2 Matrixmultiplikation

Antag vi har givet to ligningssystemer
i de ubekendte og
Vi får et nyt ligningssystem i og ved at sætte og ind i det første ligningssystem:
Med matricer skriver vi
Lad os prøve at skrive operationen i (4.3) ud generelt, det vil sige antag at vi har to ligningssystemer som ovenfor:
men nu med generelle koefficienter. Ved substitution fås som før
som så er lig med
Formuleret med matricer som i (4.3) skrives
Formlen ovenfor er intet mindre end multiplikation af to matricer, præcis som det blev indført historisk af Arthur Cayley omkring 1857. Ved nærmere eftersyn (og markeret med farver i (4.4) for og ), ses reglen at tallet i den 'te række og 'te søjle i produktmatricen er række-søjle multiplikationen mellem 'te række og 'te søjle i de to matricer.
Række-søjle multiplikationen mellem en rækkevektor
og en søjlevektor
med det samme antal indgange, er defineret som
Lad være en matrix og en matrix. Så er produktet defineret som matricen, med indgange givet ved
for og
Med andre ord: Den 'te indgang i produktet er givet ved række-søjle multiplikation mellem 'te række af og 'te søjle af
Hvis er en matrix og en matrix, giver matrixproduktet kun mening hvis : Antallet af søjler i skal være lig med antallet af rækker i Bemærk også, at man med det samme kan aflæse størrelsen af matricen ud fra og
Vi udregner produktet af følgende matricer med Definition 4.1:
Med formlen for matrixmultiplikation kan ligningssystemet (4.1) nu skrives som
Her ganger vi en matrix (kaldet systemmatricen eller koefficientmatricen) sammen med en matrix med de ubekendte. Række-søjle multiplikationen giver matricen
Denne matrix skal netop være lig med matricen på højresiden ovenfor, for at ligningssystemet (4.1) er opfyldt. Vi ser at hver række angiver en ligning i ligningssystemet, mens søjlerne relaterer til hvert af de ubekendte.
For et generelt lineært ligningssystem, med ligninger og ubekendte, som vi kender det fra (3.2),
kan dette skrives som
eller som en totalmatrix, hvor den lodrette streg undertrykker notationen af de ubekendte,
Bemærk at koefficienten for 'te ligning og ganget på 'te ubekendte, står i 'te indgang af systemmatricen. Vi vil ofte forkorte notationen yderligere og skrive
hvor er systemmatricen, er søjlevektoren med de ubekendte og er søjlevektoren med højresiderne.
Matrixmultiplikation optræder mange steder. En måde at opfatte matrixmultiplikation på, som ikke nødvendigvis involverer lineære ligninger, er som transformationer der afbilder, eksempelvis, punkter i planen eller i rummet til nye punkter. Matricen
giver en afbildning der sender et punkt til et punkt med koordinaterne
da
Nedenfor er givet to eksempler på geometriske fortolkninger af matrixmultiplikation for nogle særlige matricer.
Lad angive en vinkel, som vi ønsker at rotere vektorer i planen med. Matricen
kaldes for en rotationsmatrix. Det er fordi matrixmultiplikation med sender en vektor, der går fra punktet til punktet til en ny vektor der er drejet (roteret) med en vinkel mod urets retning (som finurligt er illustreret af XKCD).
Vektorerne
er også af samme længde, som vises i Opgave 4.21.
Afbildning af punkter til svarer til en spejling i -aksen. Matricen for denne operation, gennem matrixmultiplikation, er
På samme måde står matricen
for spejling af punkter i -aksen.
Mere generelt kan man spejle punkter i en ret linje der skærer Matricen for sådan en spejling bliver fundet i Opgave 4.22.
Matricer for rotationer og spejlinger kan ganges sammen i forskellige kombinationer, for at udføre geometriske operationer med matrixmultiplikationer. Der er også oplagte ting, som ikke direkte kan udføres med matrixmultiplikation, for eksempel afbildningen af punkter til
Dette kaldes en translation. En måde at omgå dette problem på, er ved brug af såkaldte homogene koordinater, som ofte bruges inden for computergrafik, da grafikkort netop er lavet til meget hurtigt at udregne matrixmultiplikationer.
Nedenfor er et meget anvendeligt eksempel på matrixmultiplikation inden for sandsynlighedsregning, som i generaliseret form leder til Google's berømte PageRank algoritme.
Antag at rundt regnet procent af de mennesker der bor på landet flytter til byen (så procent forbliver på landet), og at procent af de mennesker der bor i byen flytter til landet (så procent forbliver i byen). Lad os også fastslå at disse procentsatser er opgjort per år, hvilket over et år som tidsramme kan illustreres med nedenstående diagram:
Dette giver anledning til lidt købmandsregning. Lad os sige, at der i starten til tiden år bor mennesker i byen, og mennesker på landet. Hvor mange mennesker bor der i byen, og mennesker bor der på landet, til tiden år?
Med ord bliver byen affolket med procent, men der kommer tilflyttere, som udgør procent af befolkningen på landet. Det vil sige
Tilsvarende har vi for befolkningen på landet at
Dette kan skrives via matrixmultiplikation som
Proceduren giver også mening for år. Her bliver resultatet
hvor
Ovenstående kan generaliseres til formlen
som giver fordelingen af by- og landbefolkning til tiden år. For at kunne benytte formlen (4.5) skal vi altså udføre matrixmultiplikationer, hvilket kan være lidt overvældende, for eksempel hvis vi ønsker at kende befolkningstallet på landet efter år. Hver matrixmultiplikation indeholder almindelige talmultiplikationer og almindelige taladditioner. Vi vil senere i Kapitel 8 se, hvordan egenvektorer og egenværdier for matricer kan hjælpe med denne udregning.
Inden da, lad os blot eksperimentere med at udregne de første potenser af :
Umiddelbart ser det ud som om udregningerne stabiliseres på et stationært niveau, hvor procent bor i byen og procent på landet.
Matricen er et eksempel på en stokastisk matrix. Generelt kaldes en kvadratisk matrix en stokastisk matrix hvis alle dens indgange er og dens søjlesummer er
Nedenfor er et eksempel på anvendelse i netværksteori.
Lad os antage at vi har fem byer, som er forbundet med forskellige veje som illustreret nedenfor.
Dette netværk har en incidensmatrix, hvor by nummer hører til 'te række og 'te søjle. Et -tal i matricen på plads betyder at der er en vej fra by til by mens et betyder at by og by ikke er forbundet med en vej:
Her er
Hvad er netværksfortolkningen af og generelt ? Det viser sig, at fortolkningen af indgang i matricen netop er antallet af stier af længde fra by til by For eksempel ser vi ovenfor, at der er stier af længde fra by til by svarende til
Tilsvarende er de stier af længde fra by til by :
Prøv om du kan finde de stier af længde fra by til by
Bevis
Lad os antage, at vi har et netværk med byer og en tilhørende incidensmatrix En sti af længde fra by til by må ende med en vej fra en naboby til For hver af disse nabobyer, kan vi så nøjes med at tælle antallet af stier af længde fra by
Beviset er ved induktion på (hvor induktionsstarten er definitionen af incidensmatricen), hvor vi antager at er antallet af stier af længde fra by til by Så siger matrixmultiplikation at
Dette tal er antallet af stier af længde fra by til by fordi netop når er en naboby til (og ellers ).
Bemærk, hvis man ganger en -søjlevektor med en -rækkevektor, får man en matrix. Eksempelvis giver følgende en matrix:
En alternativ måde at udregne matrixmultiplikation på (frem for Definition 4.1), er som summer af søjle-række multiplikation.
Lad være en matrix og en matrix. Så kan udregnes med søjle-række multiplikation ved
Bevis
Fra Definition 4.1 har vi
Det vil sige
hvilket giver resultatet
Vi vender tilbage til Eksempel 4.2 med matricerne
Med Proposition 4.7 har vi nu

4.2.3 Matrixmultiplikation er ikke-kommutativ

Matrixmultiplikation er forskellig fra almindelig talmultiplikation på et helt centralt punkt: Faktorernes orden er ikke ligegyldig. Betragt matricerne
Så er
Det vil sige, for de fleste matricer har man typisk
Man siger også, at matrixmultiplikation er ikke-kommutativ. Der er dog nogle få matricer som kommuterer, og senere skal vi se nogle eksempler i form af inverse matricer.

4.2.4 Den distributive lov

For tal gælder at man kan gange ind i en parentes, det vil sige Denne regel gælder også for matricer og kaldes den distributive lov (gange bliver distribueret over plus). Dog skal igen huskes, at rækkefølgen i multiplikationen skal respekteres!
Lad og være matricer, en matrix og en matrix. Så gælder
Bevis
Man kan nøjes med at bevise den første påstand, i tilfældet hvor er en rækkevektor mens og er søjlevektorer, fordi
Tilsvarende kan den anden påstand bevises i tilfældet hvor og er rækkevektorer og en søjlevektor, fordi
Begge disse tilfælde følger af den distributive lov for almindelige tal.
Hvis er en rækkevektor mens
er søjlevektorer, så er og begge tal, svarende matricer. Helt præcis (med brug af sum-notation) er
Et næsten identisk bevis gør sig gældene for

4.2.5 Den mirakuløse associative lov for matrixmultiplikation

Giver det mening at gange tre matricer og sammen? Vi har faktisk kun defineret produktet af to matricer, men har allerede i Eksempel 4.5 ladet som om, at vi godt kan finde ud af at udregne produktet af flere matricer. Der er to naturlige måder at udregne produktet på:
Vi kan begynde med at gange sammen med og så gange på fra højre. Vi kan også først gange sammen med og så gange på fra venstre. Det er slet ikke klart at de to måder leder frem til samme resultat! At det gælder er helt centralt når man regner med matricer. Resultatet kaldes den associative lov for matrixmultiplikation.
Lad være en matrix, en matrix og en matrix. Så er
Bevis
Vi skal bevise at
for og Venstresiden kan skrives
Højresiden kan skrives som
Ved at skrive række-søjle multiplikationerne i (4.6) ud, fås
Ved at skrive række-søjle multiplikationerne i (4.7) ud, fås
Rækkerne i summen i (4.8) svarer til søjlerne i summen (4.9), og det ses at disse summer er ens. Derfor er
Det ovenstående bevis er ikke særlig informativt, men det er korrekt. Senere, når vi har set sammenhængen mellem matricer og lineære transformationer, vil vi være i stand til at give en meget bedre forklaring på, hvorfor den associative lov for matrixmultiplikation er en selvfølge.

4.2.6 Opbygning af matricer fra søjler

Hvis vi har søjlevektorer som alle har indgange, kan vi danne en matrix ved at sætte dem ved siden af hinanden. Så hvis vi har søjlevektorerne
er
Vi vil senere få brug for følgende simple udregning, som viser at vi kan udregne en matrixmultiplikation ved enten at fokusere på søjlerne i den første eller den anden matrix i produktet.
Lad være en matrix og en matrix. Så kan udregnes søjlevis ved
Vi kan også udregne søjlevis ved
Her kaldes eksempelvis for en linearkombination af søjlerne i
Bevis
Vi regner efter. På den ene side er
På den anden side er
Dette viser den første lighed for
For den anden lighed: Fokuser på 'te søjle, så har vi at
hvilket lige præcis svarer til 'te søjle i produktet
Lad
Nu er
og vi har også at
Sammenlign dette med resultatet i Eksempel 4.2.

4.2.7 Identitetsmatricen

Identitetsmatricen af orden er diagonalmatricen med i diagonalen. Nedenfor er identitetsmatricen af orden :
Identitetsmatricen har egenskaben at
for alle matricer hvilket eksempelvis kan indses ved brug af Proposition 4.11.
Hvis det er åbenlyst (eller ikke vigtigt i sammenhængen) hvad størrelsen på identitetsmatricen er, skriver vi bare

4.2.8 Invers matrix

Man kan dividere med almindelige tal Giver det mening at dividere med matricer? Et almindeligt tal har et "inverst" tal Her kan vi bare sætte Vi kan umiddelbart overføre denne definition til kvadratiske matricer.
En matrix siges at være invertibel, hvis der eksisterer en matrix
I givet fald kaldes den inverse matrix og betegnes
Hvis ikke er invertibel, så kaldes singulær.
Opgave 4.5 viser at inverse matricer er entydige, det vil sige at højst kan have en invers matrix. Det følger direkte, at for invertibel matrix er
Man kunne jo spørge om det kan ske for en matrix hvor at der findes en matrix Det kan desværre aldrig lade sig gøre, selv om det sagtens kan ske at Det relaterer sig til resultatet i Sætning 6.27.
Den inverse matrix kommer ind i billedet ved løsning af lineære ligninger. Et lineært ligningssystem med ligninger og ubekendte:
kan med matrixnotation skrives
eller mere kompakt som
Hvis er invertibel får vi:
har en løsning da
Samtidig indses, at dette er den eneste løsning, da for en vilkårlig løsning gælder:
Den inverse matrix giver altså løsningen til ligningssystemet ud fra kun en matrixmultiplikation med højresiden. Denne udregning gælder for alle tænkelige højresider i ligningssystemet.
Ligningssystemet
kan ved hjælp af matrixmultiplikation skrives som
hvor
Jeg kan her afsløre, at rent faktisk er invertibel med
En enkel matrixmultiplikation
afslører som forventet løsningen til ligningssystemet i (4.11).
Man kan tjekke efter, at en matrix
er invertibel, hvis og kun hvis, og der er endda en brugbar formel for den inverse matrix:
Generelt skal vi i Kapitel 5 bruge determinanten af en kvadratisk matrix som kriterium for om den er invertibel. Vi skal senere se, hvordan vi kan anvende Gauss elimination på matricer ved brug af rækkeoperationer, som en metode til at beregne inverse matricer generelt.
Produktet af to invertible matricer er også en invertibel matrix. Dette er indholdet af følgende resultat, som bevises helt formelt ud fra Definition 4.13.
Lad og være kvadratiske matricer. Produktet er invertibel, hvis og kun hvis, og er invertible, og i så fald er
Bevis
Antag at og er invertible. Vi skal tjekke betingelserne i Definition 4.13, det vil sige at
Lad os tjekke den første betingelse:
Betingelsen tjekkes på tilsvarende måde. Dermed er invertibel, med den angivne formel for
Antag nu at er invertibel, som produkt af kvadratiske matricer. Vi starter med at vise, at er invertibel, men udnytter et resultat (Korollar 4.27) vi først ser senere i dette kapitel. Hvis ikke er invertibel findes men så gælder også at hvilket er i modstrid med at er invertibel. Nu viser vi at er invertibel. Lad så er invertibel fra den første del af beviset, da og er invertible. Men vi har
og ved at gange fra højre med er lig denne invertible matrix.
For de nysgerrige er her en udfordring: Vi har defineret en matrix til at være invertibel, hvis der findes en matrix så både og Kan vi umiddelbart konkludere at hvis og kun hvis, hvor både og er kvadratiske? Vi vil vende tilbage til denne udfordring senere i Kapitel 5.

4.2.9 Transponeret matrix

Den transponerede til en matrix er matricen givet ved
det vil sige matricen som indeholder søjlerne i som rækker (og rækkerne som søjler). For eksempel er
Læg også mærke til at for en vilkårlig matrix
Transponering kommer til at blive brugt adskillige gange fremadrettet i resultater om diagonalisering, ortogonale komplementer og mindste kvadraters løsning. Men det er også en rigtig brugbar notation til når der anvendes søjlevektorer, som vi gerne vil skrive som rækkevektorer, så de fylder lidt mindre i teksten.
Her er et meget brugbart resultat om hvordan man transponerer et produkt af to matricer (se også ligheden til Sætning 4.16).
Lad være en matrix og en matrix. Så er
Bevis
Per definition er Denne indgang er givet som række-søjle multiplikation mellem 'te række i og 'te søjle i hvilket er identisk med række-søjle multiplikation mellem 'te række i og 'te søjle i

4.3 Rækkeoperationer

Der er naturlige operationer man kan udføre på matricer, som præcis svarer til hvad man ville gøre i Gauss elimination på det tilsvarende system af ligninger:
  1. Ombytning af række og række :
  2. Multiplikation af række med et tal :
  3. Addition af række multipliceret med et tal til række :
Disse operationer kaldes rækkeoperationer. Rækkeoperationer er invertible:
To matricer og kaldes rækkeækvivalente, skrevet hvis man kan udføre en følge af rækkeoperationer på og få frem.
Lad os vende tilbage til matricen i (4.2), som er skrevet som en totalmatrix (matrix der inkluderer både systemmatricen og højresiden til et ligningssystem)
Operationen () svarer til Gauss elimination. At trække første ligning fra anden ligning i (4.1), svarer til at gange første række i (4.2) med og addere til anden række. Efter denne operation har vi matricen
Vi benytter nu operationen (), og ganger anden række med og får matricen
Tilsvarende ganger vi første række med og får matricen
En kortere måde at skrive disse operationer på, er ved
Hvis vi omformulerer matricen ovenfor til ligninger, svarer den til
Intuitivt er rækkefølgen af ligningerne her forkert. Vi vil gerne have at ligningen indeholdende den første variabel kommer først. Vi benytter operationen (), og bytter rundt på første og anden række. Dermed har vi
Vi accepterer matricen til sidst i (4.13) som en særlig enkel form, vi kan reducere den oprindelige matrix (4.2) til. Den enkle form af matricen afspejler sig i det tilsvarende ligningssystem, ved at man umiddelbart kan aflæse løsningerne til at være
Det vil sige er en fri variabel, og bestemmer og som ovenfor. Den simple form vi har reduceret den oprindelige matrix til, kaldes reduceret række echelon form.

4.4 Reduceret række echelon form (RREF)

Vi skal nu bygge videre på Eksempel 4.19, og introducere en generel metode til at løse ligningssystemer på matrixform. Dette er en af de vigtigste metoder i hele kurset, og det er særdeles vigtigt at bruge den på konkrete opgaver, og helst uden brug af computer, for at få helt styr på det. Ligesom i Eksempel 4.19, skal vi anvende rækkeoperationer til at opnå en matrix med en særlig struktur.
En matrix siges at være på reduceret række echelon form (RREF) hvis:
  1. Nulrækker (rækker med i alle indgange) er i bunden af matricen.
  2. Hvis en række i ikke er en nulrække, så er den første indgang i rækken lig Denne indgang kaldes et pivotelement.
  3. Et pivotelement er længere til højre end pivotelementerne i de foregående rækker.
  4. Et pivotelement er den eneste indgang i sin søjle.
Det er fornuftigt på nuværende tidspunkt at tage en pause og løse Quiz 4.10, for at få styr på Definition 4.20
Det viser sig heldigvis, at vi altid kan overføre en matrix på RREF.
For enhver matrix , eksisterer en entydig matrix på RREF, så .
Bevis
Lige efter beviset er gennemgået konstruktivt hvordan en RREF af en matrix kan bestemmes. Så det er tilstrækkeligt at bevise entydigheden her. Følgende bevis kan findes i en artikel af Thomas Yuster. Vi bruger et induktionsargument på antallet af søjler i matrix .
Hvis har kun en søjle. Der er kun to muligheder:
  • kunne være nulvektoren Men er selv på RREF, og den ændrer sig ikke under rækkeoperationer, så entydigheden er klar.
  • Hvis er RREF også entydig, fordi rækkereduktionen af er nødvendigvis søjlevektoren med på første indgang, og på de øvrige indgange.
Nu har vi klaret induktionsstarten. Antag og at sætningen gælder for alle matricer; nu skal entydigheden bevises for Lad betegne matricen, som fremkommer ved at slette sidste søjle i Hvis og er to RREF, som begge hører til kan vi antage at de stemmer overens på de første søjler:
Hvis vi tilsvarende sletter de sidste søjler i og får vi to matricer og Men og er begge RREF for Ifølge vores induktionsantagelse er dermed
Så vores opgave er at vise, at også sidste søjle er ens. Vi skelner nu mellem to tilfælde. Det første tilfælde er at både og er pivotsøjler. Det andet tilfælde: Enten er ikke pivotsøjle i eller er ikke pivotsøjle i Vi giver et argument der viser at i det første tilfælde, og et helt andet argument der viser at i det andet tilfælde. Tilsammen beviser de to argumenter sætningen.
Bevis for at og er ens i det første tilfælde
Antag at og begge er pivotsøjler. Vi kigger først på Vi bemærker at pivotsøjlen er entydigt bestemt af Pivotelementet står nemlig i den første række i der er en nulrække i
Sådan her
På den samme måde er bestemt af fordi vi ved at er en pivotsøjle. Men da følger det at
Bevis for at og er ens i det andet tilfælde
Enten er den sidste søjle i eller den sidste søjle i ikke en pivotsøjle. Der er ikke forskel på og i antagelserne, så vi kan lige så godt antage at det er der ikke er en pivotsøjle.
Da den sidste søjle i ikke er en pivotsøjle, kan vi finde en løsning til som opfylder ; dette er fordi kan skrives som en linearkombination af pivotsøjlerne, så de tilsvarende kan vælges med modsat fortegn for indgangene i
Da og er RREF til den samme matrix så medfører også og dermed De eneste elementer i der kan være forskellig fra 0 er i sidste søjle. Hvis vi tager højde for dette, og udfører matrixmultiplikationen, får vi:
Da er
Læs Eksempel 4.19 igen, og bemærk strategien for at komme frem til RREF af en matrix. Man kan altid begynde med at gribe det helt mekanisk an:
Det er en god ide at træne dette mange gange, og så finder man efterhånden ud af hvordan man kan anvende færre rækkeoperationer, ved at vælge "gode" kandidater til pivotelementer. Efter lidt træning vil man også muligvis vente med at gange rækkerne igennem med det samme, for at undgå unødvendig brøkregning hvis matricen indeholder heltal. Det er en proces der bedst optimeres ved at regne, da man kan anvende mange forskellige kombinationer af rækkeoperationer, for at nå frem til RREF af en matrix.

4.4.1 Løsning af ligninger ved hjælp af RREF

Hvis en totalmatrix med matrix er på RREF, så er ligningssystemet med ligninger og ubekendte, særligt nemt at gå til. Pivotelementerne i er de eneste indgange i deres søjle Deres søjlenumre svarer til de såkaldte De øvrige søjlenumre svarer til de såkaldte
Lad os se på et konkret eksempel. Lad
Da er på RREF, og de tre pivoter står i søjlerne med nummer Hvis vi vil løse hvor så er de bundne variable og de frie variable er
Skrevet som ligninger, svarer til ligningssystemet
med løsningsformlerne (frie variable flyttes til højresiden)
Bemærk at også kan vælges vilkårligt, selvom den ikke direkte indgår i løsningsformlerne ovenfor.
En helt systematisk måde at skrive dette op på, og for at gøre det klart at de frie variable kan vælges vilkårligt, er ved at sætte og hvilket så giver et udtryk for samtlige af de ubekendte. Ved at indsætte i løsningsformlerne ovenfor, fås
og kan skrives via vektorer som
hvor kan vælges vilkårligt; for hver værdi af disse parametre fås forskellige løsninger til ligningssystemet, så der er her en tre-uendelighed af løsninger.
Bemærk at der i vektorerne for og står et -tal på henholdsvis pladsen for og mens resten kan aflæses fra løsningsformlerne. Her ses også bedre hvilke bidrag de frie variable giver, og dette vender vi tilbage til i Kapitel 6, når vi undersøger nulrum for matricer.
For at opsummere, for generel løsning af et lineært ligningssystem :
  1. Opskriv totalmatrix
  2. Brug rækkeoperationer til at finde RREF
  3. Aflæs løsningerne til ligesom vist i eksemplet ovenfor.
Hvis sidste søjle i det vil sige er en pivotsøjle, så er der ingen løsninger til ligningssystemet (hvorfor? Prøv at skrive et eksempel op, og opskriv de tilsvarende ligninger).

4.5 Udregning af invers matrix og elementærmatricer

Vi vil nu omfortolke rækkeoperationer ved hjælp af matrixmultiplikation. Det er ikke noget der er specielt brugbart i praksis, men det er en hjælp til teoretiske overvejelser og beviser. Hver af de tre typer af rækkeoperationer, som vi beskrev i begyndelsen af Afsnit 4.3, svarer til multiplikation fra venstre med en særlig matrix.
En matrix kaldes en elementærmatrix, hvis den fremkommer ved anvendelse af en enkelt rækkeoperation på identitetsmatricen.
For eksempel er ombytning af række 1 med række 2 i en matrix, det samme som multiplikation fra venstre med
Multiplikation af den anden række med 5, er det samme som produkt med
og operationen at gange den tredje række med og lægge den til den første række, er det samme som multiplikation med matricen
For eksempel giver udtrykket for matrixmultiplikation
  1. At udføre en rækkeoperation på en matrix svarer til at gange den tilsvarende elementærmatrix på fra venstre.
  2. En elementærmatrix er invertibel. Dens inverse matrix er elementærmatricen svarende til den inverse rækkeoperation.
Bevis
Lad svare til elementærmatricen for rækkeoperationen svarer til hvor og svarer til hvor ; i alle tre tilfælde er disse operationer anvendt på en identitetsmatrix
(i): Vi betragter først tilfældet at er en matrix, det vil sige at er en søjlevektor. For at spare på det dyrebare papir, plejer man at skrive en søjlevektor som og gamle vaner er svære at give slip på, selv når man skriver for skærmen. Nu regner vi ved at bruge formlen for matrixmultiplikation. Følgende to produkter er nemme at beregne:
Vi er lidt mere forsigtige i det tredje tilfælde:
hvor
Hvis : for og så at
Hvis : hvis og samt vi har og
Det vil sige,
I alle tre tilfælde giver multiplikation med en elementærmatrix det samme som den tilsvarende rækkeoperation, hvis er en søjlevektor.
I det generelle tilfælde kan vi skrive matricen som opbygget af søjlevektorer, med indgange, og bruge Proposition 4.11:
Ifølge specialtilfældet brugt på hver søjle fremkommer fra ved at bruge den samme rækkeoperation på hver søjle i Men det er det samme som at bruge rækkeoperationen på hele
(ii): Lad og være elementærmatricer, der svarer til hinandens inverse rækkeoperationer. Så er den matrix der fremkommer, ved at udføre først rækkeoperationen der svarer til på identitetsmatricen, og derefter udføre rækkeoperationen der svarer til på resultatet. Da disse rækkeoperationer er inverse, ender vi med at få identitetsmatricen tilbage, det vil sige Tilsvarende er altså at og er hinandens inverse matricer.
Det står nu klart, at vores metode til løsning af et lineært ligningssystem ved at reducere til RREF, giver mening! Hvis er produktet af alle de elementærmatricer som fører til RREF så er og Men er et produkt af invertible matricer, og derfor er jo selv invertibel (Sætning 4.16). Så vi har:
og det reducerede ligningssystem har dermed samme løsningsmængde som det oprindelige ligningssystem.
Nu er vi endelig i stand til at give en algoritme, til at udregne den inverse matrix.
En matrix er invertibel, hvis og kun hvis, dens RREF er Hvis er invertibel, er RREF for matricen
lig med matricen
Bevis
En matrix på RREF, som ikke er identitetsmatricen, bliver nødt til at indeholde en nulrække (Opgave 4.19). Med andre ord, hvis en matrix på RREF er invertibel, så er den nødt til at være identitetsmatricen. Lad os antage at er invertibel. Som for enhver anden matrix, kan vi finde et produkt af elementærmatricer, så er RREF for Men da og er invertible er invertibel (Sætning 4.16), og er derfor lig identitetsmatricen.
Modsat, hvis matricen har RREF lig identitetsmatricen, findes et produkt af elementærmatricer, så Så er invertibel med da som produkt af elementærmatricer er invertibel.
Den sidste påstand følger ved at gange matricen ovenfor på matricen Dette matrixprodukt giver Da multiplikation med fra venstre giver rækkereduktionen, og da er på RREF, er den entydigt bestemte RREF af
Ovenstående sætning giver en metode til at udregne den inverse matrix, ved at udføre rækkeoperationer på den større matrix
Lad os undersøge om matricen
har en invers, og i så fald finde
Vi opstiller totalmatricen og finder RREF:
Fra Sætning 4.25 har vi derfor at er invertibel, og dens inverse er
Vi kan snildt tjekke efter at
Det næste resultat karakteriserer også om en matrix er invertibel, og vi vil ofte få brug for dette senere i Kapitel 8. Resultatet siger, at dette er tilfældet når er kvadratisk, og alle de variable er bundne variable, ved løsning af det homogene system
En kvadratisk matrix er invertibel, hvis og kun hvis, ligningssystemet
kun har nulløsningen
Bevis
Hvis er invertibel, fås
Hvis ikke er invertibel, kan vi rækkereducere til en matrix med en nulrække til sidst (se Sætning 4.25 og Opgave 4.19). Men da er kvadratisk, betyder det at der er en søjle som ikke er en pivotsøjle. Men her gælder og ligningsystemet har en løsning fordi det har mindst en fri variabel (se Afsnit 4.4.1).

4.6 Schur komplement

Vi så i (4.12) en direkte formel til udregning af invers for en matrix. Nu skal vi se hvordan vi kan reducere udregningerne for inversion af store matricer, til at omhandle mindre matricer i stedet, ved brug af de såkaldte Schur komplementer.
Ideen bygger på, at hvis er er er og er så er blok-matricen
en matrix, hvor matricerne (blokkene) sættes ved siden af hinanden som angivet, og konstruerer en større matrix. Vi kan omskrive denne blok-matrix på en smart måde, hvis eller er invertibel.
Vi har specifikt at
kaldes Schur komplementerne for matricen med hensyn til henholdsvis og
Betragt blok-matricen fra (4.14). For resultaterne nedenfor antages, at hhv. er invertibel i de formler hvor hhv. indgår.
Så er
Hvis hhv. er invertibel, har vi
Bevis
Vi viser formlerne hvor indgår, da formlerne hvor indgår bevises på tilsvarende måde. Så vi antager at er invertibel.
Ved direkte udregning får vi (bemærk at blok-matricer opfører sig på samme måde ved matrixmultiplikation, hvor man dog skal huske på ikke-kommutiviteten):
Ved indsættelse af udtrykket for fra (4.15) får vi
Formlen for opnår vi ved brug af Sætning 4.16. Når er invertibel har vi
For de ovenstående inverse matricer verificeres let, at de opfylder Definition 4.13 direkte ved matrixmultiplikation.
Lad os anvende Sætning 4.28 til at invertere matricen
Vi opdeler den i blokkene
Så er og Schur komplementet med hensyn til er
Af formel (4.12), for invers af en matrix, er
Nu sættes det hele sammen med Sætning 4.28:

4.7 LU dekomposition

I dette afsnit gennemgår vi LU dekomposition, som eksisterer i enhver standard computerimplementation for løsning af lineære ligningssystemer. Ideen er at kunne erstatte en matrix med et produkt af trekantsmatricer (se Afsnit 4.1), som giver en numerisk stabil måde til at løse et lineært ligningssystem.
RREF for matrix er givet ved multiplikation fra venstre med de elementærmatricer der svarer til rækkeoperationerne. Ofte venter man med rækkeombytninger helt til sidst. Men hvis man har opnået dens RREF, kan man modificere rækkeoperationerne, således at alle rækkeombytninger sker i starten.
Hvis er elementærmatrix for og er elementærmatrix for så gælder
hvor er elementærmatrix for med
Tilsvarende holder (4.18) hvis er elementærmatrix for og er elementærmatrix for
Som produkter af elementærmatricer har vi
Venstresiden svarer først til operationen og dernæst som er ækvivalent med højresiden, hvor vi først anvender og dernæst
På denne måde kan man opnå en matrix
hvor er et produkt af elementærmatricer, som kun svarer til rækkeombytninger, og hvor kan overføres til RREF, uden brug af rækkeombytninger.
En matrix som er et produkt af elementærmatricer, udelukkende for rækkeombytninger, kaldes en permutationsmatrix.
Det er en kvadratisk matrix, som har præcis et -tal i hver række og søjle, og nul i alle andre indgange.
Der kan nu sættes nuller under kandidaterne til pivotelementerne for med et produkt af elementærmatricer, for rækkeoperationer af formen hvor ; dette giver også eventuelle nulrækker der vil forekomme i RREF. Dette produkt af elementærmatricer kalder vi og dens inverse for (den er invertibel af Sætning 4.16, da elementærmatricer er invertible). Så har vi
hvor næsten er på RREF (mangler at opnå nuller over pivotkandidater, samt skalere pivotkandidater til ). Dette leder frem til den såkaldte LU dekomposition, hvor vi har gennemgået hvordan matricerne kan konstrueres med Gauss elimination.
Lad være en matrix. Der eksisterer
  • permutationsmatrix
  • invertibel nedre trekantsmatrix med i alle diagonalelementerne,
  • matrix med nuller under diagonalen (hvis er kvadratisk er derfor en øvre trekantsmatrix),
Matricen er invertibel, hvis og kun hvis, er invertibel.
Bevis
Ud fra ovenstående gennemgang i dette afsnit, mangler vi kun at argumentere for:
  • har nuller under diagonalen.
  • er en nedre trekantsmatrix, med i alle diagonalelementer.
  • er invertibel, hvis og kun hvis, er invertibel.
Vi får at indgangene i er nul under diagonalen per konstruktion, da et pivotelement i række må være i søjle da pivotelementer skal placeres længere mod højre ned igennem rækkerne. Dermed har vi sat nuller under diagonalen i med de anvendte rækkeoperationer på via
Rækkeoperationerne der indgår i var på formen hvor Det vil sige, at de tilsvarende elementærmatricer er nedre trekantsmatricer med i diagonalelementerne. Fra definitionen af matrixmultiplikation indses let:
  • For to nedre trekantsmatricer, er deres produkt også en nedre trekantsmatrix.
  • For to nedre trekantsmatricer, med i diagonalelementerne, har deres produkt også i diagonalelementerne.
Det vil sige, at er en nedre trekantsmatrix, med i diagonalelementerne.
Den 'te søjle i vil være løsning til ligningssystemet
hvor er 'te søjle i identitetsmatricen. Fra egenskaberne af og for så får vi fra første ligning i systemet Ved indsættelse af dette i anden ligning fås og så fremdeles op til Først i den 'te ligning fås Så der er nul over diagonalen i og diagonalelementerne er som skulle vises.
Til sidst, da og er invertible (som produkter af elementærmatricer), har vi at hvis er invertibel, er også invertibel af Sætning 4.16. Tilsvarende, hvis er invertibel, er også invertibel.
Ved brug af LU dekomposition, da og er invertible, får vi at løsning af
er ækvivalent med at løse
Dette kan måske se fjollet ud, for vi løser nu to systemer i stedet for et. For en kvadratisk matrix da er og trekantsmatricer, og man får meget hurtigt løsningerne. For en rektangulær matrix er også rektangulær, men dens struktur gør det stadig hurtigt at løse systemet da den næsten er på RREF.
Da er en nedre trekantsmatrix, vil kun have en ubekendt i første ligning, som derfor løses med det samme. Ved indsættelse i næste ligning haves også kun en ubekendt tilbage, og løses lige så hurtigt. Dette kan gennemgås induktivt fra toppen og ned til bunden, hvor hver ligning løses med hensyn til en enkelt ubekendt. Dette kaldes fremadløsning (forward substitution).
For en øvre trekantsmatrix arbejder man i stedet fra bunden og op, hvilket hedder tilbageløsning (back substitution).

4.8 Opgaver

Findes et tal
Lad matricerne
være givet. Hvilke af nedenstående matrixprodukter giver mening?
Lad
Hvilke af nedenstående udsagn er rigtige?
Hvis så er
Hvis så er
Gør rede for (4.10), det vil sige at identitetsmatricen ikke ændrer ved en matrix, når den bliver ganget på enten fra venstre eller fra højre.
Lad og være matricer. Gør rede for, at hvis
og
så må
Lad være en kvadratisk matrix. Gør rede for at er invertibel, hvis og kun hvis, er invertibel.
En kvadratisk reel matrix kaldes symmetrisk hvis Gør rede for, at
er symmetriske matricer, hvor er en vilkårlig reel matrix.
Hint
Brug Proposition 4.17!
Betragt følgende fire matricer
Hvilke af følgende udsagn er sande?
Lad og være tre matricer med samme antal rækker og søjler. Gør rede for:
  1. medfører at
  2. og medfører at
Hvilke af nedenstående matricer er på RREF?
Gennemgå udregningen i Eksempel 4.23 for de resterende to typer elementær matricer.
Lad
være en stokastisk matrix, det vil sige at alle indgangene i matricen er og samt Antag at og lad
Hvorfor er ? Hvordan relaterer det til Eksempel 4.5 om stokastiske matricer?
Forklar hvorfor matricen
ikke er invertibel.
For hvilke tal er matricen
invertibel?
Lad
  1. Find RREF for
  2. Find samtlige løsninger til ligningssystemet
Udregn den inverse til matricen
og gør grundigt rede for alle trin.
Anvend rækkeoperationer til at udregne den inverse til matricen
og gør grundigt rede for alle trin.
Skriv matricen
som et produkt af elementærmatricer.
Gør rede for, at en kvadratisk matrix på RREF, som ikke er identitetsmatricen, bliver nødt til at indeholde en nulrække.
Lad og være lige store kvadratiske matricer. Er det rigtigt at
Hvad med
Vi tager udgangspunkt i Eksempel 4.3 om rotationsmatricer.
  1. Vis ved direkte udregning at og har samme længde, ved at indsætte udtrykket for i formlen for normen af en vektor (Definition 1.2).
  2. For to vinkler og vil man forvente at matricen først roterer med og dernæst med og samlet giver en rotation med vinklen Gør rede for dette, med brug af materialet i Afsnit 1.5, altså vis at:
Vi tager udgangspunkt i Eksempel 4.4 om spejlinger. Vi vil nu bestemme matricen, der udfører spejling i en ret linje i planen, givet fra
for en hældning
Vi betegner en matrix
og skal nu bestemme tallene og er spejlingsmatricen, der svarer til spejlingen i linjen givet fra (4.19).
  1. Vis at spejling i sender punktet til og punktet til
  2. Gør rede for, at tallene og må være løsning til ligningssystemet
  3. Vis at
  4. Gør rede for, meget gerne uden at regne, at
Lad og være lige store kvadratiske matricer, som opfylder og (det vil sige projektioner). Gør rede for, at