9Indre produkt og ortogonalitet

I planen har vi i Kapitel 1 set på det Euklidiske indre produkt (kaldes også nogle gange prikprodukt eller skalarprodukt)
Ved hjælp af det indre produkt indførte vi begreber som normen (længden) af en vektor og ortogonalitet. Normen af en vektor blev defineret som og to vektorer blev kaldt vinkelrette eller ortogonale hvis
I dette kapitel indfører vi den oplagte generalisering af det indre produkt, fra planen til vilkårlige søjlevektorer i (husk at står for enten de reelle tal eller de komplekse tal ). Her skal man være særlig opmærksom på, at der for komplekse tal også indgår en kompleks konjugering, som er helt essentiel for at vi kan tale om længden af en kompleks vektor. Vi husker, at konjugeringen af et komplekst tal, på standard form, er givet ved at skifte fortegn på imaginærdelen:
og vi husker, at der helt særligt fås et reelt tal, når et komplekst tal ganges med sin komplekst konjugerede:
Lad Det Euklidiske indre produkt, mellem og er defineret som
Vektorerne og kaldes ortogonale, skrevet hvis
Den Euklidiske norm (længden) af er defineret som
En vektor kaldes en enhedsvektor hvis
Det er nok en god ide at tage Quiz 9.1 nu, så der kommer styr på brugen af komplekse tal i indre produkter.
Moralen i dette kapitel er, at lineær algebra bliver væsentligt mere kraftfuldt (og spændende!), når vi har et indre produkt at arbejde med. Specielt kan meget af vores geometriske intuition, om vektorer i planen fra Kapitel 1, anvendes på vektorer i Det vigtigste begreb vi kommer ind på i denne sammenhæng er ortonormalbaser, som giver en let måde at finde koordinater til vektorer (på samme måde som det er kendt fra standardbasen), og hvordan en "almindelig" basis kan omdannes til en ortonormalbasis.

9.1 Egenskaber for indre produkter og normer

Der gælder følgende helt essentielle egenskaber for det Euklidiske indre produkt, som umiddelbart følger fra Definition 9.1.
Lad og Så gælder:
  1. og
  2. samt hvis og kun hvis,
Når egenskaberne ovenfor blev kaldt helt essentielle, er det fordi disse egenskaber faktisk er definitionen af hvad et generelt indre produkt skal opfylde. Det er muligt at definere indre produkter på andre typer af vektorrum end for søjlevektorer, eksempelvis på vektorrum af polynomier eller kvadratisk integrable funktioner.
Hovedessensen er, at de ovenstående egenskaber er nok til at kunne vise mange af resultaterne i dette kapitel, med brug af indre produkter på abstrakte vektorrum; eksempelvis kan Gram-Schmidt algoritmen også anvendes til at bestemme ortogonale funktioner, som er en vigtig del af teorien bag signalbehandling.
Fra egenskaberne i Proposition 9.2, kan vi bruge samme formel for den ortogonale projektion af en vektor på en vektor hvor som vi havde i Kapitel 1:
er parallel med (det er ganget med skalaren i parentesen), og vi har at :
Vi kan derfor skrive hvor højresiden er to ortogonale vektorer; er komponenten af der peger i retning af mens er komponenten af der er ortogonal på
Bevæbnet med definitionen af det indre produkt og ortogonale projektioner, kan vi lave overraskende meget nyttig matematik. Blandt andet nedenstående fundamentale resultater.
Lad så gælder følgende:
  1. Pythagoras sætning:
  2. Cauchy-Schwarz ulighed:
  3. Trekantsuligheden:
  4. Parallelogramloven:
  5. Polariseringsidentiteten:
Bevis
Pythagoras sætning
Beviset er en direkte udregning, hvor sammenhængen mellem indre produkt og norm udnyttes, samt at :
Det er nu tydeligt, at præcis når ligheden i Pythagoras sætning er sand.
Cauchy-Schwarz ulighed
Hvis er uligheden sand, da der står på begge sider. Antag nu at så kan vi bestemme den ortogonale projektion af ved brug af formlen i (9.1), således at og
Nu kan vi lave en udregning, hvor udtrykket for indsættes:
Nu kan vi gange igennem med på begge sider, for derefter at tage kvadratroden (som er en voksende funktion), for at få
Trekantsuligheden
For et komplekst tal gælder
Fra (9.2) i beviset for Pythagoras sætning, får vi derfor
Beviset følger nu ved brug af Cauchy-Schwarz ulighed, samt at kvadratrod-funktionen er voksende:
Parallelogramloven
Fra (9.2) i beviset for Pythagoras sætning har vi følgende, samt ved udskiftning af med :
Ved at addere de to udtryk ovenfor fås parallelogramloven.
Polariseringsidentiteten
Ved at subtrahere de to udtryk i (9.3), i beviset for parallelogramloven, fås
For fås polariseringsidentiteten fra (9.4).
Antag nu at Ved at erstatte med i (9.4), fås
Nu er polariseringsidentiteten summen af (9.4) og (9.5).

9.2 Ortonormalbasis (ONB)

De fleste kan godt lide at bruge standardbasen for på grund af de flotte geometriske egenskaber den har. Hver vektor peger ud af akserne i det typiske retvinklede koordinatsystem, og koordinaterne til vektor kan direkte aflæses fra vektorens indgange. Vi har nemlig
Det at vi kan "aflæse" koordinaterne nemt, svarer præcis til udregningen af koordinatvektoren ved de indre produkter Dette er betydelig lettere end at skulle løse et ligningssystem, for at finde en koordinatvektor. Vi skal se at denne lettere måde at finde koordinater på, hænger sammen med ortogonalitet af basisvektorerne.
Først skal vi overbevise os selv om, at ortogonale vektorer er lineært uafhængige, hvilket fra et geometrisk synspunkt nok ikke er så overraskende.
Hvis er indbyrdes ortogonale vektorer, for alle og ingen af vektorerne er nulvektorer, så er lineært uafhængige.
Bevis
For at undersøge lineær uafhængighed af vektorerne, ser vi på en linearkombination
Af ortogonaliteten får vi derfor
Vi konkluderer at hvert for da var en af antagelserne i sætningen. Altså er vektorerne lineært uafhængige.
Da ortogonale vektorer er lineært uafhængige, opfylder de allerede det vigtigste kriterium for at danne baser for vektorrum.
  1. En basis for et underrum af kaldes en ortogonalbasis hvis for alle
  2. Hvis en ortogonalbasis består af enhedsvektorer, for alle så kaldes det en ortonormalbasis (ONB).
Da det er et vigtigt begreb, udpensler vi her kravene til at er en ONB for et underrum :
  1. skal være indbyrdes ortonormale, det vil sige for alle indeks og skal gælde
    Udtrykket på højresiden ovenfor betegnes ofte hvilket er Kronecker's delta.
  2. skal udgøre en basis for hvilket typisk kan vises med en kombination af Sætning 9.5 og Sætning 6.18.
Vi vil meget ofte anvende ONB-forkortelsen fra Definition 9.6 fremadrettet. Der er flere af resultaterne i de næste afsnit og kapitler, der specifikt gør brug af ortonormalbaser, hvor det er vigtigt at vektorerne er normaliseret så de har norm 1 (ved at dividere med normen af vektoren), og ikke kun er ortogonale; dette er nok en af de mest almindelige fejl man begår, når man første gang skal diagonalisere en matrix ved brug af spektralsætningen i Kapitel 11.
Nu skal vi se nogle pæne formler for at udregne koordinater for en ONB, helt analogt med hvad vi så for standardbasen i (9.6), samt en brugbar formel der relaterer normen af en vektor, til de indre produkter med basisvektorerne (faktisk at normen af en vektor er lig normen af koordinatvektoren med hensyn til en ONB).
Lad være en ONB for et underrum For ethvert gælder
Bevis
Lad være koordinatvektor for med hensyn til
Nu følger af ortonormaliteten at
hvilket viser første påstand, at koordinaterne er givet ved de indre produkter.
Den anden påstand følger af regneregler for det indre produkt:
hvor vi på samme måde har benyttet at for og
Vi kan skrive Proposition 9.8 op i form af koordinatvektoren for For en ONB af har vi
De tre vektorer
udgør en ONB for Dette ses ved, at vektorerne er normaliserede og ortogonale (tjek det gerne!), samt af Sætning 9.5.
Det er nu ikke så kompliceret at bruge Proposition 9.8 til at afgøre om en vektor ligger i Dette sker, hvis og kun hvis,
Hvis for eksempel
er
hvilket tydeligvis ikke er lig og derfor har vi Derimod har vi med
at
det vil sige

9.3 Gram-Schmidt algoritmen

Vi har set ovenfor, at ONB'er er særligt nemme at regne med. Spørgsmålet er om alle underrum af har en ONB? Her er svaret ja, og grunden ligger i en klassisk og smuk algoritme, tilmed opfundet af en dansker. Ideen kommer fra formlen for projektion af en vektor på en anden vektor, som vi genopfriskede i (9.1).
Hvis er en ortogonalbasis for et underrum kan vi finde en ONB ved at normalisere:
Ved at sætte dette ind i Proposition 9.8 for et får vi den tilsvarende formel for koordinaterne i en ortogonalbasis:
Hvis vi kigger på de enkelte led, og sammenligner med (9.1), ser vi at er summen af de ortogonale projektioner af på henholdsvis
En måske vigtigere observation fra (9.7) er, at vi kan finde komponenten af i én ortogonal retning, ved at trække alle de andre ortogonale projektioner fra For eksempel er den sidste komponent
Dette er princippet bag Gram-Schmidt algoritmen: Tag en basis for et vektorrum, konstruer nye vektorer ved induktivt at trække ortogonale projektioner fra, for derved at danne en ny ortogonalbasis for det samme vektorrum.
Animation af den modificerede Gram-Schmidt algoritme for tre vektorer fra Wikipedia. Læg mærke til, at de indre produkter annoteres som i animationen.
Proceduren i Figur 9.1 kan generaliseres til et vilkårligt antal vektorer. Denne generalisering blev først fundet af danskeren Jørgen Pedersen Gram i 1883, og kendes i dag under navnet Gram-Schmidt algoritmen. Det er en af de helt fundamentale metoder i lineær algebra.
Lad være lineært uafhængige vektorer i og lad
Ved algoritmen
opnås ortogonale vektorer og
En ONB basis for opnås ved at normalisere basisvektorerne:
Bevis
Fra ortogonal projektionerne har vi, at er indbyrdes ortogonale vektorer.
Fra processen i (9.8) ser vi, at -vektorerne er linearkombinationer af -vektorerne (indsæt udtrykkene for i højresiden). da -vektorerne er lineært uafhængige. Tilsvarende, ved at flytte de ortogonale projektioner til venstresiden i (9.8), ser vi også at -vektorerne er linearkombinationer af -vektorerne. Det betyder altså at
Da er indbyrdes ortogonale, er de blandt andet også lineært uafhængige (Sætning 9.5), og udgør derfor en basis for
Hvis Gram-Schmidt algoritmen benyttes på et sæt af vektorer, som ikke er lineært uafhængige, vil algoritmen undervejs afsløre dette og give hvor
Algoritmen kan modificeres ret enkelt ved at springe trin med over, og arbejde videre med ud fra de allerede fundne ortogonale vektorer
Vi betragter underrummet udspændt af vektorerne
Vi benytter Gram-Schmidt algoritmen til at finde en ONB for Første trin er Dernæst udregner vi
Så vidt så godt; man kan tjekke efter for regnefejl, ved at undersøge om Sidste skridt er nu udregningen af via
Hermed er en ortogonalbasis for Da og vil
være en ONB for

9.3.1 Den modificerede Gram-Schmidt algoritme

Gram-Schmidt algoritmen, som angivet ovenfor, er numerisk ustabil i praksis. Ved en lille modifikation med hensyn til udregningen af fås en numerisk stabil algoritme, som er mindre følsom overfor afrundingsfejl. Dette modificerede trin består i at udregne gennem følgende kæde af operationer:
med som resultat.
Eksempel
Lad os benytte vektorerne
fra sidste eksempel, som input til den modificerede Gram-Schmidt algoritme. Første skridt giver
Udregningen af foregår som
med
Udregningen af foregår som
og
med endeligt resultat
i fin overensstemmelse med foregående eksempel.
Denne algoritme kaldes den modificerede Gram-Schmidt algoritme. Den numeriske stabilitet illustreres i eksemplet nedenfor.
For at uddybe hvad der egentlig menes med numerisk stabil, eller mindre følsom overfor afrundingsfejl, kan man som eksempel afprøve Gram-Schmidt algoritmen, og den modificerede Gram-Schmidt algoritme på vektorerne
med afrundingsfejlen Hvis en lommeregner kan vise cifre i displayet og så er på lommeregneren.
Med afrunding og normering i hvert trin, giver den klassiske Gram-Schmidt algoritme
Læg mærke til at hvilket er en grim fejl som følge af afrundingen, som ikke afhænger af hvor lille bliver.
Derimod giver den modificerede Gram-Schmidt algoritme
Her er

9.4 Adjungerede, unitære og ortogonale matricer

For en matrix er den kompleks konjugerede af Det svarer til, at komplekst konjugere hver af indgangene i matricen:
Nu skal vi introducere en matrix, som har helt særlige egenskaber når det kommer til det indre produkt, og som bliver brugt i resten af kapitlerne.
Den adjungerede defineres som den kompleks konjugerede og transponerede af :
Det er meget vigtigt ikke at forveksle den adjungerede med den klassisk-adjungerede ; se også Sætning 5.14 og Bemærkning 5.15.
Bemærk fra Definition 11.1, at en matrix der opfylder både kendes som en Hermitisk matrix og som en selvadjungeret matrix.
For andre indre produkter på vektorrum (eksempelvis på funktionsrum), er det egenskaben fra Sætning 9.16, der entydigt definerer den adjungerede med hensyn til det indre produkt.
For eksempel er
Som vi kender det fra transponering af matricer (Proposition 4.17), kan vi bestemme den adjungerede af et produkt ved formlen
En anden måde at skrive det Euklidiske indre produkt er
Ved at kombinere de to ovenstående resultater, får vi en meget vigtig egenskab.
Lad være en matrix, så gælder
Vi kan altså flytte en matrix fra en indgang i det indre produkt til den anden, ved at finde dens adjungerede. Læg mærke til, at hvis er en reel matrix, så i det tilfælde vil
Lad være en matrix.
  1. Hvis er kvadratisk:
Bevis
(i): Af dimensionssætningen (Sætning 6.25) er det tilstrækkeligt at vise
For nogle komplekse søjlevektorer hvor vi opskriver en linearkombination der giver
er lineært uafhængige, hvis og kun hvis, er lineært uafhængige.
Vi har hvis og kun hvis, da der eksisterer
Samlet set har vi af Sætning 6.18.
(ii): Af Proposition 5.9 er og resultatet følger nu af Definition 5.2.
Vi skal nu se på de matricer hvorom det gælder at altså hvor vi meget nemt kan udregne den inverse af matricen, ved blot finde den adjungerede. Selvom disse matricer ofte ser grimme og ubehagelige ud (rent numerisk), er det nogle af de letteste at arbejde med, måske lige ud over diagonalmatricerne. De har også en særrolle i diagonalisering af nogle vigtige klasser af matricer i Kapitel 11.
  1. Matrix kaldes en unitær matrix hvis
  2. Reel matrix kaldes en ortogonal matrix hvis
Bemærk, en ortogonal matrix er unitær, men det modsatte er kun sandt hvis matricen er reel.
En vigtig geometrisk egenskab for unitære matricer er, at de bevarer det indre produkt:
Tilsvarende, ved at indsætte 's plads ovenfor ses, at unitære matricer også bevarer normen af en vektor:
En afbildning med denne egenskab kaldes en isometri.
Bemærk, vi har (af Sætning 9.17 og Sætning 5.7):
Så for unitær matrix er Det vil sige, for ortogonal matrix er enten eller
Det næste resultat viser, at det ikke er kompliceret at konstruere unitære matricer; det svarer præcis til de kvadratiske matricer med indbyrdes ortonormale søjler. Her kender vi allerede Gram-Schmidt algoritmen til at bestemme ONB'er.
En kvadratisk matrix er unitær netop hvis dens søjler er indbyrdes ortonormale (indbyrdes ortogonale enhedsvektorer).
Bevis
Dette følger af definitionen på matrixmultiplikation. Lad være en kvadratisk matrix, så er
Kravet om kan nu oversættes til
altså at søjlerne i er indbyrdes ortonormale.
Lad os analysere hvordan en ortogonal matrix tager sig ud. Antag at
Så er
Af Proposition 9.19 er søjlevektorerne i ortogonale enhedsvektorer. Sætter vi og har vi altså to muligheder for :
Geometrisk svarer til en rotation af planen, mens svarer til en spejling. Ved eksplicit udregning ser man, at er en egenværdi for En tilhørende egenvektor er retningsvektor for linjen som der spejles i (som viser sig at være linjen gennem med vinklen med den positive del af -aksen).
En unitær matrix er netop et komplekst tal med Det vil sige, for en passende vinkel For to komplekse tal med er
et eksempel på en unitær matrix. Her kan man benytte
for vilkårlige vinkler For eksempel er
en unitær matrix, svarende til
Tre berømte unitære matricer er
som indgår i beskrivelsen af sammenhængen mellem en partikels spin og et elektromagnetisk felt inden for kvantemekanik.

9.4.1 Diskret Fourier transformation

En af de allervigtigste anvendelser af en ONB for som samlet set giver en unitær matrix, er den diskrete Fourier transformation
Lad så defineres matricen
Specifikt, er indgangene
Givet en vektor fås den diskrete Fourier transformation af i form af ved
Indgangene bliver
Af notationsmæssige årsager, har vi indekseret og med indeks Et konkret eksempel på matricen (9.10) er for hvor :
Matricen fra (9.10) er unitær.
Bevis
Vi starter med at vise sum-formlen for en trunkeret geometrisk række: Lad med så er
Ved at opskrive summen, samt gange denne med ses at
Ved differencen overlever derfor kun fra første udtryk, og fra det andet, hvilket giver (9.12):
er åbenlyst unitær, så antag at og Hvis er 'te søjle af for så har vi af (9.12):
da Hvorimod vi har
Dermed er en kvadratisk matrix med indbyrdes ortonormale søjler, så af Proposition 9.19 er unitær.
Dermed genskabes fra med den inverse diskrete Fourier transformation
Indgangene bliver
I Figur 9.2 er et eksempel på hvordan man kan "sample" en funktion/signal
i diskrete punkter med for hvor der i alt anvendes sampling-punkter. Ud fra dens diskrete Fourier transformation, kan aflæses information om frekvensindholdet.
Venstre: Funktionen samt sampling-punkterne for Højre: Skaleret realdel og skaleret imaginærdel af indgangene i den Fourier transformerede vektor for
Den samplede funktion består af trigonometriske funktioner, hvor "frekvensen" går op til (frekvensen er det reciprokke tal til den mindste periodicitet af de trigonometriske funktioner som indgår; her er den mindste periodicitet fra ). Et berømt resultat kaldet Nyquist-Shannon sampling sætning, fortæller at det eksakte frekvensindhold kan ses fra den diskrete Fourier transformation, hvis afstanden mellem jævnt fordelte sampling-punkter på intervallet er mindre end I dette eksempel er det derfor nok med sampling-punkter, for at se alt frekvensindholdet. I praksis betyder det, at man ud fra ganske få "målinger" på et signal, kan dekomponere signalet i dets frekvensbestanddele.
Hvordan kommer det til udtryk? Her er og er de diskrete punkter hvor funktionsværdierne bestemmes. Så fra (9.13) har vi
Fra Figur 9.2 ses, at især og er store bidrag i Fourier transformationen, hvilket svarer til led af typen:
hvor periodiciteten af den komplekse eksponentialfunktion er anvendt. Men vi har netop at
hvilket svarer til samplingen af som er det største bidrag til Tilsvarende har vi mindre bidrag fra
hvor periodiciteten af den komplekse eksponentialfunktion igen er anvendt. Dette er i fin overensstemmelse med
svarende til bidragene for og i
Den diskrete Fourier transformation, gennemgået her, relaterer sig til andre Fourier transformationer, der agerer på funktionsrum og rum af talfølger. Dette er emner der gennemgås i et kursus om Fourieranalyse.
  • Fourier transformation hvor er det uendelig dimensionale vektorrum af kvadratisk integrable funktioner. For funktion er den givet ved
    og med invers Fourier transformation
  • Diskret-tid Fourier transformation (kaldes også nogle gange diskret Fourier transformation), hvor er det uendelig dimensionale vektorrum af kvadratisk summable talfølger. For talfølge er den givet ved
    og med invers diskret-tid Fourier transformation
    Dette har også en stærk forbindelse til Fourierrækker.
  • Alle Fourier transformationerne ovenfor er unitære. For og skal dette forstås med hensyn til adjungerede operatorer i de standard indre produkter, som defineres på ovenstående vektorrum.
  • Der eksisterer også andre Fourier transformationer, som relaterer sig til ovenstående ved, for eksempel, en anden skalering; disse er ikke nødvendigvis unitære. Så man skal altid vide hvilken definition af Fourier transformationen man har fat i.
For stort findes langt hurtigere metoder til at udregne den diskrete Fourier transformation, end at konstruere -matricen. Ideen er at udnytte strukturen i matricen, til i stedet at regne på to -matricer, og dernæst reducere yderligere til fire -matricer, og så videre (under krav om, at er divisibel med en passende potens af ). Beregningskompleksiteten går fra asymptotisk til hvilket er en meget stor besparelse! Dette går under navnet Fast Fourier Transform (FFT).

9.5 QR dekomposition

Hvis vi benytter Gram-Schmidt algoritmen (Sætning 9.10) på søjlerne i en invertibel matrix fås
Efter normalisering fås nu af Proposition 9.8:
Oversat giver det matrix-identiteten
hvor og
Læg mærke til at matricen er unitær, da dens søjler udgør en ONB for , samt at er en øvre trekantsmatrix (den har nuller under diagonalen). Vi har konstruktivt vist nedenstående resultat i tilfældet hvor er invertibel. For en generel kvadratisk matrix, skal ovenstående konstruktion kun modificeres en lille smule, som set i beviset nedenfor.
Lad være en kvadratisk matrix. Der eksisterer en unitær matrix og en øvre trekantsmatrix
Hvis er en reel matrix, kan og også vælges som reelle matricer.
Bevis
Vi forkorter Gram-Schmidt algoritmen (Sætning 9.10) som GS.
Lad og gennemgå GS på dens søjler, hvor søjler springes over hvis de i ortogonaliseringen giver undervejs. ONB for der kommer fra GS, indsættes på de tilsvarende søjler i På de resterende søjler af (svarende til hvor GS sprang over), indsættes en vilkårlig ONB for det ortogonale komplement af søjlerummet (se næste afsnit for detaljer), hvilket også eksisterer af GS. Af Proposition 9.19 er unitær.
Med denne konstruktion vil vi vise
Vi viser dette med induktion, hvor induktionsstarten er sand, da er parallel med af GS. Antag at (9.14) er sand op til Hvis ikke springes over af GS, så har vi direkte derfra at
Hvis blev sprunget over af GS, er det fordi er udspændt af de tidligere søjler i hvor induktionshypotesen nu anvendes:
Det vil sige, for findes entydige koordinater
Dermed bliver 'te søjle af netop og så er en øvre trekantsmatrix.
Det er klart fra ovenstående, at hvis er reel, kan konstruktionen af og dermed også bestå af reelle søjlevektorer.
Faktoriseringen kaldes, af åbenlyse årsager, en QR dekomposition eller QR faktorisering af
Matricen
er en invertibel matrix. Ved hjælp af Gram-Schmidt algoritmen finder man, med input fra søjlerne i matricen indeholdende ONB
med QR dekompositionen

9.5.1 Den mirakuløse QR algoritme

Det meste lineær algebra er langtidsholdbart matematik og flere hundrede år gammelt. Det hænder dog, at ekstremt vigtige nye opdagelser bliver gjort, for eksempel ved at eksperimentere med computere. Følgende næsten halvnaive algoritme til at udregne egenværdier for en kvadratisk matrix blev opdaget sidst i 1950'erne. Den hedder QR algoritmen, og bygger netop på QR dekompositionen.
Indledningsvis sættes , og algoritmen udregner nye QR dekompositioner i hvert trin med hensyn til det modsatte produkt af og fra foregående trin:
Læg her mærke til, at og har de samme egenværdier, fordi de er similære:
Hvis er en egenvektor til tilhørende egenværdi så er en egenvektor til tilhørende den samme egenværdi
For en symmetrisk matrix det vil sige er reel og vil diagonalelementerne i ofte konvergere mod egenværdierne i den oprindelige matrix ; dette er for eksempel sandt, hvis alle egenværdier har algebraisk multiplicitet og har forskellige absolutte værdier.
Betragt matricen
Man kan ret hurtigt regne ud, at har egenværdierne og
Lad os afprøve QR algoritmen rent numerisk på De første trin giver (i selve beregningerne er anvendt flere decimaler, end der er vist nedenfor):
Eksperimentet synes at bekræfte, at diagonalelementerne (markeret med rødt) i følgen af konvergerer mod egenværdierne af den oprindelige matrix.
I 1968 blev det vist af James Wilkinson, at QR algoritmen kan modificeres ved at lave forskydninger i diagonalen undervejs. Først transformerer han en generel symmetrisk matrix til en tridiagonal matrix, og viser derefter at egenværdierne kan bestemmes med den modificerede QR algoritme; det vil sige en metode, der kan bruges på enhver symmetrisk matrix.

9.6 Ortogonal komplement og ortogonal projektion

Man har ofte brug for en anelse mere terminologi omkring underrum og ortogonalitet, herunder ortogonalt komplement og ortogonal projektion på et underrum. Dette er særlig vigtigt, for at få en god geometrisk forståelse af hvad der foregår, når man løser et lineært ligningssystem, og det er helt essentielt for at forstå tilnærmelsesvise løsninger med mindste kvadraters metode i Kapitel 10.
I resten af dette afsnit har vi underrum og hvis det større rum ikke er nævnt, er det underforstået at
Det ortogonale komplement til underrummet består af de der står ortogonalt på samtlige vektorer i :
At er et underrum af følger af egenskaberne for det indre produkt (Proposition 9.2). Da disse vektorrum er endelig dimensionale, gælder
For ethvert findes entydige vektorer:
  • (den ortogonale projektion af ),
  • (den ortogonale projektion af ),
og
Formlen (9.15) kaldes den ortogonale dekomposition af med hensyn til og .
Bevis
Lad være en ONB for og definer
Vi har altså konstrueret en vektor ud fra Nu bestemmer vi
Ved samme argument som ved Gram-Schmidt algoritmen, har vi for Da er ortogonal på en basis for da den derved står ortogonalt på enhver linearkombination af
Til sidst skal entydigheden af (9.15) bevises. Antag at
hvor og Ved at se på det sidste lighedstegn i (9.16) får vi
Men dette betyder at altså det er vektorer der står ortogonalt på sig selv. Som set nedenfor, opfyldes dette kun af nulvektoren:
Altså er som medfører og
Den ortogonale dekomposition i Sætning 9.28 kan også formuleres således: er en direkte sum af og hvilket skrives
På samme måde som (9.1) angiver en formel for den ortogonale projektion ind på et et-dimensionalt vektorrum (på linjen udspændt af en vektor), så giver Sætning 9.28 at man kan projicere ind på ethvert underrum.
Ortogonale projektioner og af på henholdsvis og
I modsætning til (9.1), giver Sætning 9.28 dog ikke nogen direkte formel til at udregne projektionerne. Men her skal man bare kigge ind i beviset til Sætning 9.28, som afslører hvordan man kan bruge en ONB til at udregne en ortogonal projektion. Ydermere viser Pythagoras sætning, hvad en ortogonal projektion geometrisk betyder: er vektoren i med korteste afstand til
Den ortogonale projektion er den entydige løsning til minimeringsproblemet
Tallet kaldes afstanden fra til .
Hvis er en ONB for kan projektionen udregnes ved
Bevis
Anden del af sætningen kommer direkte fra konstruktionen i beviset for Sætning 9.28, så det er tilstrækkeligt at vise første del af sætningen.
Lad være en vilkårlig vektor i Fra Pythagoras sætning (Sætning 9.4) og den ortogonale dekomposition (Sætning 9.28), har vi
Vi har vist for alle Der er også kun lighed ovenfor hvis
I Eksempel 9.9 betragtede vi underrummet af med
Bemærk igen, at er en ONB for (tjek det efter, hvis du ikke allerede har gjort det!). Eksempel 9.9 viste hvor
I eksemplet udregnede vi også
Dette er netop projektionen ved brug af Sætning 9.30.
Vi har derfor at afstanden fra til er
Hvis havde været en vektor i ville denne afstand naturligvis være da i et sådan tilfælde ville
Lad os nu bestemme det ortogonale komplement Da og må vi have så vi skal finde en enkelt vektor der står ortogonalt på vektorerne i ; eller rettere, ortogonalt på basisvektorerne I lige præcis dette tilfælde er vi heldige at fordi vi ved hvordan man kan finde en vektor i nemlig den ortogonale projektion af
Så vi har
Men lad os prøve at gå systematisk til værks, og se hvordan man kunne bestemme hvis f.eks. Vi har tre ligninger i spil ud fra at vektorer i skal være ortogonale på :
Hvis vi samler en matrix ud fra basisvektorerne for kan disse ligninger lige præcis skrives
Vi ser nu at så en basis for kan findes fra nulrummet af en matrix, ligesom vi kender det fra Kapitel 6.
Det hænder, at man skal projicere mere end én vektor på det samme underrum. Så kan man definere projektionsmatricer, hvormed man kan beregne ortogonale projektioner med matrix-vektor produkter. Hvis vi tager udgangspunkt i en ONB til et underrum kan vi omskrive formlen i Sætning 9.30. Først indser vi, at hvis , kan vi udregne de indre produkter ved
Så kan vi definere projektionsmatricen og vi får
Derved vil være den ortogonale projektion af for ethvert Projektionsmatricen på er
Man kan også tale om ikke-ortogonale projektioner, hvilket generelt blot opfylder men for ortogonale projektioner haves den særlig pæne struktur, som nævnt ovenfor.
Lad os igen tage udgangspunkt i Eksempel 9.9, med underrummet af for ortonormale
Så er projektionsmatricerne og givet ved:
Vi kan nu regne efter, at vi får samme resultat for projektionerne af som i foregående eksempel:
og

9.7 De fire fundamentale underrum

Som vi allerede så en indikation af i Eksempel 9.31, er der en sammenhæng mellem søjlerummet af en matrix og nulrummet af
For enhver matrix er
Bevis
Lad (der findes en vektor ) og lad (så ). Ved direkte udregning, og brug af Sætning 9.16, har vi
Så vi har at Nu skal vi tælle dimensioner for at sætte lighedstegn mellem vektorrummene.
Lad være en matrix med rang Fra dimensionsætningen (Sætning 6.25) og Sætning 9.17, har vi at og Hvis vi nu lader være en ONB for og være en ONB for så har vi samlet set at udgør ortonormale vektorer i og derfor en ONB for (Sætning 9.5 og Sætning 6.18). Dette betyder altså at
Ved at indse får vi også fra Sætning 9.33 at For enhver matrix har vi derfor følgende fire fundamentale underrum:
Det er næsten for godt til at være sandt, at fra en vilkårlig matrix kan søjlerum og nulrum for og finde baser for og For en reel matrix er hvilket er rækkerummet af
Indvirkningen af de fire fundamentale underrum ved matrix-vektor produkter.
Figur 9.4 er populariseret af Gilbert Strang under navnet lineær algebraens fundamentalsætning (ikke at forveksle med algebraens fundamentalsætning fra Appendiks A). Nærstuderer man figuren, kan man med stor sikkerhed påstå at have styr på sine fundamentale begreber.
Enhver vektor kan ortogonalt dekomponeres som hvor og det vil sige at Hvis vi udregner matrix-vektor produktet ser vi
da komponenten sendes til Ligningssystemet har kun en løsning hvis og blandt alle løsninger vil en entydig komponent komme fra mens beskriver alle tænkelige bidrag fra de frie variable. Kun hvis kan der være en entydig løsning.
Vi skal se hvordan de fire fundamentale underrum, på den mest fantastiske vis, binder hele teorien sammen, ved brug af den singulære værdi dekomposition i Kapitel 12.
En anvendelse af Sætning 9.33 leder også frem til følgende interessante resultat.
har en løsning, hvis og kun hvis, alle løsninger til opfylder
Bevis
Det at har en løsning, er ækvivalent med af Sætning 9.33. Men dette er ækvivalent med, at samtlige løsninger til opfylder

9.8 Opgaver

Hvilke af nedenstående udsagn er rigtige for det indre produkt i Definition 9.1?
Hvis er
Bevis nogle af egenskaberne i Proposition 9.2 ved brug af Definition 9.1.
Lad Prøv at bevise
uden at bruge Cauchy-Schwarz ulighed (Sætning 9.4). Lykkedes det? Hvis ikke, prøv med.
Lad være underrummet i med en basis bestående af vektorerne
Hvilke af nedenstående udsagn er rigtigt?
er en ortogonalbasis for
er en ONB for
er en ONB for
Hvad gælder for kompleks konjugering af en matrix?
For to matricer og hvor matrixproduktet giver mening, gælder
For to matricer og hvor matrixproduktet giver mening, gælder
Hvilke af nedenstående udsagn er rigtige?
Determinanten af en ortogonal matrix kan være alle tal
Determinanten af en ortogonal matrix er enten eller
Matricen som repræsenterer en rotation, omkring en akse gennem origo i med hensyn til standardbasen, er en ortogonal matrix.
Matricen
er ortogonal for enhver vinkel
Find den inverse til matricen
uden at regne.
Gør detaljeret rede for, at
er en ortogonalbasis for underrummet
af Normaliser basen, og benyt derefter Proposition 9.8 (se også Eksempel 9.9) til at afgøre om
Find en ONB for underrummet
af
Find QR dekomposition af
Gør rede for dine udregninger og metoder.
(Eksamen januar 2021)
Lad være et underrum af udspændt af vektorerne
  1. Gør rede for, at og er lineært uafhængige.
  2. Bestem en ortonormalbasis (ONB) for
  3. Lad to vektorer og være givet ved
    Beregn ortogonal projektionerne af og På baggrund af dette, gør rede for hvilken af vektorerne eller der tilhører
(Eksamen juni 2016)
Betragt matricen
  1. Find baser for søjlerum og rækkerum Hvad er deres dimensioner? Bestem nulrummet
  2. Gør rede for, uden at udregne nulrummet hvad er ud fra
  3. Udregn en basis for
  4. Find en ortonormalbasis (ONB) for det ortogonale komplement af i
Vis at enhver egenværdi for en unitær matrix opfylder
Lad være en kvadratisk matrix.
  1. Vis at er egenværdi for hvis og kun hvis, er egenværdi for
    Hint
    Vis og benyt at
  2. Lad være en egenværdi for og en egenværdi for Hvis er en egenvektor for hørende til og en egenvektor for hørende til vis at
Lad være en projektionsmatrix for en ortogonal projektion. Vis at
For en vilkårlig matrix definer lineær transformation men restringeret til
Gør rede for, at er invertibel (brug gerne resultater fra Opgave 7.11), det vil sige, at kan repræsenteres af en invertibel matrix.