9Indre produkt og ortogonalitet

I planen har vi i Kapitel 1 set på det Euklidiske indre produkt (kaldes også nogle gange prikprodukt eller skalarprodukt)
for to vektorer. Ved hjælp af det indre produkt indførte vi begreber som normen (længden) af en vektor og ortogonalitet. Normen af en vektor blev defineret som og to vektorer blev kaldt vinkelrette eller ortogonale hvis .
I dette kapitel indfører vi den oplagte generalisering af det indre produkt fra planen til vilkårlige søjlevektorer i . Her skal man være særlig opmærksom på at der for komplekse tal også indgår en kompleks konjugering, som er helt essentiel for at vi kan tale om længden af en kompleks vektor. Vi husker at konjugeringen af et komplekst tal er givet ved at skifte fortegn på imaginærdelen
og vi husker at der helt særligt fås et reelt tal (modulus af i anden potens) når et komplekst tal ganges med sin konjugerede
Lad . Det (Euklidiske) indre produkt mellem og er defineret som
Vektorerne og kaldes ortogonale, skrevet , hvis
Normen (længden) af er defineret som
En vektor kaldes en enhedsvektor hvis .
Hvilke af nedenstående udsagn er rigtige, for det indre produkt i Definition 9.1?
Hvis er
Moralen i dette kapitel er at lineær algebra bliver væsentligt mere kraftfuldt (og spændende!), når vi har et indre produkt at arbejde med. Specielt kan meget af vores geometriske intuition fra vektorer i planen fra Kapitel 1 anvendes på vektorer i . Det vigtigste begreb vi kommer ind på i denne sammenhæng er ortonormalbaser som giver en let måde at finde koordinater til vektorer (på samme måde som det er kendt fra standard basen) og hvordan en ''almindelig'' basis kan omdannes til en ortonormalbasis.

9.1 Egenskaber for indre produkter og normer

Der gælder følgende helt essentielle egenskaber for det Euklidiske indre produkt.
Lad og . Så gælder
  1. og hvis og kun hvis .
Bevis
Med det indre produkt defineret som følger resultaterne af regneregler for matrixmultiplikation og konjugering af komplekse tal og overlades til læseren som en øvelse.
Når egenskaberne ovenfor blev kaldt helt essentielle, er det fordi disse egenskaber faktisk er definitionen af hvad et generelt indre produkt skal opfylde. Det er muligt at definere indre produkter på andre typer af vektorrum end for søjlevektorer, eksempelvis på vektorrum af polynomier eller kvadratisk integrable funktioner. Hovedessensen er, at de ovenstående egenskaber er nok til at kunne vise mange af resultaterne i dette kapitel med brug af indre produkter på abstrakte vektorrum; eksempelvis kan Gram-Schmidt algoritmen også anvendes til at bestemme ortogonale funktioner, som er en vigtig del af teorien bag signalbehandling.
Ud fra egenskaberne i Proposition 9.3, kan vi nu se at vi kan bruge samme formel for projektionen af en vektor på en vektor hvor , som vi havde i Kapitel 1:
Specifikt har vi at er parallel med (det er ganget med skalaren i parantesen) og vi har at :
Bemærk at vi derfor kan skrive , hvor højresiden er to ortogonale vektorer; er komponenten af der peger i retning af , mens er komponenten af der er ortogonal på .
Ud fra kun definitionen af det indre produkt og ortogonale projektioner kan vi lave overraskende meget nyttig matematik. Blandt andet nedenstående resultat, som kaldes Cauchy-Schwarz ulighed.
Lad . Så gælder
Bevis
Hvis er uligheden sand, da der står på begge sider. Antag nu at , så kan vi bestemme den ortogonale projektion af ved brug af formlen i (9.1), således at og .
Nu kan vi lave en udregning hvor udtrykket for indsættes:
Nu kan vi gange igennem med på begge sider, for derefter at tage kvadratroden, for at få
Lad . Prøv at bevise
uden at bruge Sætning 9.5. Lykkedes det? Hvis ikke, prøv med.
Ud fra Cauchy-Schwarz ulighed kan vi udlede trekantsuligheden.
For to vektorer gælder
Bevis
Vi starter med at minde om nogle egenskaber for komplekse tal. Først har vi at og dernæst har vi også at
Ved en udregning får vi derfor
Beviset følger nu ved brug af Sætning 9.5:
Fra ortogonalitet følger Pythagoras sætning ved direkte udregning, som er kendt fra retvinklede trekanter med kateter og samt diagonal .
For ortogonale vektorer, i , gælder
Bevis
Beviset er en direkte udregning, hvor sammenhængen mellem indre produkt og norm udnyttes:

9.2 Ortonormalbaser

De fleste kan godt lide at bruge standard basen for , på grund af de flotte geometriske egenskaber den har. Hver vektor peger ud af akserne i det typiske retvinklede koordinatsystem, og koordinaterne til vektor kan direkte aflæses fra vektorens indgange. Vi har nemlig
Det at vi kan ''aflæse'' koordinaterne nemt, svarer præcis til udregningen af koordinatvektoren ved de indre produkter . Dette er betydelig lettere end at skulle løse et ligningssystem for at finde en koordinatvektor. Vi skal se at denne lettere måde at finde koordinater på hænger sammen med ortogonalitet af basisvektorerne.
Først skal vi overbevise os selv om, at ortogonale vektorer er lineært uafhængige, hvilket fra et geometrisk synspunkt nok ikke er så overraskende.
Hvis er indbyrdes ortogonale vektorer, for alle , og ingen af vektorerne er nulvektorer, så er lineært uafhængige.
Bevis
For at undersøge lineær uafhængighed af vektorerne, ser vi på en linearkombination
for nogle tal . Af ortogonaliteten får vi derfor
for hvert indeks .
Det betyder, at hvis , så kan vi konkludere at hvert for da var en af antagelserne i sætningen. Det betyder at den eneste linearkombination af som kan give er hvis alle koordinaterne er 0, altså er vektorerne lineært uafhængige.
Da ortogonale vektorer er lineært uafhængige, så opfylder de allerede det vigtigste kriterium for at danne baser for vektorrum.
  1. En basis for et vektorrum kaldes en ortogonalbasis hvis for alle .
  2. Hvis en ortogonalbasis består af enhedsvektorer, for alle , så kaldes det en ortonormalbasis (ONB).
Vi vil meget ofte anvende ONB-forkortelsen fra Definition 9.10 fremadrettet. Der er flere af resultaterne i de næste afsnit og kapitler der specifikt gør brug af ortonormalbaser, hvor det er vigtigt at vektorerne er normaliseret så de har norm 1 (ved at dividere med normen af vektoren) og ikke kun er ortogonale; dette er nok en af de mest almindelige fejl man begår når man første gang skal diagonalisere en matrix ved brug af spektralsætningen i Kapitel 11.
Nu skal vi se nogle pæne formler for at udregne koordinater for en ONB, helt analogt med hvad vi så for standard basen i (9.2), samt en brugbar formel der relaterer normen af en vektor til de indre produkter med basisvektorerne.
Lad være en ONB for et vektorrum . For ethvert gælder
Bevis
Lad være koordinatvektor for med hensyn til
Nu følger af ortonormaliteten at
hvilket viser første påstand om at koordinaterne er givet ved de indre produkter.
Den anden påstand følger af regneregler for det indre produkt:
hvor vi på samme måde har benyttet at for og .
De tre vektorer
udgør en ONB for deres span, i . Dette ses ved at vektorerne er normaliserede og ortogonale (tjek det gerne!) samt af Sætning 9.9.
Det er nu ikke så kompliceret at bruge Proposition 9.11 til at afgøre om en vektor ligger i . Dette sker hvis og kun hvis
Hvis for eksempel
er
hvilket tydeligvis ikke er lig , og derfor har vi . Derimod har vi med
at
det vil sige .
Lad være underrummet i med en basis bestående af vektorerne
Hvilke af nedenstående udsagn er rigtigt?
er en ortogonalbasis for .
er en ONB for .
.
er en ONB for .

9.3 Gram-Schmidt algoritmen

Vi har set ovenfor at ONB'er er specielt nemme at regne med. Spørgsmålet er om alle underrum af har en ONB? Her er svaret ja og grunden ligger i en klassisk og smuk algoritme tilmed opfundet af en dansker. Ideen kommer fra formlen for projektion af en vektor på en anden vektor, som vi genopfriskede i (9.1).
Hvis er en ortogonalbasis for et vektorrum , så kan vi finde en ONB ved at normalisere
Ved at sætte dette ind i Proposition 9.11, får vi den tilsvarende formel for koordinaterne i en ortogonalbasis
Hvis vi kigger på de enkelte led, og sammenligner med (9.1), så ser vi at er summen af de ortogonale projektioner af på henholdsvis , , , .
En måske vigtigere observation fra (9.3), er at vi kan finde komponenten af i én ortogonal retning ved at trække alle de andre ortogonale projekterne fra . For eksempel er det sidste komponent
Dette er princippet der ligger bag Gram-Schmidt algoritmen: Tag en basis for et vektorrum, og lav nye vektorer hvor vi induktivt trækker ortogonalprojektioner fra til at danne en ny ortogonalbasis for det samme vektorrum.
Animation af den modificerede Gram-Schmidt algoritme for tre vektorer fra Wikipedia. Læg mærke til at de indre produkter noteres som i animationen.
Proceduren i animationen ovenfor kan generaliseres fra to og tre vektorer til et vilkårligt antal vektorer. Denne generalisering blev først fundet af danskeren Gram i 1883 og kendes i dag under navnet Gram-Schmidt algoritmen. Algoritmen er angivet i sætningen nedenfor. Det er en af de helt fundamentale metoder i lineær algebra.
Lad være lineært uafhængige vektorer i og lad
Ved algoritmen
opnås ortogonale vektorer så at og
En ONB basis for opnås ved at normalisere basisvektorerne:
Bevis
Fra ortogonal projektionerne har vi for hvert at for .
Givet to indeks med , har vi altså enten at eller . I begge tilfælde får vi derfor at . Altså er ortogonale vektorer.
Fra processen i (9.4) ser vi at -vektorerne er linearkombinationer af -vektorerne (indsæt udtrykkende for i højresiden). Tilsvarende, ved at flytte de ortogonale projektioner til venstresiden i (9.4), ser vi også at -vektorerne er linearkombinationer af -vektorerne. Det betyder altså at
Da er en basis for er , og derfor må også være en basis for .
Hvis Sætning 9.15 benyttes på et sæt af vektorer som ikke er lineært uafhængige, vil algoritmen undervejs afsløre dette og give , hvor
Algoritmen kan modificeres ret enkelt ved at springe trin med over og arbejde videre med ud fra de allerede fundne ortogonale vektorer .
Vi betragter underrummet i udspændt af vektorerne.
Vi benytter Gram-Schmidt algoritmen til at finde en ONB for . Første trin er . Dernæst udregner vi
Så vidt så godt; man kan tjekke efter for regnefejl ved at undersøge om . Sidste skridt er nu udregningen af via
Hermed er en ortogonalbasis for . Da og vil
være en ONB for .

9.3.1 Den modificerede Gram-Schmidt algoritme

Gram-Schmidt algoritmen som angivet ovenfor er numerisk ustabil i praksis. Ved en lille modifikation med hensyn til udregningen af fås en numerisk stabil algoritme, som er mindre følsom overfor afrundingsfejl. Dette modificerede trin består i at udregne gennem følgende kæde af operationer:
med som resultat.
Eksempel
Lad os benytte vektorerne
fra sidste eksempel som input til den modificerede Gram-Schmidt algoritme. Første skridt giver
Udregningen af foregår som
med
Udregningen af foregår som
og
med endeligt resultat
i fin overensstemmelse med foregående eksempel.
Denne algoritme kaldes den modificerede Gram-Schmidt algoritme. Den numeriske stabilitet illustreres i eksemplet (hentet fra MIT OpenCourseWare) nedenfor.
For at uddybe hvad der egentlig menes med numerisk stabil, eller mindre følsom overfor afrundingsfejl, kan man som eksempel afprøve Gram-Schmidt algoritmen og den modificerede Gram-Schmidt algoritme på vektorerne
med afrundingsfejlen . Hvis en lommeregner for eksempel kan vise cifre i displayet og så er på lommeregneren.
Med afrunding og normering i hvert trin giver den klassiske Grams-Schmidt algoritme resultatet
Læg mærke til at , hvilket er en grim fejl som følge af afrundingen, som ikke afhænger af hvor lille bliver.
Derimod giver den modificerede Grams-Schmidt algoritme resultatet
Her er .

9.4 Unitære og ortogonale matricer

For en kompleks matrix er den kompleks konjugerede af . Det svarer til at konjugere hver af indgangene i matricen, som set nedenfor:
Hvad gælder for kompleks konjugering af en matrix?
For to matricer og , hvor matrixproduktet giver mening gælder
For to matricer og , hvor matrixproduktet giver mening gælder
Nu skal vi introducere en matrix som har helt særlige egenskaber når det kommer til det indre produkt, og som bliver brugt i resten af kapitlerne.
For matrix definerer vi den konjugerede og transponerede matrix
For eksempel er
Som vi kender det fra transponering af matricer, kan vi bestemme den konjugerede og transponerede af et produkt ved formlen
Herudover kan vi også se, at en anden måde at skrive det Euklidiske indre produkt af to vektorer , er
Ved at kombinere de to ovenstående principper, får vi en meget vigtig egenskab.
Lad være en matrix, og . Så gælder
Vi kan altså flytte en matrix fra én indgang i det indre produkt til den anden, ved at finde dens konjugerede og transponerede.
Læg mærke til at hvis er en reel matrix, så i det tilfælde vil .
Vi skal nu se på de matricer , hvorom det gælder at , altså hvor vi meget nemt kan udregne den inverse af matricen ved blot at konjugere og transponere. Selvom disse matricer ofte ser grimme og ubehagelige ud (rent numerisk) så er det nogle af de letteste at arbejde med, måske lige ud over diagonalmatricerne, og de har en særrolle i diagonalisering af nogle vigtige klasser af matricer i Kapitel 11.
En matrix kaldes en unitær matrix hvis .
Hvis herudover er en reel matrix, så vi har , kaldes den i stedet for en ortogonal matrix.
En vigtig geometrisk egenskab for unitære matricer , er at de bevarer det indre produkt, altså
Tilsvarende, ved at indsætte 's plads ovenfor, ses at unitære matricer også bevarer normen af en vektor:
En afbildning med denne egenskab kaldes en isometri.
Det næste resultat viser, at det ikke er kompliceret at konstruere unitære matricer; det svarer præcis til de kvadratiske matricer med ortonormale søjler. Her kender vi allerede Gram-Schmidt algoritmen til at bestemme ONB'er.
En matrix er unitær netop hvis dens søjler er ortonormale.
Bevis
Dette følger af definitionen på matrixmultiplikation opfattet på følgende måde. Lad og være komplekse matricer og lad være søjlerne i . Så er søjlerne i netop
Altså er søjlerne i netop og dermed er
Kravet om , er nu ensbetydende med at
altså at søjlerne i er ortonormale.
Lad os analysere hvordan en ortogonal matrix tager sig ud. Antag at
Så er
Derfor er søjlevektorerne i ortogonale enhedsvektorer. Sætter vi og har vi altså to muligheder for :
Geometrisk svarer til en rotation af planen, mens svarer til en spejling. Ved eksplicit udregning ser man at er en egenværdi for . En tilhørende egenvektor er retningsvektor for linjen, som der spejles i (som viser sig at være linjen gennem med vinklen med -aksen).
En unitær matrix er netop et komplekst tal med . Det vil sige for en passende vinkel . For to komplekse tal med er
et eksempel på en unitær matrix. Her kan man for eksempel benytte
for vilkårlige vinkler . For eksempel er
en unitær matrix svarende til .
Tre berømte unitære matricer er
som indgår i beskrivelsen af sammenhængen mellem en partikels spin og et elektromagnetisk felt inden for kvantemekanik.
Hvilke af nedenstående udsagn er rigtige?
Determinanten af en ortogonal matrix kan være alle tal
Determinanten af en ortogonal matrix er enten eller
Matricen som repræsenterer en rotation omkring en akse gennem origo i , med hensyn til standard basen, er en ortogonal matrix.
Matricen
er ortogonal for enhver vinkel .

9.4.1 QR dekomposition

Hvis vi benytter Gram-Schmidt algoritmen på søjlerne i en invertibel matrix fås
Efter normalisering fås nu af Proposition 9.11
Oversat giver det matrix identiteten
hvor er matricen med søjler og
Læg mærke til at matricen er unitær fordi dens søjler udgør en ONB, samt at er en øvre trekantsmatrix (den har nuller under diagonalen). Vi har vist følgende.
En invertibel matrix kan skrives som produkt af en unitær matrix og en øvre trekantsmatrix
Hvis er en reel matrix, så kan vælges som en ortogonal matrix.
Faktoriseringen kaldes, af åbenlyse årsager, en QR dekomposition eller QR faktorisering af .
Matricen
er en invertibel matrix. Ved hjælp af Gram-Schmidt algoritmen finder man med input fra søjlerne i , matricen indeholdende ONB
med QR dekompositionen

9.4.2 Den mirakuløse QR-algoritme

Det meste lineære algebra er langtidsholdbart matematik og flere hundrede år gammelt. Det hænder dog at ekstremt vigtige nye opdagelser bliver gjort for eksempel ved at eksperimentere med computere. Følgende næsten halvnaive algoritme til at udregne egenværdier for en kvadratisk matrix blev opdaget sidst i 1950'erne. Den hedder QR algoritmen og bygger netop på QR dekompositionen.
Indledningsvis sættes og algoritmen udregner nye QR dekompositioner i hvert trin med hensyn til det modsatte produkt af og fra foregående trin:
Læg her mærke til at og har de samme egenværdier, fordi de er similære:
Her har vi brugt at vi ved at den unitære matrix er invertibel. Under alle omstændigheder, hvis er en egenvektor til med egenværdi , så er en egenvektor til med den samme egenværdi .
Oftest vil diagonalelementerne i konvergere mod egenværdierne i den oprindelige matrix .
Betragt matricen
Man kan ret hurtigt regne ud at har egenværdierne og .
Lad os afprøve QR algoritmen rent numerisk på . De første trin giver
Eksperimentet synes at bekræfte at diagonalelementerne (markeret med rødt) i følgen af de øvrige trekantsmatricer i QR dekompositionerne konvergerer mod egenværdierne af den oprindelige matrix.

9.5 Ortogonal komplement og ortogonal projektion

Man har ofte brug for en anelse mere terminologi omkring underrum og ortogonalitet, herunder ortogonalt komplement og ortogonal projektion på et underrum. Dette er særlig vigtigt for at få en god geometrisk forståelse af hvad der foregår når man løser et ligningssystem, og det er helt essentielt for at forstå tilnærmelsesvise løsninger med mindste kvadraters metode i Kapitel 10.
For et underrum i knytter der sig et komplementært underrum med hensyn til det indre produkt. Dette underrum er defineret ved
og kaldes det ortogonale komplement til .
er altså samtlige vektorer som står ortogonalt på alle vektorer i . At er et underrum af følger af egenskaberne ved det indre produkt givet i Proposition 9.3.
Ortogonale komplementer giver en fornuftig måde at opdele vektorrum på med forskellige egenskaber, som eksempelvis er nyttigt til at beskrive løsninger til lineære ligningssystemer.
Lad være et underrum af . For enhver vektor findes entydige vektorer og
Formlen (9.6) kaldes den ortogonale dekomposition af med hensyn til og .
Bevis
Lad være en ONB for , og definer
Vi har altså konstrueret en vektor ud fra . Nu bestemmer vi
Ved samme argument som ved Gram-Schmidt algoritmen, har vi at for . Da er ortogonal på en basis for , så må , da den derved står ortogonalt på enhver linearkombination af .
Til sidst skal entydigheden af (9.6) bevises. Antag at
hvor og . Vi skal nu vise at og .
Ved at se på det sidste lighedstegn i (9.7) får vi
Men dette betyder at , altså det er vektorer der står ortogonalt på sig selv. Som set nedenfor, er der kun en vektor der opfylder dette, nemlig nulvektoren
Dette betyder at , og vi har dermed vist og .
Vektorerne i Sætning 9.30 har særlige navne, de kaldes nemlig ortogonale projektioner på henholdsvis og .
I den ortogonale dekomposition (9.6) kaldes for den ortogonale projektion af . Tilsvarende er den ortogonale projektion af .
På samme måde som (9.1) angiver en formel for den ortogonale projektion ind på et et-dimensionelt vektorrum (på linjen udspændt af en vektor), så giver Sætning 9.30 at man kan projicere ind på ethvert underrum af , eksempelvis et to-dimensionelt vektorrum (en plan udspændt af to vektorer) eller af en vilkårlig høj dimension .
Med underrummet i er ortogonalprojektion af og ortogonalkomplementet til er underrummet .
I modsætning til (9.1) giver Sætning 9.30 dog ikke nogen direkte formel til at udregne projektionerne eller .
Men her skal man bare kigge ind i beviset til Sætning 9.30, som afslører hvordan man kan bruge en ONB til at udregne en ortogonal projektion. Ydermere viser Pythagoras sætning hvad en ortogonal projektion af geometisk betyder: er vektoren i med korteste afstand til .
Lad være et underrum af , og lad være den ortogonale projektion af . Så gælder
Tallet kaldes afstanden fra til .
Hvis er en ONB for , så kan projektionen udregnes ved
Bevis
Anden del af sætningen kommer direkte fra konstruktionen i beviset i Sætning 9.30, så det er tilstrækkeligt at vise første del af sætningen.
Vi har at hvor og . Lad være en vilkårlig vektor i . Fra Pythagoras sætning (Sætning 9.8) har vi
Vi har vist at for alle .
I Eksempel 9.12 betragtede vi underrummet af med
Bemærk igen at er en ONB for (tjek det efter, hvis du ikke allerede har gjort det!). I Eksempel 9.12 fandt vi ud af at , hvor
Vi udregnede i eksemplet også
Denne vektor er den ortogonale projektion af ved brug af Sætning 9.32.
Vi har derfor at afstanden fra til er
Hvis havde været en vektor i , ville denne afstand naturligvis være , da i et sådan tilfælde ville .
Lad os nu bestemme det ortogonale komplement . Da og , så må vi have , så vi skal finde en enkelt vektor der står ortogonalt på vektorerne i ; eller rettere, ortogonalt på basisvektorerne . I lige præcis dette tilfælde er vi heldige at , fordi vi ved hvordan man kan finde en vektor i , nemlig den ortogonale projektion af ,
Så vi har .
Men lad os prøve at gå systematisk til værks, og se hvordan man kunne bestemme hvis f.eks. . Vi har tre ligninger i spil , og . Hvis vi samler en matrix ud fra basisvektorerne for , , så kan disse ligninger lige præcis skrives
Vi ser nu at , så en basis for kan findes ud fra nulrummet af en matrix, ligesom vi kender det fra Kapitel 6.

9.6 De fire fundamentale underrum

Som vi allerede så en indikation af i foregående eksempel, så er der en sammenhæng mellem søjlerummet af en matrix og nulrummet af .
For en matrix gælder
Bevis
Lad (der findes en vektor ) og lad (så ). Ved direkte udregning, og brug af Sætning 9.21, har vi
Så vi har at er en delmængde af . Nu skal vi tælle dimensioner, for at sætte lighedstegn mellem vektorrummene.
Lad være en matrix med rang . Fra dimensionsætningen (Sætning 6.29) har vi at og . Hvis vi nu lader være en ONB for og være en ONB for , så har vi samlet set at udgør ortonormale vektorer i og derfor en ONB for . Dette betyder altså at .
Ved at indse at , så får vi også fra Sætning 9.34 at . For enhver matrix har vi derfor følgende fire fundamentale underrum
Det er næsten for godt til at være sandt, at ud fra en vilkårlig matrix , så kan søjlerum og nulrum for og bruges til at finde baser for og . Bemærk at for en reel matrix , så er hvilket er rækkerummet af .
Specifikt, hvis man nærstuderer følgende figur, som er populariseret af Gilbert Strang, så kan man med stor sikkerhed påstå at man har styr på sine fundamentale begreber, og beskrivelse af løsninger, inden for lineær algebra.
Figuren ovenfor, samt en række andre figurer, er blevet brugt som redskaber til undervisning under navnet lineær algebraens fundamentalsætning (ikke at forveksle med algebraens fundamentalsætning).
Figur 9.35 fortæller stort set alt hvad der er værd at vide om lineære ligningssystemer med komplekse matricer med rang . Enhver vektor kan ortogonalt dekomponeres som hvor og , det vil sige at . Hvis vi udregner matrix-vektor produktet , ser vi
da vi har at komponenten sendes til . Bemærk at .
Specifikt, når vi løser et ligningssystem har det kun en løsning hvis . Blandt alle løsninger vil en entydig komponent komme fra , mens beskriver alle tænkelige bidrag fra de frie variable. Kun hvis kan der være en entydig løsning til ligningssystemet.
Vi skal se hvordan de fire fundamentale underrum på den mest fantastiske vis binder hele teorien sammen ved brug af singulær værdi dekomposition i Kapitel 12.

9.7 Opgaver

Find den inverse til matricen
uden at regne.
Gør detaljeret rede for at
er en ortogonalbasis for underrummet
af . Normaliser basen og benyt derefter Proposition 9.11 (se også Eksempel 9.12) til at afgøre om
Find en ONB for underrummet
af .
Find dekomposition af
Gør rede for dine udregninger og metoder.
(Eksamen januar 2021)
Lad være et underrum af , udspændt af vektorerne
  1. Gør rede for at , og er lineært uafhængige.
  2. Bestem en ortonormalbasis (ONB) for .
  3. Lad to vektorer og være givet ved
    Beregn ortogonal projektionerne af og .
    På baggrund af dette, gør rede for hvilken af vektorerne eller der tilhører .
(Eksamen juni 2016)
Betragt matricen
  1. Find baser for søjlerum og rækkerum . Hvad er deres dimensioner? Bestem nulrummet .
  2. Gør rede for, uden at udregne nulrummet , hvad er ud fra .
  3. Udregn en basis for .
  4. Find en ortonormalbasis (ONB) for det ortogonale komplement af i .