9Indre produkt og ortogonalitet
I planen har vi i Kapitel 1 set på det Euklidiske indre produkt (kaldes også nogle gange prikprodukt eller skalarprodukt) Ved hjælp af det indre produkt indførte vi begreber som normen (længden) af en vektor og ortogonalitet. Normen af en vektor blev defineret som og to vektorer blev kaldt vinkelrette eller ortogonale hvis I dette kapitel indfører vi den oplagte generalisering af det indre produkt, fra planen til vilkårlige søjlevektorer i (husk at står for enten de reelle tal eller de komplekse tal ). Her skal man være særlig opmærksom på, at der for komplekse tal også indgår en kompleks konjugering, som er helt essentiel for at vi kan tale om længden af en kompleks vektor. Vi husker, at konjugeringen af et komplekst tal, på standard form, er givet ved at skifte fortegn på imaginærdelen: og vi husker, at der helt særligt fås et reelt tal, når et komplekst tal ganges med sin komplekst konjugerede:
Lad Det Euklidiske indre produkt, mellem og er defineret som
Vektorerne og kaldes ortogonale, skrevet hvis
Den Euklidiske norm (længden) af er defineret som
En vektor kaldes en enhedsvektor hvis
9.1 Egenskaber for indre produkter og normer
Der gælder følgende helt essentielle egenskaber for det Euklidiske indre produkt, som umiddelbart følger fra Definition 9.1.
Lad og Så gælder:
- og
- samt hvis og kun hvis,
Når egenskaberne ovenfor blev kaldt helt essentielle, er det fordi disse egenskaber faktisk er definitionen af hvad et generelt indre produkt skal opfylde. Det er muligt at definere indre produkter på andre typer af vektorrum end for søjlevektorer, eksempelvis på vektorrum af polynomier eller kvadratisk integrable funktioner. Hovedessensen er, at de ovenstående egenskaber er nok til at kunne vise mange af resultaterne i dette kapitel, med brug af indre produkter på abstrakte vektorrum; eksempelvis kan Gram-Schmidt algoritmen også anvendes til at bestemme ortogonale funktioner, som er en vigtig del af teorien bag signalbehandling.
Lad så gælder følgende:
- Pythagoras sætning:
- Cauchy-Schwarz ulighed:
- Trekantsuligheden:
- Parallelogramloven:
- Polariseringsidentiteten:
Pythagoras sætning
Beviset er en direkte udregning, hvor sammenhængen mellem indre produkt og norm udnyttes, samt at :
Det er nu tydeligt, at præcis når ligheden i Pythagoras sætning er sand.
Cauchy-Schwarz ulighed
Hvis er uligheden sand, da der står på begge sider. Antag nu at så kan vi bestemme den ortogonale projektion af på ved brug af formlen i (9.1), således at og Nu kan vi lave en udregning, hvor udtrykket for indsættes:
Nu kan vi gange igennem med på begge sider, for derefter at tage kvadratroden (som er en voksende funktion), for at få
Trekantsuligheden
For et komplekst tal gælder
Fra (9.2) i beviset for Pythagoras sætning, får vi derfor
Beviset følger nu ved brug af Cauchy-Schwarz ulighed, samt at kvadratrod-funktionen er voksende:
Parallelogramloven
Fra (9.2) i beviset for Pythagoras sætning har vi følgende, samt ved udskiftning af med :
Ved at addere de to udtryk ovenfor fås parallelogramloven.
Polariseringsidentiteten
9.2 Ortonormalbasis (ONB)
De fleste kan godt lide at bruge standardbasen for på grund af de flotte geometriske egenskaber den har. Hver vektor peger ud af akserne i det typiske retvinklede koordinatsystem, og koordinaterne til vektor kan direkte aflæses fra vektorens indgange. Vi har nemlig Det at vi kan "aflæse" koordinaterne nemt, svarer præcis til udregningen af koordinatvektoren ved de indre produkter Dette er betydelig lettere end at skulle løse et ligningssystem, for at finde en koordinatvektor. Vi skal se at denne lettere måde at finde koordinater på, hænger sammen med ortogonalitet af basisvektorerne.Først skal vi overbevise os selv om, at ortogonale vektorer er lineært uafhængige, hvilket fra et geometrisk synspunkt nok ikke er så overraskende.
Hvis er indbyrdes ortogonale vektorer, for alle og ingen af vektorerne er nulvektorer, så er lineært uafhængige.
For at undersøge lineær uafhængighed af vektorerne, ser vi på en linearkombination
Af ortogonaliteten får vi derfor
Vi konkluderer at hvert for da var en af antagelserne i sætningen. Altså er vektorerne lineært uafhængige.
- En basis for et underrum af kaldes en ortogonalbasis hvis for alle
- Hvis en ortogonalbasis består af enhedsvektorer, for alle så kaldes det en ortonormalbasis (ONB).
Da det er et vigtigt begreb, udpensler vi her kravene til at er en ONB for et underrum :
- skal være indbyrdes ortonormale, det vil sige for alle indeks og skal gælde Udtrykket på højresiden ovenfor betegnes ofte hvilket er Kronecker's delta.
- skal udgøre en basis for hvilket typisk kan vises med en kombination af Sætning 9.5 og Sætning 6.18.
Lad være en ONB for et underrum For ethvert gælder
Lad være koordinatvektor for med hensyn til
Nu følger af ortonormaliteten at
hvilket viser første påstand, at koordinaterne er givet ved de indre produkter.Den anden påstand følger af regneregler for det indre produkt:
hvor vi på samme måde har benyttet at for og
De tre vektorer
udgør en ONB for Dette ses ved, at vektorerne er normaliserede og ortogonale (tjek det gerne!), samt af Sætning 9.5. Det er nu ikke så kompliceret at bruge Proposition 9.8 til at afgøre om en vektor ligger i Dette sker, hvis og kun hvis,
Hvis for eksempel
er
hvilket tydeligvis ikke er lig og derfor har vi Derimod har vi med
at
det vil sige
9.3 Gram-Schmidt algoritmen
Vi har set ovenfor, at ONB'er er særligt nemme at regne med. Spørgsmålet er om alle underrum af har en ONB? Her er svaret ja, og grunden ligger i en klassisk og smuk algoritme, tilmed opfundet af en dansker. Ideen kommer fra formlen for projektion af en vektor på en anden vektor, som vi genopfriskede i (9.1).Hvis er en ortogonalbasis for et underrum kan vi finde en ONB ved at normalisere: Ved at sætte dette ind i Proposition 9.8 for et får vi den tilsvarende formel for koordinaterne i en ortogonalbasis: Hvis vi kigger på de enkelte led, og sammenligner med (9.1), ser vi at er summen af de ortogonale projektioner af på henholdsvis En måske vigtigere observation fra (9.7) er, at vi kan finde komponenten af i én ortogonal retning, ved at trække alle de andre ortogonale projektioner fra For eksempel er den sidste komponent Dette er princippet bag Gram-Schmidt algoritmen: Tag en basis for et vektorrum, konstruer nye vektorer ved induktivt at trække ortogonale projektioner fra, for derved at danne en ny ortogonalbasis for det samme vektorrum.
Lad være lineært uafhængige vektorer i og lad
Ved algoritmen
opnås ortogonale vektorer så og
En ONB basis for opnås ved at normalisere basisvektorerne:
Fra ortogonal projektionerne har vi, at er indbyrdes ortogonale vektorer.Fra processen i (9.8) ser vi, at -vektorerne er linearkombinationer af -vektorerne (indsæt udtrykkene for i højresiden). da -vektorerne er lineært uafhængige. Tilsvarende, ved at flytte de ortogonale projektioner til venstresiden i (9.8), ser vi også at -vektorerne er linearkombinationer af -vektorerne. Det betyder altså at
Da er indbyrdes ortogonale, er de blandt andet også lineært uafhængige (Sætning 9.5), og udgør derfor en basis for
Vi betragter underrummet udspændt af vektorerne
Vi benytter Gram-Schmidt algoritmen til at finde en ONB for Første trin er
Dernæst udregner vi
Så vidt så godt; man kan tjekke efter for regnefejl, ved at undersøge om Sidste skridt er nu udregningen af
via
Hermed er en ortogonalbasis for Da og
vil
være en ONB for
9.3.1 Den modificerede Gram-Schmidt algoritme
Gram-Schmidt algoritmen, som angivet ovenfor, er numerisk ustabil i praksis. Ved en lille modifikation med hensyn til udregningen af fås en numerisk stabil algoritme, som er mindre følsom overfor afrundingsfejl. Dette modificerede trin består i at udregne gennem følgende kæde af operationer: med som resultat. Eksempel
Lad os benytte vektorerne
fra sidste eksempel, som input til den modificerede Gram-Schmidt algoritme. Første skridt giver
Udregningen af foregår som
med
Udregningen af foregår som
og
med endeligt resultat
i fin overensstemmelse med foregående eksempel.
Denne algoritme kaldes den modificerede Gram-Schmidt algoritme. Den numeriske stabilitet illustreres i eksemplet nedenfor.
For at uddybe hvad der egentlig menes med numerisk stabil, eller mindre følsom overfor afrundingsfejl, kan man som eksempel afprøve Gram-Schmidt algoritmen, og den modificerede Gram-Schmidt algoritme på vektorerne
med afrundingsfejlen Hvis en lommeregner kan vise cifre i displayet og så er på lommeregneren. Med afrunding og normering i hvert trin, giver den klassiske Gram-Schmidt algoritme
Læg mærke til at hvilket er en grim fejl som følge af afrundingen, som ikke afhænger af hvor lille bliver.Derimod giver den modificerede Gram-Schmidt algoritme
Her er
9.4 Adjungerede, unitære og ortogonale matricer
For en matrix er den kompleks konjugerede af Det svarer til, at komplekst konjugere hver af indgangene i matricen: Nu skal vi introducere en matrix, som har helt særlige egenskaber når det kommer til det indre produkt, og som bliver brugt i resten af kapitlerne.
Den adjungerede defineres som den kompleks konjugerede og transponerede af :
Det er meget vigtigt ikke at forveksle den adjungerede med den klassisk-adjungerede ; se også Sætning 5.14 og Bemærkning 5.15. Bemærk fra Definition 11.1, at en matrix der opfylder både kendes som en Hermitisk matrix og som en selvadjungeret matrix.For andre indre produkter på vektorrum (eksempelvis på funktionsrum), er det egenskaben fra Sætning 9.16, der entydigt definerer den adjungerede med hensyn til det indre produkt.
For eksempel er
Lad være en matrix, så gælder
Lad være en matrix.
- Hvis er kvadratisk:
(i): Af dimensionssætningen (Sætning 6.25) er det tilstrækkeligt at vise
For nogle komplekse søjlevektorer hvor vi opskriver en linearkombination der giver
er lineært uafhængige, hvis og kun hvis, er lineært uafhængige.Vi har hvis og kun hvis, da der eksisterer så
Samlet set har vi af Sætning 6.18.(ii): Af Proposition 5.9 er og resultatet følger nu af Definition 5.2.
- Matrix kaldes en unitær matrix hvis
- Reel matrix kaldes en ortogonal matrix hvis
En kvadratisk matrix er unitær netop hvis dens søjler er indbyrdes ortonormale (indbyrdes ortogonale enhedsvektorer).
Dette følger af definitionen på matrixmultiplikation. Lad være en kvadratisk matrix, så er
Kravet om kan nu oversættes til
altså at søjlerne i er indbyrdes ortonormale.
Lad os analysere hvordan en ortogonal matrix tager sig ud.
Antag at
Så er
Af Proposition 9.19 er søjlevektorerne i ortogonale enhedsvektorer. Sætter vi og har vi altså to muligheder for :
Geometrisk svarer til en rotation af planen, mens svarer til en spejling. Ved eksplicit udregning ser man, at er en egenværdi for En tilhørende egenvektor er retningsvektor for linjen som der spejles i (som viser sig at være linjen gennem med vinklen med den positive del af -aksen).En unitær matrix er netop et komplekst tal med Det vil sige, for en passende vinkel For to komplekse tal med er
et eksempel på en unitær matrix. Her kan man benytte
for vilkårlige vinkler For eksempel er
en unitær matrix, svarende til Tre berømte unitære matricer er
som indgår i beskrivelsen af sammenhængen mellem en partikels spin og et elektromagnetisk felt inden for kvantemekanik.
9.4.1 Diskret Fourier transformation
En af de allervigtigste anvendelser af en ONB for som samlet set giver en unitær matrix, er den diskrete Fourier transformation Lad så defineres matricen Specifikt, er indgangene Givet en vektor fås den diskrete Fourier transformation af i form af ved Indgangene bliver Af notationsmæssige årsager, har vi indekseret og med indeks Et konkret eksempel på matricen (9.10) er for hvor :
Matricen fra (9.10) er unitær.
Vi starter med at vise sum-formlen for en trunkeret geometrisk række: Lad med så er
Ved at opskrive summen, samt gange denne med ses at
Ved differencen overlever derfor kun fra første udtryk, og fra det andet, hvilket giver (9.12):
er åbenlyst unitær, så antag at og Hvis er 'te søjle af for så har vi af (9.12):
da Hvorimod vi har
Dermed er en kvadratisk matrix med indbyrdes ortonormale søjler, så af Proposition 9.19 er unitær.
I Figur 9.2 er et eksempel på hvordan man kan "sample" en funktion/signal
i diskrete punkter med for hvor der i alt anvendes sampling-punkter. Ud fra dens diskrete Fourier transformation, kan aflæses information om frekvensindholdet.
Venstre: Funktionen samt sampling-punkterne for Højre: Skaleret realdel og skaleret imaginærdel af indgangene i den Fourier transformerede vektor for
Den samplede funktion består af trigonometriske funktioner, hvor "frekvensen" går op til (frekvensen er det reciprokke tal til den mindste periodicitet af de trigonometriske funktioner som indgår; her er den mindste periodicitet fra ). Et berømt resultat kaldet Nyquist-Shannon sampling sætning, fortæller at det eksakte frekvensindhold kan ses fra den diskrete Fourier transformation, hvis afstanden mellem jævnt fordelte sampling-punkter på intervallet er mindre end I dette eksempel er det derfor nok med sampling-punkter, for at se alt frekvensindholdet. I praksis betyder det, at man ud fra ganske få "målinger" på et signal, kan dekomponere signalet i dets frekvensbestanddele.Hvordan kommer det til udtryk? Her er og er de diskrete punkter hvor funktionsværdierne bestemmes. Så fra (9.13) har vi
Fra Figur 9.2 ses, at især og er store bidrag i Fourier transformationen, hvilket svarer til led af typen:
hvor periodiciteten af den komplekse eksponentialfunktion er anvendt. Men vi har netop at
hvilket svarer til samplingen af som er det største bidrag til Tilsvarende har vi mindre bidrag fra
hvor periodiciteten af den komplekse eksponentialfunktion igen er anvendt. Dette er i fin overensstemmelse med
svarende til bidragene for og i
Den diskrete Fourier transformation, gennemgået her, relaterer sig til andre Fourier transformationer, der agerer på funktionsrum og rum af talfølger. Dette er emner der gennemgås i et kursus om Fourieranalyse.
- Fourier transformation hvor er det uendelig dimensionale vektorrum af kvadratisk integrable funktioner. For funktion er den givet ved og med invers Fourier transformation
- Diskret-tid Fourier transformation (kaldes også nogle gange diskret Fourier transformation), hvor er det uendelig dimensionale vektorrum af kvadratisk summable talfølger. For talfølge er den givet ved og med invers diskret-tid Fourier transformation Dette har også en stærk forbindelse til Fourierrækker.
- Alle Fourier transformationerne ovenfor er unitære. For og skal dette forstås med hensyn til adjungerede operatorer i de standard indre produkter, som defineres på ovenstående vektorrum.
- Der eksisterer også andre Fourier transformationer, som relaterer sig til ovenstående ved, for eksempel, en anden skalering; disse er ikke nødvendigvis unitære. Så man skal altid vide hvilken definition af Fourier transformationen man har fat i.
9.5 QR dekomposition
Hvis vi benytter Gram-Schmidt algoritmen (Sætning 9.10) på søjlerne i en invertibel matrix fås Efter normalisering fås nu af Proposition 9.8: Oversat giver det matrix-identiteten hvor og Læg mærke til at matricen er unitær, da dens søjler udgør en ONB for , samt at er en øvre trekantsmatrix (den har nuller under diagonalen). Vi har konstruktivt vist nedenstående resultat i tilfældet hvor er invertibel. For en generel kvadratisk matrix, skal ovenstående konstruktion kun modificeres en lille smule, som set i beviset nedenfor.
Lad være en kvadratisk matrix. Der eksisterer en unitær matrix og en øvre trekantsmatrix så
Hvis er en reel matrix, kan og også vælges som reelle matricer.
Vi forkorter Gram-Schmidt algoritmen (Sætning 9.10) som GS.Lad og gennemgå GS på dens søjler, hvor søjler springes over hvis de i ortogonaliseringen giver undervejs. ONB for der kommer fra GS, indsættes på de tilsvarende søjler i På de resterende søjler af (svarende til hvor GS sprang over), indsættes en vilkårlig ONB for det ortogonale komplement af søjlerummet (se næste afsnit for detaljer), hvilket også eksisterer af GS. Af Proposition 9.19 er unitær.Med denne konstruktion vil vi vise
Vi viser dette med induktion, hvor induktionsstarten er sand, da er parallel med af GS. Antag at (9.14) er sand op til Hvis ikke springes over af GS, så har vi direkte derfra at
Hvis blev sprunget over af GS, er det fordi er udspændt af de tidligere søjler i hvor induktionshypotesen nu anvendes:
Det vil sige, for findes entydige koordinater så
Dermed bliver 'te søjle af netop og så er en øvre trekantsmatrix.Det er klart fra ovenstående, at hvis er reel, kan konstruktionen af og dermed også bestå af reelle søjlevektorer.
Matricen
er en invertibel matrix. Ved hjælp af Gram-Schmidt algoritmen finder man, med input fra søjlerne i matricen indeholdende ONB
med QR dekompositionen
9.5.1 Den mirakuløse QR algoritme
Det meste lineær algebra er langtidsholdbart matematik og flere hundrede år gammelt. Det hænder dog, at ekstremt vigtige nye opdagelser bliver gjort, for eksempel ved at eksperimentere med computere. Følgende næsten halvnaive algoritme til at udregne egenværdier for en kvadratisk matrix blev opdaget sidst i 1950'erne. Den hedder QR algoritmen, og bygger netop på QR dekompositionen.Indledningsvis sættes , og algoritmen udregner nye QR dekompositioner i hvert trin med hensyn til det modsatte produkt af og fra foregående trin: Læg her mærke til, at og har de samme egenværdier, fordi de er similære: Hvis er en egenvektor til tilhørende egenværdi så er en egenvektor til tilhørende den samme egenværdi For en symmetrisk matrix det vil sige er reel og vil diagonalelementerne i ofte konvergere mod egenværdierne i den oprindelige matrix ; dette er for eksempel sandt, hvis alle egenværdier har algebraisk multiplicitet og har forskellige absolutte værdier.
Betragt matricen
Man kan ret hurtigt regne ud, at har egenværdierne og Lad os afprøve QR algoritmen rent numerisk på De første trin giver (i selve beregningerne er anvendt flere decimaler, end der er vist nedenfor):
Eksperimentet synes at bekræfte, at diagonalelementerne (markeret med rødt) i følgen af konvergerer mod egenværdierne af den oprindelige matrix.
9.6 Ortogonal komplement og ortogonal projektion
Man har ofte brug for en anelse mere terminologi omkring underrum og ortogonalitet, herunder ortogonalt komplement og ortogonal projektion på et underrum. Dette er særlig vigtigt, for at få en god geometrisk forståelse af hvad der foregår, når man løser et lineært ligningssystem, og det er helt essentielt for at forstå tilnærmelsesvise løsninger med mindste kvadraters metode i Kapitel 10.
I resten af dette afsnit har vi underrum og hvis det større rum ikke er nævnt, er det underforstået at
Det ortogonale komplement til underrummet består af de der står ortogonalt på samtlige vektorer i :
For ethvert findes entydige vektorer:
- (den ortogonale projektion af på ),
- (den ortogonale projektion af på ),
Lad være en ONB for og definer
Vi har altså konstrueret en vektor ud fra Nu bestemmer vi
Ved samme argument som ved Gram-Schmidt algoritmen, har vi for Da er ortogonal på en basis for må da den derved står ortogonalt på enhver linearkombination af Til sidst skal entydigheden af (9.15) bevises. Antag at
hvor og Ved at se på det sidste lighedstegn i (9.16) får vi
Men dette betyder at altså det er vektorer der står ortogonalt på sig selv. Som set nedenfor, opfyldes dette kun af nulvektoren:
Altså er som medfører og
Den ortogonale dekomposition i Sætning 9.28 kan også formuleres således: er en direkte sum af og hvilket skrives
Den ortogonale projektion er den entydige løsning til minimeringsproblemet
Tallet kaldes afstanden fra til .Hvis er en ONB for kan projektionen udregnes ved
Anden del af sætningen kommer direkte fra konstruktionen i beviset for Sætning 9.28, så det er tilstrækkeligt at vise første del af sætningen.Lad være en vilkårlig vektor i Fra Pythagoras sætning (Sætning 9.4) og den ortogonale dekomposition (Sætning 9.28), har vi
Vi har vist for alle Der er også kun lighed ovenfor hvis
I Eksempel 9.9 betragtede vi underrummet af med
Bemærk igen, at er en ONB for (tjek det efter, hvis du ikke allerede har gjort det!). Eksempel 9.9 viste hvor
I eksemplet udregnede vi også
Dette er netop projektionen ved brug af Sætning 9.30.Vi har derfor at afstanden fra til er
Hvis havde været en vektor i ville denne afstand naturligvis være da i et sådan tilfælde ville Lad os nu bestemme det ortogonale komplement Da og må vi have så vi skal finde en enkelt vektor der står ortogonalt på vektorerne i ; eller rettere, ortogonalt på basisvektorerne I lige præcis dette tilfælde er vi heldige at fordi vi ved hvordan man kan finde en vektor i nemlig den ortogonale projektion af på
Så vi har Men lad os prøve at gå systematisk til værks, og se hvordan man kunne bestemme hvis f.eks. Vi har tre ligninger i spil ud fra at vektorer i skal være ortogonale på :
Hvis vi samler en matrix ud fra basisvektorerne for kan disse ligninger lige præcis skrives
Vi ser nu at så en basis for kan findes fra nulrummet af en matrix, ligesom vi kender det fra Kapitel 6.
Lad os igen tage udgangspunkt i Eksempel 9.9, med underrummet af for ortonormale
Så er projektionsmatricerne på og på givet ved:
Vi kan nu regne efter, at vi får samme resultat for projektionerne af som i foregående eksempel:
og
9.7 De fire fundamentale underrum
Som vi allerede så en indikation af i Eksempel 9.31, er der en sammenhæng mellem søjlerummet af en matrix og nulrummet af
For enhver matrix er
Lad (der findes en vektor så ) og lad (så ). Ved direkte udregning, og brug af Sætning 9.16, har vi
Så vi har at Nu skal vi tælle dimensioner for at sætte lighedstegn mellem vektorrummene.Lad være en matrix med rang Fra dimensionsætningen (Sætning 6.25) og Sætning 9.17, har vi at og Hvis vi nu lader være en ONB for og være en ONB for så har vi samlet set at udgør ortonormale vektorer i og derfor en ONB for (Sætning 9.5 og Sætning 6.18). Dette betyder altså at
har en løsning, hvis og kun hvis, alle løsninger til opfylder
Det at har en løsning, er ækvivalent med af Sætning 9.33. Men dette er ækvivalent med, at samtlige løsninger til opfylder
9.8 Opgaver
Hvilke af nedenstående udsagn er rigtige for det indre produkt i Definition 9.1?
Hvis er
Lad Prøv at bevise
uden at bruge Cauchy-Schwarz ulighed (Sætning 9.4). Lykkedes det? Hvis ikke, prøv med.
Lad være underrummet i med en basis bestående af vektorerne
Hvilke af nedenstående udsagn er rigtigt?
er en ortogonalbasis for
er en ONB for
er en ONB for
Hvad gælder for kompleks konjugering af en matrix?
For to matricer og hvor matrixproduktet giver
mening, gælder
For to matricer og hvor matrixproduktet giver
mening, gælder
Hvilke af nedenstående udsagn er rigtige?
Determinanten af en ortogonal matrix kan være alle tal
Determinanten af en ortogonal matrix er enten eller
Matricen som repræsenterer en rotation, omkring en akse gennem origo i med hensyn til standardbasen, er en ortogonal matrix.
Matricen
er ortogonal for enhver vinkel
Find den inverse til matricen
uden at regne.
Gør detaljeret rede for, at
er en ortogonalbasis for underrummet
af Normaliser basen, og benyt derefter Proposition 9.8 (se også Eksempel 9.9) til at afgøre om
Find en ONB for underrummet
af
Find QR dekomposition af
Gør rede for dine udregninger og metoder.
(Eksamen januar 2021)Lad være et underrum af udspændt af vektorerne
- Gør rede for, at og er lineært uafhængige.
- Bestem en ortonormalbasis (ONB) for
- Lad to vektorer og være givet ved Beregn ortogonal projektionerne af og på På baggrund af dette, gør rede for hvilken af vektorerne eller der tilhører
(Eksamen juni 2016)Betragt matricen
- Find baser for søjlerum og rækkerum Hvad er deres dimensioner? Bestem nulrummet
- Gør rede for, uden at udregne nulrummet hvad er ud fra
- Udregn en basis for
- Find en ortonormalbasis (ONB) for det ortogonale komplement af i
Vis at enhver egenværdi for en unitær matrix opfylder
Lad være en kvadratisk matrix.
- Vis at er egenværdi for hvis og kun hvis, er egenværdi for HintVis og benyt at
- Lad være en egenværdi for og en egenværdi for Hvis er en egenvektor for hørende til og en egenvektor for hørende til vis at
Lad være en projektionsmatrix for en ortogonal projektion. Vis at
For en vilkårlig matrix definer lineær transformation men restringeret til Gør rede for, at er invertibel (brug gerne resultater fra Opgave 7.11), det vil sige, at kan repræsenteres af en invertibel matrix.