Vi vil indføre (konkrete) vektorrum over , hvor enten er de
reelle tal eller de komplekse . Sjovt nok afhænger rammen
eller beviserne ikke af om er netop eller og det er da
også en af grundene til at indføre vektorrum som abstrakt begreb
senere. Faktisk kan helt generelt være det man i matematikken
kalder et legeme (engelsk:
field) - et
algebraisk system, hvor det er muligt at dividere med alle elementer
.
6.1.1 De reelle tal
En helt naturlig generalisering af vektorer i planen er
søjlevektorer af længde med indgange i :
To vektorer
kan adderes plads for plads som
og vektoren kan ganges med et tal som
Vi vil ofte bruge følgende notation: Hvis
er en søjlevektor, så er den indgang i som står i række nummer .
6.1.2 Geometri, linear algebra og vektorer i rummet.
Det er ofte en god hjælp for forståelsen at forestille sig vektorer i rummet.
Vi plejer jo at visualisere som det rum vi allesammen lever i.
Metoden har visse ulemper som vi vil diskutere løbende alt efter at vi opdager dem.
Den første ulempe er at vi har brug for et punkt. I er der en vektor der er speciel, nemlig
nulvektoren , fordi den er den eneste vektor der opfylder at for alle vektorer .
Men i det rum vi lever i findes der ikke et punkt som er verdens centrum. Marcels kat ville sige at det punkt findes, og at det er den selv, men nabokatten Alfred ville ikke være enig deri. Så det første vi skal gøre er at vælge et punkt i rummet som vi kalder for , nulvektoren eller ''origo''. Det er ligegyldigt hvad for et punkt vi vælger, men når vi først har valgt et punkt, så er vi nødt til at holde fast i det valg.
Det næste valg vi gør er at vælge et koordinatsystem med origo i det punkt vi har valgt. Når vi har gjort alt dette, kan vi sige at en søjlevektor svarer til nøjagtig et punkt i rummet. Men husk det nu og glem det ikke - det punkt vil også afhænge af valget af origo og af valget af koordinatsystem.
Noget man skal bide mærke i er at skalering med et tal og addition af to vektorer ikke behøver referere til
valget af koordinatsystem, det kan beskrives helt geometrisk!
En anden måde at udtrykke det på, er at sige at hvis vi udstyrer vores fysiske rum med et origo (for eksempel en kat), så danner det et abstrakt vektorrum.
At er et abstrakt vektorrum over et legeme betyder:
Givet og kan vi definere og .
.
Der findes en vektor så at for alle .
For og er .
For og er .
For og er .
For er .
Abstrakte vektorrum forekommer meget ofte både i matematikken og i anvendelser. Vi vil ikke
diskutere dem videre i disse noter, men de underrum af som vi kommer at beskæftige os en del med er fortræffelige eksempler på abstrakte vektorrum. Hvis man forstår dem, så er man også meget tæt på at forstå abstrakte vektorrum generelt.
Vi anbefaler i øvrigt meget stærkt at tage et kig på Essence of linear algebra af 3Blue1Brown.
6.1.3 De komplekse tal
På analog vis definerer vi for de komplekse tal
hvor addition af vektorer defineres som i (6.1) og
talmultiplikation som i (6.2), men nu med komplekse tal i stedet for reelle tal.
Marcel beklager det dybt, men der er ikke en god måde at visualisere for .
For har vi allerede diskuteret en geometrisk beskrivelse af til bevidstløshed i
kapitlet ''De komplekse tal''.
6.2 Underrum
Lad nu betegne enten eller . Bemærk at ligesom
indeholder nulvektoren , som består af på alle indgangene og
at
for alle .
Lad være et naturligt tal.
Et underrum af er en ikke tom delmængde
som opfylder at
Betragt delmængden af
. For hvilke er et underrum af ?
.
.
.
6.2.1 Linearkombinationer og span af vektorer
Lad .
En vektor på formen
med kaldes en linearkombination af .
Mængden
af alle mulige linearkombinationer af er et underrum af og kaldes for
span af vektorerne .
Vi ved i hvert fald at span af nogle vektorer i rummet er et underrum, så det må være en af de fire typer af underrum: punkt, linje, plan eller hele rummet. Hvis vi har en mængde af vektorer i , hvad for type underrum vil vi de udspænde? Ja, det er et godt spørgmål, tak for at I stillede det. Vi skal lige tænke os om, og når vi har tænkt os om så vender vi tilbage til det.
Lad
være vektorer i . Forklar hvorfor
det vil sige hvorfor alle vektorer i er linearkombinationer af og .
Lad nu
være vektorer i . Hvordan afgør man om i dette tilfælde?
Lad være vektorer i et underrum af . Forklar hvorfor
En helt fundamental observation er at span ikke ændrer sig ved
operationer svarende til rækkeoperationerne for en matrix. Læg også
mærke til (δ) i Proposition 6.7, som
forklarer at span blot er en ramme for løsning af ligninger.
Lad og
hvor .
Så gælder
(Ombytning af vektorer)
(Multiplikation af en vektor med et tal )
for .
(Addition af et multiplum af en vektor til en anden vektor)
for alle .
Lad være matricen med søjler
. Vektoren ligger i
hvis og kun hvis ligningssystemet
har en løsning .
Vi beviser kun (γ) og (δ) her. Lad
Vi skal bevise at . Hvis en vektor så er
for passende . En omskrivning giver
hvilket viser at . Modsat hvis nu , så er
for passende . Her giver en lidt mere indviklet omskrivning at
hvilket viser at . Derfor er .
Den sidste påstand (δ)
følger naturligt af definitionen af matrixmultiplikation, idet
hvor
Giv et alternativt bevis for 6.7(γ) på følgende måde.
Vis først at enhver af vektorerne er indeholdt i . Brug opgave 6.6 for at konkludere at Vis omvendt at enhver af vektorerne er indholdt i
. Overvej at det nu følger at
For en ekstra stjerne, overvej at man med densamme metode også kan bevise
6.7(α) og
6.7(β).
Betragt nu vektorerne
i .
Lad os undersøge om
Her bruger vi Proposition 6.7(δ) og opstiller ligningssystemet
, hvor er matricen med søjler og . Da
hvor sidste række indikerer (hvad sker der her? hvorfor gør den det?),
ses at ligningssystemet ikke har en løsning og dermed at .
6.2.2 Nulrum, søjlerum og rækkerum for matricer
Tre helt fundamentale eksempler på underrum er knyttet til en
matrix.
Det følger at er et underrum af , fordi
hvis og .
På næsten samme måde vises at er et underrum af : Hvis
og skal vi vise at og
. Men betyder at
for passende . Derfor gælder
og
Ved at sammenligne definitionerne af rækkerum og søjlerum ser vi at .
Ved at bruge (β) på matricen indser vi at
er et underrum af .
Men da er er et underrum af .
Underrummet kaldes for nulrummet for ,
kaldes for søjlerummet for og rækkerummet for
.
Der er virkeligt gode geometriske beskrivelser af disse tre underrum, men det er nemmere at
forstå dette efter at vi har forklaret hvad en lineær transformation er. Vi vender tilbage.
Disse definitioner kan være svære at forstå uden et konkret eksempel.
Lad os se på matricen
Her er søjlerummet
På samme måde ses rækkerummet at være
Nulrummet er løsningerne til det homogene ligningssystem det vil sige
I Eksempel 6.13 giver vi et eksempel på hvordan man
udregner via RREF. Ikke overraskende er der tale om at løse det
homogene ligningssystem ved hjælp af af bundne og frie variable.
Eksempel 6.11 viser at
er span af rækkevektorerne (transponeret) og
span af søjlevektorerne for en
matrix .
En særdeles vigtig observation er at nulrummet og rækkerummet ikke
ændres ved rækkeoperationer på matricen. Desuden er søjlerummet
relateret til pivotrækkerne i matricens RREF.
Lad være en matrix og dens RREF. Så
er
Søjlerummet er span af søjlerne i svarende til
pivotsøjlerne i det vil sige de søjler eller søjlenumre i , som
indeholder pivotelementerne.
Der findes en invertibel matrix så . Da er
invertibel ses at holder hvis og kun hvis
. Dette oversættes umiddelbart til at
.
På samme måde får vi at , hvor
og dermed er .
Det var nemt nok. Det er lidt mere indviklet at vise påstanden om søjlerummet .
Da er på RREF så er pivotsøjlerne i er simpelthen vores standard basisvektorer hvor
Span af disse pivotsøjler er altså alle vektorer på formen
Søjlerummet af er åbenbart span af pivotsøjlerne (hvorfor er dette egentlig så åbenbart? ).
Hvis er på RREF kunne den for eksempel se sådan ud:
Nu overvejer vi følgende. Antag at er en mængde af vektorer, og at er en anden mængde af vektorer. Hvis det nu er så heldigt at
og er en invertibel matrix, så er også
Hvis nu er pivotsøjlerne i og
er alle søjler i så er ifølge det vi lige har overvejet
og dermed
Men da er jo netop den søjle i der har søjlenummer (overvej også det!),
og vektorerne er de søjler i der har de samme søjlenummer som pivotsøjlerne i .
Vi giver et eksempel på hvordan nulrummet , rækkerummet
og søjlerummet udregnes for en matrix .
Lad
Først rækkereducerer vi til RREF:
I første adderes første række til anden række, trækkes fra tredie række og adderes til fjerde række. I anden trækkes anden række fra fjerde række. I tredje adderes anden række til første række.
Sidste matrix er på RREF. Lad os kalde den . Nu ved vi fra
Proposition 6.12 at og . De bundne variable
er . De frie er . Det vil sige et typisk element i
har formen
Heraf fremgår det at
samt
Læg mærke til at vi gik fra at have rækkerummet som span af
vektorer (de rækker (transponeret) i ) til et span af
kun vektorer.
Svarende til pivotsøjlerne i bliver
svarende til de to første søjler i igen i følgende Proposition 6.12.
6.3 Lineær uafhængighed
De to vektorer
er specielle i og med at ingen af dem kan udelades fra
uden at bliver mindre eller ændres (fra til -aksen
eller -aksen). Det er helt anderledes med for eksempel vektorerne
Her ændres
ikke hvis en af dem udelades.
Vektorerne kaldes
lineært uafhængige hvis de er minimale i den forstand at
ingen af dem kan udelades fra
uden at ændres. Vektorerne kaldes for lineært afhængige,
hvis de ikke er lineært uafhængige.
Definition 6.14 er ækvivalent med at
for . Faktisk gælder følgende.
Vektorerne er lineært uafhængige hvis og kun hvis
man af
for kan slutte at
Lad og lad betegne matricen med søjler
Så er
lineært uafhængige hvis og kun hvis ligningssystemet
kun har løsningen .
Del 1:
Antag først at lineært uafhængige. Hvis
skal vi vise at for alle .
Vi argumenterer ved modstrid. Antag er der skulle findes et
så at . Da kan vi dividere med (Men I må aldrig dividere med 0!!!), så at
Dermed er jo , hvad der ikke måtte ske fordi vi har antaget at et lineært uafhængige. Vi har opnået en modstrid, det vil sige, vi ved nu at for alle .
Del 2:
Antag nu omvendt at ikke er lineært uafhængige.
Vi skal finde , ikke alle lige med 0, så at
Men da vektorerne ikke er linært uafhængige så findes der et så at
. Det vil sige,
der findes så at
For så vidt kunne for alle . Men hvis vi definerer
så er i hvert fald , og på den anden side er nu
Del 3:
Sidste påstand
følger helt naturligt af definitionen af matrixmultiplikation, idet
hvor
Betragt vektorerne
i . For at afgøre om de er lineært uafhængige skal vi
ifølge Proposition 6.15(β) undersøge ligningssystemet
Vi kan ret hurtigt se at RREF for koefficientmatricen er
Derfor er en fri variabel og med bliver
og i fin overensstemmelse med at
Derfor er vektorerne ikke lineært uafhængige.
Ved et nærmere kig på Proposition 6.15(β) antydes
et helt centralt resultat i lineær algebra, som går tilbage til et helt centralt
resultat om løsning af ligninger.
Der er nemlig en meget naturlig øvre grænse på hvor mange lineært
uafhængige vektorer man kan have i .
Vi skriver søjlevektoren som
Vi skal vise at vi kan finde tal , ikke alle nul, så at
Vi skriver dette helt ud i en formel: vektorerne er lineært afhængige hvis og kun hvis vi kan finde tal som ikke alle er 0,
så at
Det kan vi også skrive som
Fordi vi har antaget at , så har dette system altid
en løsning forskellig fra nulløsningen. Derfor er
vektorerne lineært afhængige.
En enkelt vektor er lineært uafhængig hvis og kun hvis den er forskellig fra nulvektoren. Da er
en linje gennem origo.
To vektorer er lineært uafhængige hvis de ikke ligger i forlængelse af hindanden, det vil sige, hvis de ikke ligger på den samme linje gennem origo. I dette tilfælde er en plan der indeholder origo. De tre vektorer er lineært uafhængige hvis de to vektorer er lineært uafhængige, og samtidigt ikke ligger i den plan der er udspændt af og . Hvis er lineær uafhængige, så er hele det tredimensionelle rum.
6.4 Basis for og dimension af underrum
Lad være et underrum af .
Et ordnet sæt med kaldes en basis for
, hvis vektorerne er lineært uafhængige og
.
Det vil sige: en basis for et underrum er en minimal udspændende mængde, hvor ingen vektorer
kan udelades. Det kan ikke undstreges nok at man for at forstå hvad en
basis er, bliver nødt til at se på adskillige konkrete eksempler. Som
et absolut minimum bør du løse følgende opgave.
Sætning 6.18 medfører følgende centrale resultat, som
siger at ethvert underrum har en basis og at antallet af vektorer i en
basis er entydigt bestemt. Bemærk dog at et underrum har tonsvis af
baser. Vi siger ikke at basen er entydigt bestemt, kun antallet af
vektorer i den.
Begrebet basis er helt basalt for lineær algebra, så brug tid på at forstå det. I de fleste anvendelser vil man få brug for at lave konkrete udregninger, og de vil ofte afhænge af at man har valgt en basis for et underrum. I mere teoretiske overvejelser er det mange gange bedre at ikke lægge sig fast på en bestemt basis, med mindre denne basis er specielt egnet for netop det problem man betragter.
Vi kan lige så godt antage at ikke kun består af nulvektoren. Vælg så . Sæt
. Hvis er vi færdige. Hvis ikke findes
der et så at . Det betyder at og
er lineært uafhængige. Denne proces fortsættes. Hvis vi har fundet
som er lineært uafhængige, og hvis så er
lineært uafhængige, fordi hvis
så er
Hvis nu kunne man bruge denne ligning til at skrive som linearkombination
af , men det kan vi jo ikke, fordi ikke ligger i af de andre vektorer.
Derfor må , og altså
Fordi er lineært uafhængige er nu for alle .
Vi kan dermed slå fast at er lineært uafhængige.
Et stykke tid kan vi blive ved med at finde nye , men denne leg må nødvendigvis stoppe med
lineært uafhængige vektorer med
og på grund af Sætning 6.18.
Hvis er en anden basis for , skal vi vise at . Det
er nok at vise at (fordi på den samme måde kan vi også vise at ).
Vi argumenterer ved modstrid. Det vil sige, vi antager at , og viser at dette fører til en
modstrid mod forudsætningen at og begge er baser for .
Til at begynde med bruger vi at vektorerne danner en basis, så at vi kan skrive
Nu opstiller vi et ligningssystem med ubekendte og ligninger.
Da findes der
en løsning til dette ligningssystem som ikke er nulløsningen.
Lad være en sådan løsning.
Vi definerer en vektor . Nu er tiden kommet til at bruge at også er en basis, fordi det betyder jo at
. På den anden side er
Dette giver en modstrid mod antagelsen at såvel som er en basis. Sætningen er bevist.
Med entydigheden af antallet af elementer i en basis for et underrum
har vi nu et veldefineret mål for størrelsen eller omfanget af et
underrum kaldet dimensionen.
Lad være et underrum af . Dimensionen af er antal
vektorer i en basis for og betegnes .
Det skulle helst ikke chokere nogen der har fulgt med hertil, at dimensionen af origo er 0, dimensionen af en linje der indeholder origo er 1, dimensionen af et plan der indeholder origo er 2 og dimensionen af hele rummet er 3.
Hvordan finder vi så dimensionen af et underrum? Igen kommer
den reducerede række echelon form til hjælp.
Lad
være et underrum af . En basis for fås ud fra
rækkerne i den reducerede række echelon form for
, hvor er matricen med rækker
Dimensionen, , er lig med
antal pivotelementer i .
Ifølge definitionen af og definitionen af rækkerummet er . Da rækkerummet ikke ændres ved
rækkeoperationer er . Så vi skal vise, at hvis er på RREF, så har basis der består af
alle rækker i , som ikke er nulrækker. Vi kan nu glemme alt om matricen som måske ikke var på RREF, og koncentrere os om .
Hvis vi lader alle nulrækker i helt væk, så får vi en ny matrix på RREF med det samme rækkerum. Forskellen er kun at ikke har nulrækker, og åbenbart er . For at give et fuldstændigt bevis for sætningen er det altså nok at vise at hvis er en matrix på RREF, som ikke indeholder nulrækker, så danner rækkerne i en basis for . Ifølge definitionen af hvad det vil sige at være en basis, skal vi vise, at rækkerne i er lineært uafhængige.
Hver række i indeholder et pivotelement. Lad være nummeret på den søjle, der indeholder pivotelementet i række nummer .
Da er , fordi det er et pivotelement, og hvis er
, da pivotelementet er den eneste indgang i sin søjle der er forskelligt fra 0.
Lad
Hvis vi skriver , så er altså .
For at vise at er lineært uafhængige, skal vi vise: hvis , så er for alle . Men hvis , så er specielt , så at .
Vi gennefører udregningerne i beviset ovenfor på et eksempel.
Lad
være et underrum i .
Vi transponerer søjlevektorerne , og bruger rækkevektorerne som rækker i en
matrix .
Det vi sige, vi opstiller matricen
som så rækkereduceres til .
Vi ved at , så for at bestemme er det nok at bestemme .
er udspændt af de tre vektorer . Den sidste nul vektor gør
hverken fra eller til, så er span af de to første vektorer .
Det betyder at , hvor
Vi påstår at er en basis for . Men det er det samme som at sige at de to vektorer er lineært uafhængige. Så lad os antage at . Vi regner:
Det følger at , så at faktisk er lineært uafhængige.
Altså er og
er en basis for .
Selvom jeg har set det mange gange før, synes jeg stadig at
Sætning 6.25(α) nedenfor er
ekstremt overraskende. Hvem skulle på forhånd tro at
dimensionerne af række- og søjlerummene for en matrix havde
noget med hinanden at gøre? Hvorfor skulle for eksempel dimensionerne af
og
være identiske?
Sætning 6.25(β) kaldes
dimensionssætningen og giver en meget stærk og nyttig sammenhæng mellem
dimensionerne af nulrummet og søjlerummet for en matrix.
Lad være en matrix. Så gælder
Før vi går i gang med beviset for denne sætning, skal vi
i anslutning til eksempel 6.13 kigge lidt nærmere på på nulrummet for en matrix der er på RREF. Det er en god idé at genopfriske dette eksempel før man læser beviset for lemmaet.
Antag at er en matrix på RREF. Da er dimensionen af nulrummet det samme som
antallet af søjler i som ikke er pivotsøjler.
Et lemma eller en hjælpesætning er en sætning som ikke er så vigtig i sig selv, men som skal bruges lige om lidt i et bevis for en mere vigtig sætning. Til eksamen bliver der desværre ikke stillet opgaver til beviset for dette lemma.
At betyder det samme som at er en løsning til ligningen .
I afsnit ''Løsning af ligninger via RREF'' beskrev vi hvordan man kan finde alle løsninger til dette system når er på RREF. Vi betragter de variable , og inddeler disse variable i to grupper, de frie variable for en mængde af indekser , og de bundne variable for en anden mængde af indekser . Enhver variabel er enten fri eller bunden, så at tilsammen udgører og mængden af alle indekser . De bundne variable svarer til pivotsøjlerne, det vil sige at der er lige så mange bundne variable som der er pivotsøjler. De frie variable svarer til de søjler som ikke er pivotsøjler.
Resultatet af vores overvejelser var at hvis man angiver værdiene for hver af de frie variable, så findes der netop en løsning til ligningen så at for alle frie variable, det vil sige, for .
Nu definerer vi følgende vektorer. For hvert lader vi være den eneste ene løsning til hvor den frie variabel med antager værdien 1, og alle andre frie variable med antager værdien . Vi påstår at er udspændt af vektorerne for . Vi skal altså vise at enhver vektor der opfylder at er en linearkombination af vektorerne .
Til dette formål definerer vi nu vektoren
hvor vi bruger alle frie variable . I denne sum forekommer altså ikke nogen med . I mange kloge bøger ville denne sum i øvrigt skrives som
Vi påstår at . For at vise dette bruger vi at der er netop en løsning til ligningen sådan at for , og den løsning kender vi, fordi det er jo . For at vise at er det altså fuldstændigt nok at vise at for alle så er . Det er en lille udregning. Antag at .
Dermed har vi vist at vektorerne udspænder . Der er lige så mange af dem som antallet søjler i der ikke er pivotsøjler. Så for at afslutte beviset skal v vise at vektorerne er lineært uafhængige.
Antag altså at (hvor selvfølgelig . Da er
Altså er for alle . Derfor er vektorerne lineært uafhængige.
Vi viser først sætningen for en matrix på RREF. Lad os sige at har
pivotsøjler. Pivotsøjlerne er de første enhedsvektorer for
, så at .
En søjle i ,
opfylder at for , da er på RREF. Men det vil sige at
Det betyder at , og dermed at
faktisk . Men har basis , så at
.
Rækkerummet er rummet udspændt af de rækker i der indeholder pivoter. Vi kan lade de
nulrækker væk der ikke indeholder pivotelementer, og vedtage at de resterende rækker hedder
, så at . Sætning
6.23 siger at har en basis der består af de rækker som ikke er nulrækker i
den reducerede række echelon form for . Men RREF af er jo bare selv, så
det betyder at er lineært uafhængige, og .
Vi har altså vist at .
Lemma 6.26 siger at
. Ved at sætte ind at får vi at .
Dermed er sætningen bevist for de matricer som er på RREF. Vi skal selvfølgelig også
kigge på det generelle tilfælde
Hvis er en eller anden matrix, så kan den i hvert fald rækkereduceres til en matrix på RREF. Og nu gælder det at og . Der er ingen grund til at tro at , men i det mindste følger det fra sætning 6.23 at er lig med antallet af pivotelementer i . På samme måde er er lig med antallet af pivotelementer i rækkereduktionen af , men da rækkereducerer til sig selv, er . Nu bruger vi at vi allerede ved at sætningen er rigtig for til at konkludere
Dimensionen af søjlerummet for en matrix kaldes rangen af matricen
og betegnes . Med denne betegnelse kan dimensionssætningen
for en matrix udtrykkes som
Det kan ske at et abstrakt vektorrum har en basis der består af endeligt mange vektorer.
Antallet af elementer i denne basis kaldes for dimensionen af , og vi siger at har endelig dimension.
I stort set alt der gælder om
underrum af vil også gælde for vektorrum af endelig dimension. For eksempel vil alle baser for have det samme antal elementer, og de efterfølgende afsnit om koordinater og lineære transformationer vil også kunne kopieres næsten uden ændringer. Det betyder jo også at det ikke giver så meget mere indsigt at formulere disse afsnit for abstrakte vektorrum, så det vil vi ikke gøre.
Der findes også abstrakte vektorrum som ikke har en endelig basis. De spiller en stor rolle indenfor matematik, men er ikke så vigtige i anvendelser. I kvantfysik bruges dog ofte ``Hilbertrum'' som er vektorrum over de kompleks tal, og ikke plejer at have en endelig dimension.
6.5 Koordinater
Lad være et underrum af og en
basis for . Hvis
for ,
så kaldes
for koordinatvektoren eller koordinaterne for med hensyn til basen
.
Læg mærke til at en vektor ikke kan have to forskellige koordinatvektorer med hensyn til
en basis som ovenfor. Hvis
så er
og dermed er , fordi basisvektorerne er lineært uafhængige.
Der er myriader af baser for et underrum. Det er rigtigt nyttigt at
kunne regne om fra koordinater i en basis til koordinater i en anden
basis, men det gælder om at holde tungen lige i munden.
Lad og være to
baser for et underrum af dimension . Basisskiftmatricen fra til
er matricen , hvis søjler er koordinaterne for
basisvektorerne i med hensyn til basen , det vil sige
for .
Hvis er en basis for
og er
standardbasen for , så er basisskiftmatricen fra til
matricen hvis søjler er vektorerne , fordi
Hvis
har koordinaterne
med hensyn til basen og det samme
har koordinaterne
med hensyn til basen , så gælder
Matricen er invertibel.
Hvis er , hvor baserne opfattes
som søjler i en matrix.
Man udtrykker som skrevet basisvektorerne i via basisvektorerne i :
og sætter derefter (6.4) ind i (6.3):
Ved nu at summere (6.5) lodret får vi koordinaterne for i
basen som
Hvis vi skriver , så at
, får vi altså
Herved ses at matrixmultiplikationen giver koordinaterne for i basen .
Hvad er nulvektorens koordinater i en basis ? Ja,
så de er allesammen 0. Omvendt, hvis en vektor har alle koordinater
lige med , så er
Og det gælder for enhver basis.
Vi vil bruge dette lille faktum til at vise at er invertibel. Hvis den ikke var, så ville der findes
en vektor , , så at . Det vil sige, repræsenterer vektoren
i basen . Men ifølge det vi lige har sagt om repræsentationen af i en basis, betyder det at også repræsenterer vektoren i basen , Det følger at , så at er invertibel.
Hvad med den sidste påstand? Ved vi egentlig at er invertibel, så at det
i det hele taget giver det mening at skrive ? Jo, det ved vi, fordi ifølge
eksempel 6.30 er også en basisskiftmatrix. Og vi har jo lige vist, at enhver
basisskiftmatrix er invertibel!
Hvis vi nu skriver , ser vi at og . Læg mærke til at de to indekser og ''bytter plads'', og sådan skal det også være. Nu kan vi skrive om på
(6.4):
Dette genkender vi som et matrixprodukt, så at vi har vist at
Nu multiplicerer vi med på venstresiden, og får at
Det betaler sig at se et helt konkret eksempel på anvendelsen af
Proposition 6.31.
Lad
være to baser for . Her er heldigvis nem at regne ud: Da
bliver
Så hvis er koordinaterne til en vektor i basen , så er koordinaterne til vektoren i basen givet ved
Men vent! Det gælder også den anden vej ved at invertere : Hvis
er koordinaterne til en vektor i basen , så er
koordinaterne til vektoren i basen givet ved
For eksempel har vektoren koordinaterne
med hensyn til basen . Lad os checke påstanden:
Hvis koordinaterne i basen
til en vektor
er , hvad gælder så om koordinaterne
til vektoren i basen
.
.
Kommentarer/spørgsmål?
6.6 Lineære transformationer
Ligesom definitionen af underrum var forbavsende enkel, har vi her også
en ret enkel definition af lineære afbildninger (transformationer) mellem underrum
Lad og være underrum En
lineær transformation fra til er en afbildning
som opfylder
for og .
Det er ekstremt vigtigt at bemærke at en lineær transformation er
givet entydigt ud fra dens værdier
på en basis for : Enhver
vektor kan skrives som
for entydigt bestemte . Dette følger ved at bruge
egenskaberne (α) og (β) i Definition
6.35:
Afbildningen givet ved er en
lineær transformation.
Afbildningen givet ved er en
lineær transformation.
Afbildningen givet ved er en
lineær transformation.
Afbildningen givet ved
er
en lineær transformation.
6.6.1 Repræsentation ved en matrix
Nu kommer vi til et meget centralt punkt i disse noter: sammenhænget mellem matricer og lineære afbildninger. Vi vil gerne kunne sige at ``en lineær afbildning er det samme som en matrix'', og det er ikke helt forkert, men det er heller ikke helt rigtigt, og for at komme videre er man nødt til at forstå hvorfor. Den lille men vigtige forskel er at før vi kan sige det på denne måde har vi har brug for at vælge baser!
Hvis vi for eksempel er kommet i besiddelse af en lineær transformation
, og gerne vil ``oversætte'' denne lineære transformation til en matrix gør vi følgende. Betragt baserne
for og for . Per
ovenstående noterer vi at
Og nu har vi lavet en matrix.
Matricen
i (6.6) siges at repræsentere med hensyn til
basen for og basen for .
Hvis vi allerede har valgt de to baser
og så er matricen entydigt bestemt af . Hvis vi vil
holde styr på at den opstår ud fra så skriver vi . Nogle mennesker ville endog være omhyggelige nok at skrive for at være sikre på at vi ikke glemmer at vores matrix også afhænger af vores valg af baser.
En forvirrende detalje er at vi ofte har favoritbaser for og , og så
vælger vi bare dem. For eksempel har vi standardbasen
for , så hvis og kan vi altid bare vælge og , og sige at en linear transformation
bestemmer en matrix. Simpelthen.
Der er to problemer med denne lemfældige tilgang til situationen. Det ene
er at vi sagtens kan komme ud for at betragte lineære afbildninger mellem
underrum af , og så findes der ikke mere en standardbasis. Det andet og mere afgørende problem er at vi ofte vil bruge en basis eller måske endog flere forskellige baser der er tilpasset til den situation vi betragter.
Så vi må leve med at hvis vi vil kunne gå uhindret fra en lineær afbildning
til en matrix, så skal og være forsynede med baser og .
Vi ved altså at vi kan gå fra lineære transformationer til matricer, men kan vi gå den anden vej?
Selvfølgelig kun under forudsætning af at vi har givet baser. Så lad
være en basis for og en basis for for .
Hvis er en matrix, så laver vi en afbildning sådan her:
Vektoren afbildes over i vektoren med
koordinater
med hensyn til basen .
Vi formulerer nu en sætning der siger at de to begreber "lineær transformation" og
"matrix" kun er to forskellige avatarer af det samme begreb.
Lad og være underrum med baser henholdsvis .
Hvis er en matrix og er afbildningen beskrevet ved
(6.6), så er en lineær transformation, entydigt bestemt af .
Desuden er .
Antag at den lineære transformation , hvor
og er givet
ved
Hvad er matricen som repræsenterer med hensyn til
Nedenfor en forelæsning fra 2012 forklarende matrixrepræsentationer af
lineære transformationer med ekstern bistand.
Kommentarer/spørgsmål?
Matricen i Definition 6.37 kan oftest udregnes ved hjælp af
nedenstående omformulering af definitionen.
Lad være en lineær transformation,
en basis for og
en basis for . Søjlen i
matricen med som repræsenterer med hensyn til baserne og er den
vektor
som er entydigt fastlagt af at
En helt konkret anvendelse af resultatet ovenfor er gennemgået i
nedenstående video.
Kommentarer/spørgsmål?
6.7 Sammensætning af lineære transformationer
De sker at vi har tre underrum og lineære transformationer
og . Da kan vi sammensætte og får en ny
lineær transformation defineret ved at
Lad os lægge mærke til at denne sammensætning
lige som alle andre sammensætninger af afbildninger overholder den associative lov:
Hvis de tre rum har baser så kan vi ifølge sætning 6.38
om matrixrepræsentationer lige så godt betragte de to tre matricer
og .
Vi kan genkende matricen på at dens indgange er givet ved at
På den anden side er
Nu samler vi koefficienterne, hvilket i dette tilfælde betyder at vi summerer vertikalt:
Ved at sammenligne
koefficienterne i denne ligning med koefficienterne i (6.7) ser vi at
Her genkender vi formlen for matrixmultiplikation, og slutter at .
Nu kan vi endelig forklare hvorfor det er blændende indlysende at matrixmultiplikation
er associativ - det er den fordi den bare er en anden måde at skrive sammensætning af
lineære transformationer, og sammensætning af afbildninger er altid associativ! I formler:
Lad være tre matricer som kan ganges sammen i denne rækkefølge. Da er
Det vil sige, og derfor er .
Lad være matricen, som repræsenterer en lineær transformation
med hensyn til basen for og basen for
.
Matricen, som repræsenterer med hensyn til basen for og basen
for er givet ved
hvor er basiskiftmatricen fra til og er basisskiftmatricen
fra til .
Vi skal holde styr på fire baser i den her sætning. Det er simpelthen for meget
for vores hjernekapacitet, så vi vil dele det lidt op. Lad os skrive matricen der
repræsenterer med hensyn til baserne og som . Vi skriver altså
og skal vise at . Beviset går nu i to trin.
Hvis vi kan bevise begge disse to trin så følger sætningen, fordi
Beviset for de to trin minder meget om hinanden, og også stærkt om beviset for Sætning 6.41. Begge dele består af hjernedøde udregninger, som vi drevet af en absurd pligtfølelse nu reproducerer.
Vi har tre baser at holde styr på.
Lad os skrive og
Ifølge proposition 6.40 kan vi kende matricen på at dens søjle med søjlenummer
opfylder at
Men det kan vi faktisk regne på.
Ved at sammenligne med (6.8) ser vi at
Dette genkender vi som formlen for matrixmultiplikation, så at .
Vi har tre baser at holde styr på.
Lad os skrive og
Ifølge proposition 6.40 kan vi kende matricen på at dens søjle med søjlenummer
opfylder at
Men det kan vi faktisk regne på.
Ved at sammenligne med (6.9) ser vi at
Dette genkender vi som formlen for matrixmultiplikation, så at .
Som man hurtigt ser er proposition 6.43 er en anelse langhåret og
notationstungt, og vi skal slet ikke snakke om beviset.
Lad os prøve at kigge på den i et helt konkret
tilfælde.
I vektorrummet har vi den naturlige basis
Den lineære transformation givet ved
repræsenteres af matricen
med hensyn til basen for (her er og
med hensyn til notationen i Proposition 6.43).
Hvad er matricen, som repræsenterer med hensyn til basen
I henhold til Proposition 6.31 bliver basisskiftmatricen
fra til netop
Tilsvarende bliver basisskiftmatricen fra til
Samlet bliver matricen, som repræsenterer i basen så
Dette lille eksempel leder os naturligt frem til næste afsnit.
6.8 Egenvektorer og diagonalisering af kvadratiske matricer
Husk på definitionen af diagonaliserbare matricer og
egenvektorer fra foregående
kapitel. Der definerede vi en kvadratisk matrix til at være
diagonaliserbar, hvis der fandtes en invertibel matrix så
er en diagonalmatrix. Samtidig så vi at søjlerne i blev nødt
til at være egenvektorer for .
Tallet er en egenværdi for hvis og kun hvis
for en vektor i . Hvis er en egenværdi lader vi
Læg mærke til at er nulrummet for matricen
og at dette nulrum netop er mængden af
egenvektorer hørende til kaldet egenrummet hørende
til .
Vi siger at en vektor som ikke er nulvektoren
er en egenvektor hørende til egenværdien .
Underrummet består altså af alle egenvektorer til
egenværdien sammen med nulvektoren .
Med nogle
få tricks kan man vise følgende
Egenvektorer hørende til forskellige egenværdier er
lineært uafhængige.
Helt præcis vil vi vise, at hvis er egenvektorer til
med
egenværdier som alle er forskellige, så er
lineært uafhængige.
Vi begynder med at vise det for to vektorer .
Hvis vi har en linearkombination
så kan vi gange med og få
Man vi kan også anvende på (6.10) og få
Ved at trække (6.12) fra (6.11) fås
Nu var jo en egenvektor, så at specielt er .
Dette giver , da . På den samme måde er .
Nu har vi starten på en induktion. Induktionsstarten er at sætningen er rigtig for .
Induktionsskridtet er at vise at hvis sætningen er rigtig for
egenvektorer, så er den også rigtig for egenvektorer.
Hvis vi har en linearkombination
får vi på samme måde som før to ligninger:
og
Dette medfører at
Ved at bruge sætningen på de egenvektorer finder vi at
. Det følger dermed også at
, så at , og induktionen er
fuldstændig.
Med hensyn til et konkret eksempel på udregning af egenvektorer for en matrix
det vil sige udregning af egenrummene henvises til sidste del (cirka fra 7:25) af
videoen (som skamløst er blevet genbrugt fra Kapitel 4) nedenfor.
Kommentarer/spørgsmål?
Med vores nye viden om underrum, baser og dimension kan vi nu sammenfatte dette i følgende
En matrix er diagonaliserbar hvis og kun hvis
har en basis bestående af egenvektorer for .
At har en basis bestående af egenvektorer er ækvivalent med at
hvor er de forskellige egenværdier for .
Hvis har en basis bestående af egenvektorer
for hørende til respektive egenværdier
, så vil matricen med
søjler være invertibel og
hvor
Det har vi overejet.
Modsat hvis er invertibel med ovenstående egenskab, så vil
søjlerne i udgøre en basis af egenvektorer med tilhørende
egenværdier i diagonalen. For at vise det skriver vi ud
de to matrixmultiplikationer og , og overvejer at
er identiske. Det er jo nok at tjekke dette på vektorerne i standardbasen, så det er det vi gør.
Vi mangler den sidste påstand i sætningen. Som vi plejer, deler vi beviset op i lidt mindre stykker.
Til at begynde med kan vi for hvert vælge en basis for
, lad os sige at den hedder . Da antallet elementer i en basis er det samme som dimensionen er .
Vi påstår nu at hvis vi tager alle disse vektorer sammen, så er de stadig lineært uafhængige i .
Hvorfor nu det? Jo, hvis vi har en linearkombination
samler vi alle termer der hører til det samme egenrum, det vil sige
Da er enten en egenvektor med egenværdi , eller også er . Disse
er forskellige, og
Ifølge (6.13) er altså alle , så at
Da er en basis for så følger det at
alle .
Vi har nu lavet en mængde af lineært uafhængige vektorer i . Da de er lineært uafhængige kan der ikke være flere end allerhøjst af dem, og hvis der er nøjagtig af dem, så danner de en basis for . Nu tæller vi op hvor mange vi har. Alt i alt er der
Der er altså nu to alternativer. er
og danner en basis af egenvektorer for også er
Nu følger den første halvdel af vores påstand:
Hvis
så er vi i tilfældet hvor der en basis for der udelukkende består af egenvektorer for . For at fuldstændiggøre beviset skal vi vise den omvendte implikation, nemlig at hvis der findes en basis af egenvektorer, så er
Så antag at der findes en sådan basis .
Vi kan omsortere egenværdierne så at
der er tal og
Der er altså af de lineært uafhængige vektorer der er egenvektorer med egenværdi . Det betyder at
, så at
Dette udelukker vores alternativ. så at vi faktisk har en basis for der består af egenvektorer for .
Det er hændt at jeg er stødt på kandidatstuderende i matematik, som
ikke kan give et eksempel på en ikke-diagonaliserbar matrix efter at
have været gennem større kurser i lineær algebra og avancerede kurser
i topologi og abstrakt algebra. Det får mig til at tænke på at
matematikundervisningen tit fokuserer alt for meget på at skrive
tingene fint og fejlfrit ned og ofte er alt for langt fra de konkrete
tiltag, hvor de fleste mennesker har en reel mulighed for
at få en dyb forståelse.
Her er
en helt konkret opgave.
Gør detaljeret rede for at matricen
ikke er diagonaliserbar.
6.8.1 Egenværdier via potensmetoden
Hånden på hjertet. Vi har reelt kun nu det karakteristiske polynomium til at bestemme
egenværdierne for en matrix. For store matricer bliver det helt uoverkommeligt for
ikke at sige umuligt at udregne det karakteristiske polynomium.
Der er brug for andre metoder til udregning af egenværdier. Her giver jeg et eksempel på
en sådan klassisk metode.
Antag at er diagonaliserbar med en basis af egenvektorer hørende
til egenværdierne . Antag yderligere at
og at
for .
Begynd med en vektor
og antag . Herefter itereres
Antag at den -te koordinat i er . Så vil
fordi
og dermed
hvor
Derfor vil
for .
Lad os illustrere metoden med matricen
og startvektoren
.
Nedenfor er angivet de første iterationer af
metoden. Første søjle angiver , anden søjle er -koordinaten for
, tredje søjle er -koordinaten for , mens sidste søjle angiver
for det vil sige med hensyn til -koordinaten.
0
1
0
1
7
-15
7
2
19
-45
2.714
3
43
-105
2.263
4
91
-225
2.116
5
187
-465
2.055
6
379
-945
2.023
7
763
-1905
2.013
Iterationerne ser ud til at indikere at er en egenværdi for , hvilket viser sig at være
korrekt.
Der findes modeller i anvendelser hvor en vektor angiver tilstanden til et tidspunkt, og den lineære afbildning fortæller hvordan udvikles i løbet af en bestemt tidsenhed (et sekund, en dag eller et år etc..). Det betyder at tilstanden efter at tidsenheder er forløbet er angivet af vektoren . Ifølge ovenstående betragtning vil det betyde at hvis den største numerisk største egenvektor opfylder at så forudsiger modellen eksponentiel vækst. Det vil normalt betyde at på et tidspunkt vil modellen bryde sammen, og ikke mere være en god beskrivelse af virkeligheden
6.9 Gershgorins cirkelsætning
Gershgorins cirkelsætning (efter Semyon Aranovich
Gershgorin)
udtrykker hvor langt vi kan forvente egenværdierne for en matrix
ligger fra diagonalelementer.
Lad være en matrix og lad
hvor
være cirkelskiven med centrum i
og radius i de komplekse tal. Bemærk at
er summen af de absolutte værdier af indgangene udenfor diagonalen i
-te række for .
Enhver egenværdi for ligger i mindst en af cirkelskiverne for
.
Lad betegne indgangene i .
Det er nok at vise at
ikke er en egenværdi for . Hvis var en egenværdi måtte vi have
for et eller andet på grund af
Sætning 6.48. Dette er umuligt, da
Matricen
er invertibel ifølge Sætning 6.50. For denne matrix er
6.10 Opgaver
6.10.1
Lad . Vis ud fra Definition
6.1 at
er et underrum i .
Lad være den naturlige basis for det vil sige
for
.
Hvis
er et underrum af og alle ligger
i , hvorfor gælder så at ?
6.10.3
Er
en basis for ? Begrund dit svar.
6.10.4
Lad
Find baser for og som underrum af .
6.10.5
Lad være en matrix med rang . Hvad kan du sige om
? Opskriv et eksempel på en matrix med disse
egenskaber.
6.10.6
Opgave om taxa fordeling.
6.10.7
Lad , hvor være givet ved
Find matrixrepræsentationen af med hensyn til basen
for og basen
for .
6.10.8
Lad
Det opgives at og er egenværdierne for . Undersøg
om har en basis af egenvektorer for det vil sige om er diagonaliserbar.
Find i givet fald en invertibel matrix så
er en diagonalmatrix.
6.10.9
Gør rede for at matricen
ikke er diagonaliserbar ud fra oplysningen om at dens karakteristiske polynomium er
6.10.10
Kan en invertibel matrix have som egenværdi?
6.10.11
Sandsynliggør at er en egenværdi for
ved at benytte potensmetoden beskrevet i afsnit 6.8.1. Er diagonaliserbar?
6.10.12
Hvorfor vil lineært uafhængige vektorer i et underrum af dimension altid udgøre en basis?