6 Konkrete vektorer

Kommentarer/spørgsmål?

6.1 Konkrete vektorrum

Vi vil indføre (konkrete) vektorrum over , hvor enten er de reelle tal eller de komplekse . Sjovt nok afhænger rammen eller beviserne ikke af om er netop eller og det er da også en af grundene til at indføre vektorrum som abstrakt begreb senere. Faktisk kan helt generelt være det man i matematikken kalder et legeme (engelsk: field) - et algebraisk system, hvor det er muligt at dividere med alle elementer .

6.1.1 De reelle tal

En helt naturlig generalisering af vektorer i planen er søjlevektorer af længde med indgange i :
To vektorer
kan adderes plads for plads som
og vektoren kan ganges med et tal som
Vi vil ofte bruge følgende notation: Hvis
er en søjlevektor, så er den indgang i som står i række nummer .

6.1.2 Geometri, linear algebra og vektorer i rummet.

Det er ofte en god hjælp for forståelsen at forestille sig vektorer i rummet. Vi plejer jo at visualisere som det rum vi allesammen lever i. Metoden har visse ulemper som vi vil diskutere løbende alt efter at vi opdager dem. Den første ulempe er at vi har brug for et punkt. I er der en vektor der er speciel, nemlig nulvektoren , fordi den er den eneste vektor der opfylder at for alle vektorer . Men i det rum vi lever i findes der ikke et punkt som er verdens centrum. Marcels kat ville sige at det punkt findes, og at det er den selv, men nabokatten Alfred ville ikke være enig deri. Så det første vi skal gøre er at vælge et punkt i rummet som vi kalder for , nulvektoren eller ''origo''. Det er ligegyldigt hvad for et punkt vi vælger, men når vi først har valgt et punkt, så er vi nødt til at holde fast i det valg.
Det næste valg vi gør er at vælge et koordinatsystem med origo i det punkt vi har valgt. Når vi har gjort alt dette, kan vi sige at en søjlevektor svarer til nøjagtig et punkt i rummet. Men husk det nu og glem det ikke - det punkt vil også afhænge af valget af origo og af valget af koordinatsystem. Noget man skal bide mærke i er at skalering med et tal og addition af to vektorer ikke behøver referere til valget af koordinatsystem, det kan beskrives helt geometrisk! En anden måde at udtrykke det på, er at sige at hvis vi udstyrer vores fysiske rum med et origo (for eksempel en kat), så danner det et abstrakt vektorrum.

Aksiomer for et abstrakt vektorrum

At er et abstrakt vektorrum over et legeme betyder:
  1. Givet og kan vi definere og .
  2. .
  3. Der findes en vektor så at for alle .
  4. For og er .
  5. For og er .
  6. For og er .
  7. For er .
Abstrakte vektorrum forekommer meget ofte både i matematikken og i anvendelser. Vi vil ikke diskutere dem videre i disse noter, men de underrum af som vi kommer at beskæftige os en del med er fortræffelige eksempler på abstrakte vektorrum. Hvis man forstår dem, så er man også meget tæt på at forstå abstrakte vektorrum generelt.
Vi anbefaler i øvrigt meget stærkt at tage et kig på Essence of linear algebra af 3Blue1Brown.

6.1.3 De komplekse tal

På analog vis definerer vi for de komplekse tal
hvor addition af vektorer defineres som i (6.1) og talmultiplikation som i (6.2), men nu med komplekse tal i stedet for reelle tal.

Hvordan ser det ud i rummet?

Marcel beklager det dybt, men der er ikke en god måde at visualisere for . For har vi allerede diskuteret en geometrisk beskrivelse af til bevidstløshed i kapitlet ''De komplekse tal''.

6.2 Underrum

Lad nu betegne enten eller . Bemærk at ligesom indeholder nulvektoren , som består af på alle indgangene og at
for alle .
Lad være et naturligt tal. Et underrum af er en ikke tom delmængde
som opfylder at
  1. , hvis .
  2. , hvis og

Hvordan ser det ud i rummet?

Et underrum af kan være af fire forskellige slags.
  1. Det kan bestå af kun origo.
  2. Det kan være en linje der indeholder origo.
  3. Det kan være en plan der indeholder origo.
  4. Det kan være hele (som selvfølgelig automatisk indeholder origo).

Quiz

Hvilke af nedenstående udsagn er rigtige?
Punkterne på linjen i givet ved er et underrum af .
Et underrum af indeholder altid .
Hvis og , hvor er et underrum af så vil
Punkterne på parablen i er et underrum af .

Quiz

Betragt delmængden af . For hvilke er et underrum af ?
.
.
.

6.2.1 Linearkombinationer og span af vektorer

Lad . En vektor på formen
med kaldes en linearkombination af . Mængden
af alle mulige linearkombinationer af er et underrum af og kaldes for span af vektorerne .

Hvordan ser det ud i rummet?

Vi ved i hvert fald at span af nogle vektorer i rummet er et underrum, så det må være en af de fire typer af underrum: punkt, linje, plan eller hele rummet. Hvis vi har en mængde af vektorer i , hvad for type underrum vil vi de udspænde? Ja, det er et godt spørgmål, tak for at I stillede det. Vi skal lige tænke os om, og når vi har tænkt os om så vender vi tilbage til det.

Quiz

Betragt ligningen
hvor . Denne ligning er opfyldt for?
Der er her tale om en relativt abstrakt definition og det er en rigtig god ide at forbinde den til de konkrete forhold i den følgende opgave.

Opgave

Lad
være vektorer i . Forklar hvorfor
det vil sige hvorfor alle vektorer i er linearkombinationer af og . Lad nu
være vektorer i . Hvordan afgør man om i dette tilfælde?

Opgave

Lad være vektorer i et underrum af . Forklar hvorfor
En helt fundamental observation er at span ikke ændrer sig ved operationer svarende til rækkeoperationerne for en matrix. Læg også mærke til (δ) i Proposition 6.7, som forklarer at span blot er en ramme for løsning af ligninger.
Lad og
hvor . Så gælder
  1. (Ombytning af vektorer)
  2. (Multiplikation af en vektor med et tal )
    for .
  3. (Addition af et multiplum af en vektor til en anden vektor)
    for alle .
  4. Lad være matricen med søjler . Vektoren ligger i hvis og kun hvis ligningssystemet
    har en løsning .

Bevis

Vi beviser kun (γ) og (δ) her. Lad
Vi skal bevise at . Hvis en vektor så er
for passende . En omskrivning giver
hvilket viser at . Modsat hvis nu , så er
for passende . Her giver en lidt mere indviklet omskrivning at
hvilket viser at . Derfor er . Den sidste påstand (δ) følger naturligt af definitionen af matrixmultiplikation, idet
hvor

Opgave

Giv et alternativt bevis for 6.7(γ) på følgende måde. Vis først at enhver af vektorerne er indeholdt i . Brug opgave 6.6 for at konkludere at Vis omvendt at enhver af vektorerne er indholdt i . Overvej at det nu følger at
For en ekstra stjerne, overvej at man med densamme metode også kan bevise 6.7(α) og 6.7(β).

Eksempel

Betragt nu vektorerne
i . Lad os undersøge om
Her bruger vi Proposition 6.7(δ) og opstiller ligningssystemet , hvor er matricen med søjler og . Da
hvor sidste række indikerer (hvad sker der her? hvorfor gør den det?), ses at ligningssystemet ikke har en løsning og dermed at .

6.2.2 Nulrum, søjlerum og rækkerum for matricer

Tre helt fundamentale eksempler på underrum er knyttet til en matrix.
Lad være en matrix med indgange i .
  1. er et underrum af .
  2. {}
    er et underrum af .
  3. {}
    er et underrum af .

Bevis

Det følger at er et underrum af , fordi
hvis og . På næsten samme måde vises at er et underrum af : Hvis og skal vi vise at og . Men betyder at for passende . Derfor gælder
og
Ved at sammenligne definitionerne af rækkerum og søjlerum ser vi at . Ved at bruge (β) på matricen indser vi at er et underrum af . Men da er er et underrum af .
Underrummet kaldes for nulrummet for , kaldes for søjlerummet for og rækkerummet for .

Hvordan ser det ud i rummet?

Der er virkeligt gode geometriske beskrivelser af disse tre underrum, men det er nemmere at forstå dette efter at vi har forklaret hvad en lineær transformation er. Vi vender tilbage.
Disse definitioner kan være svære at forstå uden et konkret eksempel.

Eksempel

Lad os se på matricen
Her er søjlerummet
På samme måde ses rækkerummet at være
Nulrummet er løsningerne til det homogene ligningssystem det vil sige
I Eksempel 6.13 giver vi et eksempel på hvordan man udregner via RREF. Ikke overraskende er der tale om at løse det homogene ligningssystem ved hjælp af af bundne og frie variable.
Eksempel 6.11 viser at er span af rækkevektorerne (transponeret) og span af søjlevektorerne for en matrix .
En særdeles vigtig observation er at nulrummet og rækkerummet ikke ændres ved rækkeoperationer på matricen. Desuden er søjlerummet relateret til pivotrækkerne i matricens RREF.
Lad være en matrix og dens RREF. Så er
Søjlerummet er span af søjlerne i svarende til pivotsøjlerne i det vil sige de søjler eller søjlenumre i , som indeholder pivotelementerne.

Bevis

Der findes en invertibel matrix . Da er invertibel ses at holder hvis og kun hvis . Dette oversættes umiddelbart til at . På samme måde får vi at , hvor og dermed er .
Det var nemt nok. Det er lidt mere indviklet at vise påstanden om søjlerummet . Da er på RREF så er pivotsøjlerne i er simpelthen vores standard basisvektorer hvor
Span af disse pivotsøjler er altså alle vektorer på formen
Søjlerummet af er åbenbart span af pivotsøjlerne (hvorfor er dette egentlig så åbenbart? ).

Vink

Hvis er på RREF kunne den for eksempel se sådan ud:
Nu overvejer vi følgende. Antag at er en mængde af vektorer, og at er en anden mængde af vektorer. Hvis det nu er så heldigt at
og er en invertibel matrix, så er også
Hvis nu er pivotsøjlerne i og er alle søjler i så er ifølge det vi lige har overvejet og dermed Men da er jo netop den søjle i der har søjlenummer (overvej også det!), og vektorerne er de søjler i der har de samme søjlenummer som pivotsøjlerne i .
Vi giver et eksempel på hvordan nulrummet , rækkerummet og søjlerummet udregnes for en matrix .

Eksempel

Lad
Først rækkereducerer vi til RREF:
I første adderes første række til anden række, trækkes fra tredie række og adderes til fjerde række. I anden trækkes anden række fra fjerde række. I tredje adderes anden række til første række. Sidste matrix er på RREF. Lad os kalde den . Nu ved vi fra Proposition 6.12 at og . De bundne variable er . De frie er . Det vil sige et typisk element i har formen
Heraf fremgår det at
samt
Læg mærke til at vi gik fra at have rækkerummet som span af vektorer (de rækker (transponeret) i ) til et span af kun vektorer. Svarende til pivotsøjlerne i bliver
svarende til de to første søjler i igen i følgende Proposition 6.12.

6.3 Lineær uafhængighed

De to vektorer
er specielle i og med at ingen af dem kan udelades fra
uden at bliver mindre eller ændres (fra til -aksen eller -aksen). Det er helt anderledes med for eksempel vektorerne
Her ændres
ikke hvis en af dem udelades.
Vektorerne kaldes lineært uafhængige hvis de er minimale i den forstand at ingen af dem kan udelades fra
uden at ændres. Vektorerne kaldes for lineært afhængige, hvis de ikke er lineært uafhængige.
Definition 6.14 er ækvivalent med at
for . Faktisk gælder følgende.
  1. Vektorerne er lineært uafhængige hvis og kun hvis man af for kan slutte at
  2. Lad og lad betegne matricen med søjler
    Så er lineært uafhængige hvis og kun hvis ligningssystemet
    kun har løsningen .

Bevis

Del 1: Antag først at lineært uafhængige. Hvis skal vi vise at for alle . Vi argumenterer ved modstrid. Antag er der skulle findes et så at . Da kan vi dividere med (Men I må aldrig dividere med 0!!!), så at
Dermed er jo , hvad der ikke måtte ske fordi vi har antaget at et lineært uafhængige. Vi har opnået en modstrid, det vil sige, vi ved nu at for alle .
Del 2: Antag nu omvendt at ikke er lineært uafhængige. Vi skal finde , ikke alle lige med 0, så at Men da vektorerne ikke er linært uafhængige så findes der et så at . Det vil sige, der findes så at
For så vidt kunne for alle . Men hvis vi definerer så er i hvert fald , og på den anden side er nu
Del 3: Sidste påstand følger helt naturligt af definitionen af matrixmultiplikation, idet
hvor
Det er på høje tid med en quiz.

Quiz

Hvilke af nedenstående påstande er rigtige?
Vektorerne og i er lineært uafhængige.
Vektorerne og i er lineært uafhængige.
Vektorerne og i er lineært uafhængige.
Vektorerne og i er lineært uafhængige.
Vektoren i ligger i
Vektoren i ligger i

Eksempel

Betragt vektorerne
i . For at afgøre om de er lineært uafhængige skal vi ifølge Proposition 6.15(β) undersøge ligningssystemet
Vi kan ret hurtigt se at RREF for koefficientmatricen er
Derfor er en fri variabel og med bliver og i fin overensstemmelse med at
Derfor er vektorerne ikke lineært uafhængige.
Ved et nærmere kig på Proposition 6.15(β) antydes et helt centralt resultat i lineær algebra, som går tilbage til et helt centralt resultat om løsning af ligninger. Der er nemlig en meget naturlig øvre grænse på hvor mange lineært uafhængige vektorer man kan have i .
Lad . Hvis , så er lineært afhængige.

Bevis

Vi skriver søjlevektoren som
Vi skal vise at vi kan finde tal , ikke alle nul, så at
Vi skriver dette helt ud i en formel: vektorerne er lineært afhængige hvis og kun hvis vi kan finde tal som ikke alle er 0, så at
Det kan vi også skrive som
Fordi vi har antaget at , så har dette system altid en løsning forskellig fra nulløsningen. Derfor er vektorerne lineært afhængige.

Hvordan ser det ud i rummet?

En enkelt vektor er lineært uafhængig hvis og kun hvis den er forskellig fra nulvektoren. Da er en linje gennem origo. To vektorer er lineært uafhængige hvis de ikke ligger i forlængelse af hindanden, det vil sige, hvis de ikke ligger på den samme linje gennem origo. I dette tilfælde er en plan der indeholder origo. De tre vektorer er lineært uafhængige hvis de to vektorer er lineært uafhængige, og samtidigt ikke ligger i den plan der er udspændt af og . Hvis er lineær uafhængige, så er hele det tredimensionelle rum.

6.4 Basis for og dimension af underrum

Lad være et underrum af . Et ordnet sæt med kaldes en basis for , hvis vektorerne er lineært uafhængige og .
Det vil sige: en basis for et underrum er en minimal udspændende mængde, hvor ingen vektorer kan udelades. Det kan ikke undstreges nok at man for at forstå hvad en basis er, bliver nødt til at se på adskillige konkrete eksempler. Som et absolut minimum bør du løse følgende opgave.

Opgave

Forklar helt præcist hvorfor
er en basis for .
Sætning 6.18 medfører følgende centrale resultat, som siger at ethvert underrum har en basis og at antallet af vektorer i en basis er entydigt bestemt. Bemærk dog at et underrum har tonsvis af baser. Vi siger ikke at basen er entydigt bestemt, kun antallet af vektorer i den. Begrebet basis er helt basalt for lineær algebra, så brug tid på at forstå det. I de fleste anvendelser vil man få brug for at lave konkrete udregninger, og de vil ofte afhænge af at man har valgt en basis for et underrum. I mere teoretiske overvejelser er det mange gange bedre at ikke lægge sig fast på en bestemt basis, med mindre denne basis er specielt egnet for netop det problem man betragter.

En matematikers tre regler for valg af basis

Regel 1 : Vælg aldrig en basis.

Regel 2 :

Seriøst - vælg aldrig en basis.

Regel 3 :

Hvis du alligevel kommer til at vælge en basis, gør det på en ekstremt snedig måde.
Til ethvert underrum findes en basis med elementer, hvor . Hvis og er to baser for , så er .

Bevis*

Vi kan lige så godt antage at ikke kun består af nulvektoren. Vælg . Sæt . Hvis er vi færdige. Hvis ikke findes der et så at . Det betyder at og er lineært uafhængige. Denne proces fortsættes. Hvis vi har fundet som er lineært uafhængige, og hvis så er lineært uafhængige, fordi hvis
så er
Hvis nu kunne man bruge denne ligning til at skrive som linearkombination af , men det kan vi jo ikke, fordi ikke ligger i af de andre vektorer. Derfor må , og altså
Fordi er lineært uafhængige er nu for alle . Vi kan dermed slå fast at er lineært uafhængige. Et stykke tid kan vi blive ved med at finde nye , men denne leg må nødvendigvis stoppe med lineært uafhængige vektorer med og på grund af Sætning 6.18.
Hvis er en anden basis for , skal vi vise at . Det er nok at vise at (fordi på den samme måde kan vi også vise at ). Vi argumenterer ved modstrid. Det vil sige, vi antager at , og viser at dette fører til en modstrid mod forudsætningen at og begge er baser for . Til at begynde med bruger vi at vektorerne danner en basis, så at vi kan skrive
Nu opstiller vi et ligningssystem med ubekendte og ligninger.
Da findes der en løsning til dette ligningssystem som ikke er nulløsningen. Lad være en sådan løsning. Vi definerer en vektor . Nu er tiden kommet til at bruge at også er en basis, fordi det betyder jo at . På den anden side er
Dette giver en modstrid mod antagelsen at såvel som er en basis. Sætningen er bevist.
Med entydigheden af antallet af elementer i en basis for et underrum har vi nu et veldefineret mål for størrelsen eller omfanget af et underrum kaldet dimensionen.
Lad være et underrum af . Dimensionen af er antal vektorer i en basis for og betegnes .

Hvordan ser det ud i rummet?

Det skulle helst ikke chokere nogen der har fulgt med hertil, at dimensionen af origo er 0, dimensionen af en linje der indeholder origo er 1, dimensionen af et plan der indeholder origo er 2 og dimensionen af hele rummet er 3.
Hvordan finder vi så dimensionen af et underrum? Igen kommer den reducerede række echelon form til hjælp.
Lad
være et underrum af . En basis for fås ud fra rækkerne i den reducerede række echelon form for , hvor er matricen med rækker
Dimensionen, , er lig med antal pivotelementer i .

Bevis

Ifølge definitionen af og definitionen af rækkerummet er . Da rækkerummet ikke ændres ved rækkeoperationer er . Så vi skal vise, at hvis er på RREF, så har basis der består af alle rækker i , som ikke er nulrækker. Vi kan nu glemme alt om matricen som måske ikke var på RREF, og koncentrere os om . Hvis vi lader alle nulrækker i helt væk, så får vi en ny matrix på RREF med det samme rækkerum. Forskellen er kun at ikke har nulrækker, og åbenbart er . For at give et fuldstændigt bevis for sætningen er det altså nok at vise at hvis er en matrix på RREF, som ikke indeholder nulrækker, så danner rækkerne i en basis for . Ifølge definitionen af hvad det vil sige at være en basis, skal vi vise, at rækkerne i er lineært uafhængige.
Hver række i indeholder et pivotelement. Lad være nummeret på den søjle, der indeholder pivotelementet i række nummer . Da er , fordi det er et pivotelement, og hvis er , da pivotelementet er den eneste indgang i sin søjle der er forskelligt fra 0. Lad
Hvis vi skriver , så er altså . For at vise at er lineært uafhængige, skal vi vise: hvis , så er for alle . Men hvis , så er specielt , så at .

Eksempel

Vi gennefører udregningerne i beviset ovenfor på et eksempel. Lad
være et underrum i . Vi transponerer søjlevektorerne , og bruger rækkevektorerne som rækker i en matrix . Det vi sige, vi opstiller matricen
som så rækkereduceres til .
Vi ved at , så for at bestemme er det nok at bestemme . er udspændt af de tre vektorer . Den sidste nul vektor gør hverken fra eller til, så er span af de to første vektorer . Det betyder at , hvor
Vi påstår at er en basis for . Men det er det samme som at sige at de to vektorer er lineært uafhængige. Så lad os antage at . Vi regner:
Det følger at , så at faktisk er lineært uafhængige. Altså er og
er en basis for .
Selvom jeg har set det mange gange før, synes jeg stadig at Sætning 6.25(α) nedenfor er ekstremt overraskende. Hvem skulle på forhånd tro at dimensionerne af række- og søjlerummene for en matrix havde noget med hinanden at gøre? Hvorfor skulle for eksempel dimensionerne af
og
være identiske? Sætning 6.25(β) kaldes dimensionssætningen og giver en meget stærk og nyttig sammenhæng mellem dimensionerne af nulrummet og søjlerummet for en matrix.
Lad være en matrix. Så gælder
Før vi går i gang med beviset for denne sætning, skal vi i anslutning til eksempel 6.13 kigge lidt nærmere på på nulrummet for en matrix der er på RREF. Det er en god idé at genopfriske dette eksempel før man læser beviset for lemmaet.
Antag at er en matrix på RREF. Da er dimensionen af nulrummet det samme som antallet af søjler i som ikke er pivotsøjler.

Et lemma? Hvad er nu det for noget? Skal vi også kunne lemmaer til eksamen?

Et lemma eller en hjælpesætning er en sætning som ikke er så vigtig i sig selv, men som skal bruges lige om lidt i et bevis for en mere vigtig sætning. Til eksamen bliver der desværre ikke stillet opgaver til beviset for dette lemma.

Bevis *

At betyder det samme som at er en løsning til ligningen . I afsnit ''Løsning af ligninger via RREF'' beskrev vi hvordan man kan finde alle løsninger til dette system når er på RREF. Vi betragter de variable , og inddeler disse variable i to grupper, de frie variable for en mængde af indekser , og de bundne variable for en anden mængde af indekser . Enhver variabel er enten fri eller bunden, så at tilsammen udgører og mængden af alle indekser . De bundne variable svarer til pivotsøjlerne, det vil sige at der er lige så mange bundne variable som der er pivotsøjler. De frie variable svarer til de søjler som ikke er pivotsøjler. Resultatet af vores overvejelser var at hvis man angiver værdiene for hver af de frie variable, så findes der netop en løsning til ligningen så at for alle frie variable, det vil sige, for .
Nu definerer vi følgende vektorer. For hvert lader vi være den eneste ene løsning til hvor den frie variabel med antager værdien 1, og alle andre frie variable med antager værdien . Vi påstår at er udspændt af vektorerne for . Vi skal altså vise at enhver vektor der opfylder at er en linearkombination af vektorerne . Til dette formål definerer vi nu vektoren
hvor vi bruger alle frie variable . I denne sum forekommer altså ikke nogen med . I mange kloge bøger ville denne sum i øvrigt skrives som
Vi påstår at . For at vise dette bruger vi at der er netop en løsning til ligningen sådan at for , og den løsning kender vi, fordi det er jo . For at vise at er det altså fuldstændigt nok at vise at for alle så er . Det er en lille udregning. Antag at .
Dermed har vi vist at vektorerne udspænder . Der er lige så mange af dem som antallet søjler i der ikke er pivotsøjler. Så for at afslutte beviset skal v vise at vektorerne er lineært uafhængige. Antag altså at (hvor selvfølgelig . Da er
Altså er for alle . Derfor er vektorerne lineært uafhængige.
Nu kan vi bevise den vigtige sætning 6.25.

Bevis

Vi viser først sætningen for en matrix på RREF. Lad os sige at har pivotsøjler. Pivotsøjlerne er de første enhedsvektorer for , så at . En søjle i ,
opfylder at for , da er på RREF. Men det vil sige at
Det betyder at , og dermed at faktisk . Men har basis , så at .
Rækkerummet er rummet udspændt af de rækker i der indeholder pivoter. Vi kan lade de nulrækker væk der ikke indeholder pivotelementer, og vedtage at de resterende rækker hedder , så at . Sætning 6.23 siger at har en basis der består af de rækker som ikke er nulrækker i den reducerede række echelon form for . Men RREF af er jo bare selv, så det betyder at er lineært uafhængige, og . Vi har altså vist at .
Lemma 6.26 siger at . Ved at sætte ind at får vi at . Dermed er sætningen bevist for de matricer som er på RREF. Vi skal selvfølgelig også kigge på det generelle tilfælde
Hvis er en eller anden matrix, så kan den i hvert fald rækkereduceres til en matrix på RREF. Og nu gælder det at og . Der er ingen grund til at tro at , men i det mindste følger det fra sætning 6.23 at er lig med antallet af pivotelementer i . På samme måde er er lig med antallet af pivotelementer i rækkereduktionen af , men da rækkereducerer til sig selv, er . Nu bruger vi at vi allerede ved at sætningen er rigtig for til at konkludere
Dimensionen af søjlerummet for en matrix kaldes rangen af matricen og betegnes . Med denne betegnelse kan dimensionssætningen for en matrix udtrykkes som

Opgave

I denne opgave gælder det om at regne mindst muligt. Hvad er dimensionen af nulrummet for matricen
ud fra udregningerne i Eksempel 6.24?

En løs snak om abstrakte vektorrum

Det kan ske at et abstrakt vektorrum har en basis der består af endeligt mange vektorer. Antallet af elementer i denne basis kaldes for dimensionen af , og vi siger at har endelig dimension. I stort set alt der gælder om underrum af vil også gælde for vektorrum af endelig dimension. For eksempel vil alle baser for have det samme antal elementer, og de efterfølgende afsnit om koordinater og lineære transformationer vil også kunne kopieres næsten uden ændringer. Det betyder jo også at det ikke giver så meget mere indsigt at formulere disse afsnit for abstrakte vektorrum, så det vil vi ikke gøre. Der findes også abstrakte vektorrum som ikke har en endelig basis. De spiller en stor rolle indenfor matematik, men er ikke så vigtige i anvendelser. I kvantfysik bruges dog ofte ``Hilbertrum'' som er vektorrum over de kompleks tal, og ikke plejer at have en endelig dimension.

6.5 Koordinater

Lad være et underrum af og en basis for . Hvis
for , så kaldes for koordinatvektoren eller koordinaterne for med hensyn til basen .
Læg mærke til at en vektor ikke kan have to forskellige koordinatvektorer med hensyn til en basis som ovenfor. Hvis
så er
og dermed er , fordi basisvektorerne er lineært uafhængige. Der er myriader af baser for et underrum. Det er rigtigt nyttigt at kunne regne om fra koordinater i en basis til koordinater i en anden basis, men det gælder om at holde tungen lige i munden.
Lad og være to baser for et underrum af dimension . Basisskiftmatricen fra til er matricen , hvis søjler er koordinaterne for basisvektorerne i med hensyn til basen , det vil sige
for .

Eksempel

Hvis er en basis for og er standardbasen for , så er basisskiftmatricen fra til matricen hvis søjler er vektorerne , fordi
Hvis
har koordinaterne
med hensyn til basen og det samme har koordinaterne
med hensyn til basen , så gælder
Matricen er invertibel. Hvis er , hvor baserne opfattes som søjler i en matrix.

Bevis *

Man udtrykker som skrevet basisvektorerne i via basisvektorerne i :
og sætter derefter (6.4) ind i (6.3):
Ved nu at summere (6.5) lodret får vi koordinaterne for i basen som
Hvis vi skriver , så at , får vi altså
Herved ses at matrixmultiplikationen giver koordinaterne for i basen .
Hvad er nulvektorens koordinater i en basis ? Ja,
så de er allesammen 0. Omvendt, hvis en vektor har alle koordinater lige med , så er
Og det gælder for enhver basis. Vi vil bruge dette lille faktum til at vise at er invertibel. Hvis den ikke var, så ville der findes en vektor , , så at . Det vil sige, repræsenterer vektoren i basen . Men ifølge det vi lige har sagt om repræsentationen af i en basis, betyder det at også repræsenterer vektoren i basen , Det følger at , så at er invertibel.
Hvad med den sidste påstand? Ved vi egentlig at er invertibel, så at det i det hele taget giver det mening at skrive ? Jo, det ved vi, fordi ifølge eksempel 6.30 er også en basisskiftmatrix. Og vi har jo lige vist, at enhver basisskiftmatrix er invertibel! Hvis vi nu skriver , ser vi at og . Læg mærke til at de to indekser og ''bytter plads'', og sådan skal det også være. Nu kan vi skrive om på (6.4):
Dette genkender vi som et matrixprodukt, så at vi har vist at
Nu multiplicerer vi med på venstresiden, og får at

Eksempel

Det betaler sig at se et helt konkret eksempel på anvendelsen af Proposition 6.31. Lad
være to baser for . Her er heldigvis nem at regne ud: Da
bliver
Så hvis er koordinaterne til en vektor i basen , så er koordinaterne til vektoren i basen givet ved
Men vent! Det gælder også den anden vej ved at invertere : Hvis er koordinaterne til en vektor i basen , så er koordinaterne til vektoren i basen givet ved
For eksempel har vektoren koordinaterne med hensyn til basen . Lad os checke påstanden:

Quiz

Hvad gælder om og hvis

Quiz

Hvis koordinaterne i basen
til en vektor er , hvad gælder så om koordinaterne til vektoren i basen
.
.
Kommentarer/spørgsmål?

6.6 Lineære transformationer

Ligesom definitionen af underrum var forbavsende enkel, har vi her også en ret enkel definition af lineære afbildninger (transformationer) mellem underrum
Lad og være underrum En lineær transformation fra til er en afbildning
som opfylder
  1. for og .
Det er ekstremt vigtigt at bemærke at en lineær transformation er givet entydigt ud fra dens værdier
på en basis for : Enhver vektor kan skrives som
for entydigt bestemte . Dette følger ved at bruge egenskaberne (α) og (β) i Definition 6.35:

Quiz

Hvilke af nedenstående påstande er rigtige?
Afbildningen givet ved er en lineær transformation.
Afbildningen givet ved er en lineær transformation.
Afbildningen givet ved er en lineær transformation.
Afbildningen givet ved er en lineær transformation.

6.6.1 Repræsentation ved en matrix

Nu kommer vi til et meget centralt punkt i disse noter: sammenhænget mellem matricer og lineære afbildninger. Vi vil gerne kunne sige at ``en lineær afbildning er det samme som en matrix'', og det er ikke helt forkert, men det er heller ikke helt rigtigt, og for at komme videre er man nødt til at forstå hvorfor. Den lille men vigtige forskel er at før vi kan sige det på denne måde har vi har brug for at vælge baser!
Hvis vi for eksempel er kommet i besiddelse af en lineær transformation , og gerne vil ``oversætte'' denne lineære transformation til en matrix gør vi følgende. Betragt baserne for og for . Per ovenstående noterer vi at
Og nu har vi lavet en matrix.
Matricen
i (6.6) siges at repræsentere med hensyn til basen for og basen for .
Hvis vi allerede har valgt de to baser og så er matricen entydigt bestemt af . Hvis vi vil holde styr på at den opstår ud fra så skriver vi . Nogle mennesker ville endog være omhyggelige nok at skrive for at være sikre på at vi ikke glemmer at vores matrix også afhænger af vores valg af baser.
En forvirrende detalje er at vi ofte har favoritbaser for og , og så vælger vi bare dem. For eksempel har vi standardbasen for , så hvis og kan vi altid bare vælge og , og sige at en linear transformation bestemmer en matrix. Simpelthen. Der er to problemer med denne lemfældige tilgang til situationen. Det ene er at vi sagtens kan komme ud for at betragte lineære afbildninger mellem underrum af , og så findes der ikke mere en standardbasis. Det andet og mere afgørende problem er at vi ofte vil bruge en basis eller måske endog flere forskellige baser der er tilpasset til den situation vi betragter. Så vi må leve med at hvis vi vil kunne gå uhindret fra en lineær afbildning til en matrix, så skal og være forsynede med baser og .
Vi ved altså at vi kan gå fra lineære transformationer til matricer, men kan vi gå den anden vej? Selvfølgelig kun under forudsætning af at vi har givet baser. Så lad være en basis for og en basis for for . Hvis er en matrix, så laver vi en afbildning sådan her: Vektoren afbildes over i vektoren med koordinater
med hensyn til basen . Vi formulerer nu en sætning der siger at de to begreber "lineær transformation" og "matrix" kun er to forskellige avatarer af det samme begreb.
Lad og være underrum med baser henholdsvis . Hvis er en matrix og er afbildningen beskrevet ved (6.6), så er en lineær transformation, entydigt bestemt af . Desuden er .

Ikke flere beviser nu

Beviset for dettes minder i høj grad om beviset for Proposition 6.31 og vi vil ikke gå i detaljer her.

Quiz

Antag at den lineære transformation , hvor og er givet ved
Hvad er matricen som repræsenterer med hensyn til
Nedenfor en forelæsning fra 2012 forklarende matrixrepræsentationer af lineære transformationer med ekstern bistand.
Kommentarer/spørgsmål?
Matricen i Definition 6.37 kan oftest udregnes ved hjælp af nedenstående omformulering af definitionen.
Lad være en lineær transformation, en basis for og en basis for . Søjlen i matricen med som repræsenterer med hensyn til baserne og er den vektor
som er entydigt fastlagt af at
En helt konkret anvendelse af resultatet ovenfor er gennemgået i nedenstående video.
Kommentarer/spørgsmål?

6.7 Sammensætning af lineære transformationer

De sker at vi har tre underrum og lineære transformationer og . Da kan vi sammensætte og får en ny lineær transformation defineret ved at
Lad os lægge mærke til at denne sammensætning lige som alle andre sammensætninger af afbildninger overholder den associative lov:
Hvis de tre rum har baser så kan vi ifølge sætning 6.38 om matrixrepræsentationer lige så godt betragte de to tre matricer og .

Bevis

Vi kan genkende matricen på at dens indgange er givet ved at
På den anden side er
Nu samler vi koefficienterne, hvilket i dette tilfælde betyder at vi summerer vertikalt:
Ved at sammenligne koefficienterne i denne ligning med koefficienterne i (6.7) ser vi at
Her genkender vi formlen for matrixmultiplikation, og slutter at .

Hvad er spørgsmålet som har svaret "sætning 6.42''?

Hvor kommer formlen for matrixmultiplikation fra?
Nu kan vi endelig forklare hvorfor det er blændende indlysende at matrixmultiplikation er associativ - det er den fordi den bare er en anden måde at skrive sammensætning af lineære transformationer, og sammensætning af afbildninger er altid associativ! I formler: Lad være tre matricer som kan ganges sammen i denne rækkefølge. Da er
Det vil sige, og derfor er .
Lad være matricen, som repræsenterer en lineær transformation med hensyn til basen for og basen for . Matricen, som repræsenterer med hensyn til basen for og basen for er givet ved
hvor er basiskiftmatricen fra til og er basisskiftmatricen fra til .

Bevis

Vi skal holde styr på fire baser i den her sætning. Det er simpelthen for meget for vores hjernekapacitet, så vi vil dele det lidt op. Lad os skrive matricen der repræsenterer med hensyn til baserne og som . Vi skriver altså og skal vise at . Beviset går nu i to trin.
Hvis vi kan bevise begge disse to trin så følger sætningen, fordi
Beviset for de to trin minder meget om hinanden, og også stærkt om beviset for Sætning 6.41. Begge dele består af hjernedøde udregninger, som vi drevet af en absurd pligtfølelse nu reproducerer.

HD udregning 1

Vi har tre baser at holde styr på.
Lad os skrive og Ifølge proposition 6.40 kan vi kende matricen på at dens søjle med søjlenummer
opfylder at
Men det kan vi faktisk regne på.
Ved at sammenligne med (6.8) ser vi at
Dette genkender vi som formlen for matrixmultiplikation, så at .

HD udregning 2

Vi har tre baser at holde styr på.
Lad os skrive og Ifølge proposition 6.40 kan vi kende matricen på at dens søjle med søjlenummer
opfylder at
Men det kan vi faktisk regne på.
Ved at sammenligne med (6.9) ser vi at
Dette genkender vi som formlen for matrixmultiplikation, så at .
Som man hurtigt ser er proposition 6.43 er en anelse langhåret og notationstungt, og vi skal slet ikke snakke om beviset. Lad os prøve at kigge på den i et helt konkret tilfælde.

Eksempel

I vektorrummet har vi den naturlige basis
Den lineære transformation givet ved
repræsenteres af matricen
med hensyn til basen for (her er og med hensyn til notationen i Proposition 6.43). Hvad er matricen, som repræsenterer med hensyn til basen
I henhold til Proposition 6.31 bliver basisskiftmatricen fra til netop
Tilsvarende bliver basisskiftmatricen fra til
Samlet bliver matricen, som repræsenterer i basen
Dette lille eksempel leder os naturligt frem til næste afsnit.

6.8 Egenvektorer og diagonalisering af kvadratiske matricer

Husk på definitionen af diagonaliserbare matricer og egenvektorer fra foregående kapitel. Der definerede vi en kvadratisk matrix til at være diagonaliserbar, hvis der fandtes en invertibel matrix
er en diagonalmatrix. Samtidig så vi at søjlerne i blev nødt til at være egenvektorer for . Tallet er en egenværdi for hvis og kun hvis
for en vektor i . Hvis er en egenværdi lader vi
Læg mærke til at er nulrummet for matricen og at dette nulrum netop er mængden af egenvektorer hørende til kaldet egenrummet hørende til . Vi siger at en vektor som ikke er nulvektoren er en egenvektor hørende til egenværdien . Underrummet består altså af alle egenvektorer til egenværdien sammen med nulvektoren . Med nogle få tricks kan man vise følgende
Egenvektorer hørende til forskellige egenværdier er lineært uafhængige.

Bevis

Helt præcis vil vi vise, at hvis er egenvektorer til med egenværdier som alle er forskellige, så er lineært uafhængige. Vi begynder med at vise det for to vektorer . Hvis vi har en linearkombination
så kan vi gange med og få
Man vi kan også anvende (6.10) og få
Ved at trække (6.12) fra (6.11) fås
Nu var jo en egenvektor, så at specielt er . Dette giver , da . På den samme måde er .
Nu har vi starten på en induktion. Induktionsstarten er at sætningen er rigtig for . Induktionsskridtet er at vise at hvis sætningen er rigtig for egenvektorer, så er den også rigtig for egenvektorer. Hvis vi har en linearkombination
får vi på samme måde som før to ligninger:
og
Dette medfører at
Ved at bruge sætningen på de egenvektorer finder vi at . Det følger dermed også at , så at , og induktionen er fuldstændig.
Med hensyn til et konkret eksempel på udregning af egenvektorer for en matrix det vil sige udregning af egenrummene henvises til sidste del (cirka fra 7:25) af videoen (som skamløst er blevet genbrugt fra Kapitel 4) nedenfor.
Kommentarer/spørgsmål?
Med vores nye viden om underrum, baser og dimension kan vi nu sammenfatte dette i følgende
En matrix er diagonaliserbar hvis og kun hvis har en basis bestående af egenvektorer for . At har en basis bestående af egenvektorer er ækvivalent med at
hvor er de forskellige egenværdier for .

Bevis

Hvis har en basis bestående af egenvektorer for hørende til respektive egenværdier , så vil matricen med søjler være invertibel og
hvor
Det har vi overejet. Modsat hvis er invertibel med ovenstående egenskab, så vil søjlerne i udgøre en basis af egenvektorer med tilhørende egenværdier i diagonalen. For at vise det skriver vi ud de to matrixmultiplikationer og , og overvejer at er identiske. Det er jo nok at tjekke dette på vektorerne i standardbasen, så det er det vi gør.
Vi mangler den sidste påstand i sætningen. Som vi plejer, deler vi beviset op i lidt mindre stykker. Til at begynde med kan vi for hvert vælge en basis for , lad os sige at den hedder . Da antallet elementer i en basis er det samme som dimensionen er . Vi påstår nu at hvis vi tager alle disse vektorer sammen, så er de stadig lineært uafhængige i . Hvorfor nu det? Jo, hvis vi har en linearkombination
samler vi alle termer der hører til det samme egenrum, det vil sige
Da er enten en egenvektor med egenværdi , eller også er . Disse er forskellige, og
Ifølge (6.13) er altså alle , så at
Da er en basis for så følger det at alle . Vi har nu lavet en mængde af lineært uafhængige vektorer i . Da de er lineært uafhængige kan der ikke være flere end allerhøjst af dem, og hvis der er nøjagtig af dem, så danner de en basis for . Nu tæller vi op hvor mange vi har. Alt i alt er der
Der er altså nu to alternativer. er
og danner en basis af egenvektorer for også er
Nu følger den første halvdel af vores påstand: Hvis
så er vi i tilfældet hvor der en basis for der udelukkende består af egenvektorer for . For at fuldstændiggøre beviset skal vi vise den omvendte implikation, nemlig at hvis der findes en basis af egenvektorer, så er
Så antag at der findes en sådan basis . Vi kan omsortere egenværdierne så at der er tal og
Der er altså af de lineært uafhængige vektorer der er egenvektorer med egenværdi . Det betyder at , så at
Dette udelukker vores alternativ. så at vi faktisk har en basis for der består af egenvektorer for .
Det er hændt at jeg er stødt på kandidatstuderende i matematik, som ikke kan give et eksempel på en ikke-diagonaliserbar matrix efter at have været gennem større kurser i lineær algebra og avancerede kurser i topologi og abstrakt algebra. Det får mig til at tænke på at matematikundervisningen tit fokuserer alt for meget på at skrive tingene fint og fejlfrit ned og ofte er alt for langt fra de konkrete tiltag, hvor de fleste mennesker har en reel mulighed for at få en dyb forståelse. Her er en helt konkret opgave.

Opgave

Gør detaljeret rede for at matricen
ikke er diagonaliserbar.

6.8.1 Egenværdier via potensmetoden

Hånden på hjertet. Vi har reelt kun nu det karakteristiske polynomium til at bestemme egenværdierne for en matrix. For store matricer bliver det helt uoverkommeligt for ikke at sige umuligt at udregne det karakteristiske polynomium. Der er brug for andre metoder til udregning af egenværdier. Her giver jeg et eksempel på en sådan klassisk metode. Antag at er diagonaliserbar med en basis af egenvektorer hørende til egenværdierne . Antag yderligere at og at
for . Begynd med en vektor
og antag . Herefter itereres
Antag at den -te koordinat i er . Så vil
fordi og dermed
hvor
Derfor vil
for . Lad os illustrere metoden med matricen
og startvektoren . Nedenfor er angivet de første iterationer af metoden. Første søjle angiver , anden søjle er -koordinaten for , tredje søjle er -koordinaten for , mens sidste søjle angiver for det vil sige med hensyn til -koordinaten.
0 1 0
1 7 -15 7
2 19 -45 2.714
3 43 -105 2.263
4 91 -225 2.116
5 187 -465 2.055
6 379 -945 2.023
7 763 -1905 2.013
Iterationerne ser ud til at indikere at er en egenværdi for , hvilket viser sig at være korrekt.
Der findes modeller i anvendelser hvor en vektor angiver tilstanden til et tidspunkt, og den lineære afbildning fortæller hvordan udvikles i løbet af en bestemt tidsenhed (et sekund, en dag eller et år etc..). Det betyder at tilstanden efter at tidsenheder er forløbet er angivet af vektoren . Ifølge ovenstående betragtning vil det betyde at hvis den største numerisk største egenvektor opfylder at så forudsiger modellen eksponentiel vækst. Det vil normalt betyde at på et tidspunkt vil modellen bryde sammen, og ikke mere være en god beskrivelse af virkeligheden

6.9 Gershgorins cirkelsætning

Gershgorins cirkelsætning (efter Semyon Aranovich Gershgorin) udtrykker hvor langt vi kan forvente egenværdierne for en matrix ligger fra diagonalelementer. Lad være en matrix og lad
hvor
være cirkelskiven med centrum i og radius i de komplekse tal. Bemærk at er summen af de absolutte værdier af indgangene udenfor diagonalen i -te række for .
Enhver egenværdi for ligger i mindst en af cirkelskiverne for .

Bevis

Lad være en egenværdi for og vælg en egenvektor hørende til med en koordinat , hvor for . Med definitionen af matrixmultiplikation og følger
og dermed
En matrix kaldes strengt diagonaldominant hvis
for .
En strengt diagonaldominant matrix er invertibel.

Bevis

Lad betegne indgangene i . Det er nok at vise at ikke er en egenværdi for . Hvis var en egenværdi måtte vi have for et eller andet på grund af Sætning 6.48. Dette er umuligt, da
Matricen
er invertibel ifølge Sætning 6.50. For denne matrix er

6.10 Opgaver

6.10.1

Lad . Vis ud fra Definition 6.1 at
er et underrum i .

Vink

Begynd med og for at få ideer.

6.10.2

Lad være den naturlige basis for det vil sige
for . Hvis er et underrum af og alle ligger i , hvorfor gælder så at ?

6.10.3

Er
en basis for ? Begrund dit svar.

6.10.4

Lad
Find baser for og som underrum af .

6.10.5

Lad være en matrix med rang . Hvad kan du sige om ? Opskriv et eksempel på en matrix med disse egenskaber.

6.10.6

Opgave om taxa fordeling.

6.10.7

Lad , hvor være givet ved
Find matrixrepræsentationen af med hensyn til basen
for og basen
for .

6.10.8

Lad
Det opgives at og er egenværdierne for . Undersøg om har en basis af egenvektorer for det vil sige om er diagonaliserbar. Find i givet fald en invertibel matrix
er en diagonalmatrix.

6.10.9

Gør rede for at matricen
ikke er diagonaliserbar ud fra oplysningen om at dens karakteristiske polynomium er

6.10.10

Kan en invertibel matrix have som egenværdi?

6.10.11

Sandsynliggør at er en egenværdi for
ved at benytte potensmetoden beskrevet i afsnit 6.8.1. Er diagonaliserbar?

6.10.12

Hvorfor vil lineært uafhængige vektorer i et underrum af dimension altid udgøre en basis?