8Egenværdier og egenvektorer

Diagonalmatricer er uden tvivl de pæneste matricer vi kan arbejde med. I lineære ligningssystemer svarer en diagonal systemmatrix til at der kun indgår én variabel i hver ligning, så man kan direkte aflæse løsningerne.
I andre tilfælde kan det være brugbart at udregne potensen af en matrix (se Eksempel 4.4), det vil sige udregne af en kvadratisk matrix . For en kvadratisk diagonalmatrix er disse operationer meget mere overkommelige.
Hvis
er en kvadratisk diagonalmatrix, så er
for et naturligt tal . Det vil sige, at en kvadratisk diagonalmatrix opløftes til en potens ved at opløfte diagonalelementerne til potensen.
Bevis
Definition 4.1 (af matrixmultiplikation) for to diagonalmatricer giver
Formlen for er en konsekvens af dette.
Hvis man eksempelvis prøver at udregne for en ikke-diagonal matrix, vil man hurtigt indse at det kan være et større projekt. Det betaler sig derfor at lave om til en diagonalmatrix for at udregne . Dette kan nogle gange lade sige gøre ved en såkaldt diagonalisering, hvilket betyder at man finder en basis således at matricen med hensyn til den nye basis er en diagonalmatrix.
For en invertibel matrix findes den inverse matrix og udregningen giver mening for en kvadratisk matrix med samme dimensioner som . Matricerne og kaldes similære, svarende til at der er et basisskifte (basis som søjlerne i ) der overfører til .
Lad
hvor og . Lad . Hvad er rigtigt af nedenstående?
hvis .
Lad os antage et øjeblik at matricen er similær med en diagonalmatrix , det vil sige vi kan finde en invertibel matrix
Så har vi tilsvarende at
og dermed
Nøjagtig den samme udregning kan laves ikke bare for potensen , men for en generel potens :
Det vil sige, hvis vi er så heldige at finde en invertibel matrix , således at er en diagonalmatrix, så kan vi udregne potenser af meget nemmere end ved almindelig matrixmultiplikation. Dette viser sig også at være ganske brugbart når man løser lineære systemer af ordinære differentialligninger, som man kan se senere i dette kapitel. I Kapitel 11 og 12 vil diagonalisering komme igen som et vigtigt redskab til f.eks. principle component analysis som bruges til at finde det mest relevante data blandt store mængder af målinger inden for eksempelvis kemi, biologi og fysik. Lidt mere jordnært er Googles PageRank algoritme til at finde de mest relevante hjemmesider ud fra en Google-søgning.
Det er slet ikke sikkert at et sådan findes, men vi kan prøve på at analysere hvad matricen skal opfylde for at det lader sig gøre.

8.1 Egenværdier, egenvektorer og diagonalisering

Først ser vi, at i en diagonalisering skal der gælde en særlig sammenhæng mellem søjlerne i og diagonalelementerne i .
Lad være en matrix, en invertibel matrix og diagonalmatricen
Så gælder hvis og kun hvis
for . Hvis det kan lade sig gøre, kaldes diagonaliserbar.
Bevis
gælder hvis og kun hvis . Per definition af matrixmultiplikation følger det at søjlevektorerne i er for samt at de tilsvarende søjlevektorer i er .
Hvis vi kigger lidt nærmere på (8.2), ser vi at der er tale om nogle helt særlige vektorer . For de fleste vektorer vil ikke være parallel med , men vi ser at dette lige præcis er tilfældet for -vektorerne hvis de skal bruges i en diagonalisering af ; her er bare en skalering af , som derfor (hvis udspænder den samme linje som -vektoren.
Disse overvejelser leder frem til følgende definition.
Lad være en kvadratisk matrix. Et komplekst tal kaldes en egenværdi for og en vektor kaldes en egenvektor hørende til , hvis de opfylder
I vektorrumsterminologien skal man bestemme sig for om et vektorrum er et reelt vektorrum eller et komplekst vektorrum. Dette har formelt betydning for egenværdier og egenvektorer, da reelle vektorrum kun gør brug af reelle skalarer. For at simplificere gennemgangen i dette kapitel (og de næste kapitler), så vil vi antage at alle matricer vi undersøger er komplekse matricer, således at vi også tillader komplekse egenværdier. Husk at selv hvis en matrix kun har reelle tal i dens indgange, så er de reelle tal stadig en delmængde af de komplekse tal.
Det er værd at bemærke, at hvis er egenvektor til , så vil også være en egenvektor for ethvert tal :
Lad os tage et kig på matricen
Så har vi at er en egenværdi og en tilhørende egenvektor, fordi
Tilsvarende er en egenværdi og en tilhørende egenvektor, da
Det er ikke oplagt med vores viden nu, om en matrix overhovedet har endeligt mange egenværdier, eller hvordan man i praksis kan beregne egenværdier og egenvektorer, medmindre man får dem givet som i eksemplet ovenfor.

8.2 Udregning af egenværdierne for en matrix

Fra Definition 8.4 ser det kompliceret ud at finde egenværdier og egenvektorer, da vi i princippet har en ubekendt i både og . Men ved en lille omskrivning af (8.3), kan vi se hvordan vi først kan bestemme egenværdierne og derefter finde egenvektorer:
Vi ser at skal ligge i nulrummet for matricen , og da vi kun er interesserede i så skal have dimension større end . Sagt med andre ord: Vi skal finde tal så matricen er singulær. Nu har vi et kriterium som udelukkende afhænger af , og vi kan bruge determinanten til at undersøge om matricen er singulær.
Vi har dermed følgende resultat, hvor graden af polynomiet kommer fra definition af determinanten.
  1. Lad være en matrix. Så er funktionen
    et polynomium af grad i . Dette polynomium kaldes for det karakteristiske polynomium for
  2. Et tal er egenværdi for hvis og kun hvis er rod i det karakteriske polynomium, dvs. løsning til
    Vi kalder multipliciteten af roden for den algebraiske multiplicitet af egenværdien.
På nuværende tidspunkt kan det være en god ide at kigge tilbage i Kapitel 2 (Sætning 2.20), og genopfriske hvad multipliciteten af en rod i et polynomium er.
Lad os illustrere udregningen af egenværdier og egenvektorer med et eksempel.
Betragt matricen
Vi kan opskrive det karakteristiske polynomium for ved
Nu bruger vi definition af determinanten fra Kapitel 5:
Vi ser at er rod i , da indgår i alle leddene, mere specifikt har vi at
Løsningerne til , og dermed egenværdierne for , er altså (algebraisk multiplicitet 1) og (algebraisk multiplicitet 2).
Nu kan vi finde tilhørende egenvektorer ved at løse , hvor erstattes af egenværdierne.
Vi starter med :
Vi kan aflæse at alle egenvektorerne for udspændes af vektoren
Lad os nu finde egenvektorer hørende til :
Dermed er alle egenvektorerne for udspændt af de to vektorer
For en generel matrix bliver det karakteristiske polynomium et tredjegradspolynomium. Metoden til at finde rødder for tredjegradspolynomier er ikke lige til at huske på. Oftest kender man en rod på forhånd og kan regne sig frem til de to andre.
For et polynomium af grad kan man bevise at der faktisk ikke findes en direkte løsningsformel! I praksis er man tilfreds med numeriske approksimationer til egenværdierne, som ofte kan være for matricer betydelig større end . Det er ikke ualmindeligt at man opererer med lineære ligningssystemer med millionvis af ligninger og ubekendte inden for statistik eller til simulering af fænomener i fysik og kemi.
Dog ved vi fra Sætning 2.20 at der altid er præcis komplekse rødder (når man tæller multipliciteten af rødderne med) til et 'te gradspolynomium. Tilsvarende vil en matrix altid have præcis komplekse egenværdier (når man tilsvarende tæller de algebraiske multipliciteter med).
Hvilke af nedenstående udsagn er korrekte?
Matricen
har ingen reelle egenværdier.
Matricen
har som karakteristisk polynomium.
er en egenværdi for
er en egenvektor for
er en egenvektor for
er en egenvektor for

8.3 Geometrisk multiplicitet og kriterium for diagonalisering

Vi husker fra Sætning 8.3, at en matrix kan diagonaliseres hvis og kun hvis der kan findes lineært uafhængige egenvektorer for , således at disse kan opstilles som søjlerne i en invertibel matrix .
Nu ser vi nærmere på hvordan vi kan tjekke efter, om der er ''tilstrækkelig mange'' lineært uafhængige egenvektorer. Først introducerer vi lidt mere terminologi.
Lad være en kvadratisk matrix. Hvis er en egenværdi for , så kaldes
for egenrummet hørende til .
Vi kalder dimensionen af egenrummet, , for den geometriske multiplicitet af .
Vi så i foregående afsnit at er vektorrummet bestående af alle egenvektorerne for , pånær nulvektoren som ikke er en egenvektor. Herudover havde vi begrebet algebraisk multiplicitet for som relaterede sig til rødderne af det karakteristiske polynomium (heraf navnet ''algebraisk''), og nu har vi også den geometriske multiplicitet af , som angiver antallet af lineært uafhængige egenvektorer der hører til denne egenværdi (heraf navnet ''geometrisk'').
Det næste resultat viser at vektorer fra forskellige egenrum automatisk er lineært uafhængige.
Hvis er egenvektorer for en kvadratisk matrix , hørende til forskellige egenværdier, så er lineært uafhængige.
Bevis
Lad os kalde for egenværdien til . Vi starter med at kigge på situationen hvor , og da vi skal undersøge lineær uafhængighed, så skal vi undersøge en linearkombination som giver nulvektoren
Denne ligning kan vi gange igennem med både og med , samt anvende at :
Ved at trække de to ligninger fra hinanden opnår vi
Da (en egenvektor) og fra antagelserne, så må (8.6) betyde at . Indsætter vi dette i (8.5), ser vi at også da . Samlet set har vi vist at og er lineært uafhængige.
Antag nu at resultatet er sandt for egenvektorer, nu skal vi vise med induktion at det også er sandt for egenvektorer. Igen ser vi på en linearkombination som giver nulvektoren
På samme måde som før, kan vi få to nye ligninger ved at gange igennem med enten eller . Differencen af disse to ligninger giver, tilsvarende som i (8.6), følgende ligning:
Men dette er lige præcis lineært uafhængige vektorer, så vi må have at for alle . Fra vores antagelser ved vi at for alle , og vi ved at , så vi må have at . Indsætter vi disse -værdier i (8.7) får vi også at og vi har derfor vist at er lineært uafhængige.
Med vores nye viden om underrum, baser og dimension kan vi nu sammenfatte dette i følgende kriterium for om en matrix kan diagonaliseres.
En matrix er diagonaliserbar hvis og kun hvis har en basis bestående af egenvektorer for .
Dette er ækvivalent med at summen af de geometriske multipliciteter er lig . Det vil sige, hvis er de forskellige egenværdier af , så skal gælde at
Bevis
Vi så allerede i Proposition 8.3 at er diagonaliserbar hvis og kun hvis der er lineært uafhængige egenvektorer for . Ved en diagonalisering vil disse egenvektorer udgøre en basis for .
Vi starter nu med at udvælge en enkelt vektor fra hvert egenrum . Dette giver ifølge Proposition 8.11 lineært uafhængige vektorer svarende til antal forskellige egenværdier .
Hvis er vi allerede færdige med beviset, men antag nu f.eks. at der findes et hvor den geometriske multiplicitet er større end 1 (så må ). Vi kan navngive egenværdierne i den rækkefølge vi har lyst til, så lad os sige at således at . Så kan vi finde en vektor således at og er lineært uafhængige. Nu vil vi gerne vise at
er lineært uafhængige vektorer. Hvis dette er tilfældet kan vi nemlig på samme måde ''tilføje'' en ny egenvektor for hvert af de geometriske multipliciteter, og stadig få lineært uafhængige vektorer.
Vi starter med at tage en linearkombination af vektorerne som giver nulvektoren:
Hvis så har vi også at da er lineært uafhængige.
Lad os nu undersøge om det er muligt at . Hvis dette er tilfældet, så har vi at er en egenvektor for , da er et vektorrum og og er lineært uafhængige. Ved en mindre omskrivning af (8.8) får vi derfor
Men nu kan vi igen bruge Proposition 8.11, hvilket giver en modstrid da vi må have at . Så den eneste mulighed for linearkombinationen (8.8) er
Vi kan dermed højest opnå et antal lineært uafhængige egenvektorer svarende til summen af de geometriske multipliciteter, og denne sum kan ikke være større end da der højest kan være lineært uafhængige vektorer i .
I praksis skal man bestemme en basis for hvert egenrum , og hvis man i alt opnår basisvektorer, kan baserne sammensættes til søjlerne i en invertibel matrix , som kan bruges til at diagonalisere matricen . Man skal huske at egenværdier i diagonalmatricen skal gentages efter deres algebraiske multiplicitet, således at søjlerne i svarer til egenværdierne i .
Følgende er et simpelt resultat, men det er ofte ganske brugbart! Det fortæller nemlig at antallet af lineært uafhængige egenvektorer til en egenværdi højst kan være lig den algebraiske multiplicitet. Det betyder at hvis den algebraiske multiplicitet er , så er det nok bare at finde en vilkårlig egenvektor, mens hvis den er større end skal vi undersøge egenrummet lidt mere grundigt. Det betyder også, at hvis vi for en egenværdi finder at dens geometriske multiplicitet er lavere end dens algebraiske, så kan matricen ikke diagonaliseres.
Lad være en kvadratisk matrix og lad være en egenværdi for . Hvis er den geometiske multiplicitet og er den algebraiske multiplicitet af , så gælder
Bevis
Den første ulighed er sand, fordi til enhver egenværdi er mindst én egenvektor.
Lad nu være en basis for egenrummet . Hvis er en matrix og , så kan vi udvide med vektorer (ikke egenvektorer til ), således at er en basis for . Matricen er derfor invertibel.
Fra Opgave 8.32 er det karakteristike polynomium for og ens. Men ved at gange matrixproduktet ud, får vi følgende blokstruktur
hvor og er matricer, og angiver også en nulmatrix af denne størrelse. Ved at bruge definitionen af en determinant, opnår vi at det karakteristiske polynomium af er
Fra (8.9) ser vi, at den algebraiske multiplicitet af er mindst .
Hvis vi kigger tilbage på Eksempel 8.8, der så vi at matricen
havde egenværdi med algebraisk og geometrisk multiplicitet 1, samt egenværdi med algebraisk og geometrisk multiplicitet 2. Fra Sætning 8.12 ved vi at kan diagonaliseres, og vi kan bruge vektorerne , og fundet i Eksempel 8.8 til dette formål,
Her udgør en basis for og udgør en basis for .
Ved at samle matricen har vi derfor at
Bemærk at egenværdierne placeres i rækkefølgen bestemt ved de tilhørende egenvektorer der udgør søjlerne i , samt at egenværdierne gentages efter deres algebraiske multiplicitet.
Lad os nu kigge på en anden matrix
Vi finder hurtigt det karakteristiske polynomium til at være , altså er 0 eneste egenværdi for og har algebraisk multiplicitet .
Løsningerne til kan direkte aflæses fra matricen, og vi ser at alle egenvektorerne er udspændt af vektoren . Dermed er den geometriske multiplicitet kun 1, og derfor ved vi fra Sætning 8.12 at vi ikke kan finde nok lineært uafhængige egenvektorer til en diagonalisering af .
Man ser nogle gange kandidatstuderende i matematik der ikke kan give et eksempel på en ikke-diagonaliserbar matrix. Det er vigtigt at kunne illustrere teorien ved simple eksempler, og ikke kun kende de teoretiske resultater, så her er en helt konkret opgave.
Gør detaljeret rede for at matricen
ikke er diagonaliserbar.
I Kapitel 11 skal vi se på en pæn klasse af matricer som ofte indgår i anvendelser, nemlig de hermiteske matricer. Det viser sig at disse matricer altid kan diagonaliseres, og endda på en pænere måde end vi har set i dette kapitel. I Kapitel 12 skal vi se hvordan man for alle matricer kan opnå noget der er næsten lige så godt som en diagonalisering, ved den såkaldte singulær værdi dekomposition.

8.4 Lineære systemer af ordinære differentialligninger

Systemer af differentialligninger står hovedsagligt for beskrivelsen af de matematiske modeller som indgår i fysik, kemi og biologi. De fleste af disse modeller gør nemlig brug af principper som bevarelse af masse, energi eller impulsmoment, hvilket indgår i klassisk (og kvante) mekanik, termodynamik, elektrodynamik og fluiddynamik. Differentialligninger indgår også i reaktionskinatik til at undersøge reaktionsraterne for kemiske reaktioner, samt i biologi til beskrivelse af dynamikken i fødekæder af arter.
For nyligt blev især beskrivelsen af såkaldte ''røde'' og ''grønne'' smittekurver relevant for forståelsen af smittespredning af Covid-19 virus. Dette kan også beskrives ved brug af en såkaldt SIR model (og nok forbedringer af denne).
Vi kan altså roligt påstå at differentialligninger dukker op over alt i naturvidenskaben. Vi skal i dette afsnit kigge på de simpleste typer af differentialligningssystemer, nemlig homogene lineære systemer af førsteordens differentialligninger med konstante koefficienter, og se hvordan brugen af diagonalisering af en matrix kan bruges til at give en løsningsformel.
For ikke-lineære differentialligninger og differentialligninger med ikke-konstante koefficienter bruges ofte lineariseringer til beskrivelse af stabilitet og numerisk løsning, samt 'te ordens lineære differentialligninger kan skrives som systemer af førsteordens differentialligninger. Så det er vigtigt at forstå de lineære systemer i alle tilfælde!
Egenværdier og egenvektorer er ekstremt nyttige ved løsning af koblede differentialligninger som
hvor .
Tilfældet med kun en ubekendt funktion kendes fra radioaktivt henfald. Her støder vi på differentialligningen
som har løsningen , hvor er en konstant. Hvis man arbejder ud fra hypotesen om at (8.10) har løsninger af formen
så kan man indsætte i (8.10) og komme frem til at
hørende til egenværdien . Dette er gennemgået i videoen nedenfor.
Lad os nu se på et mere generelt tilfælde, hvor vi har ubekendte funktioner , som vi samler i en stor vektorfunktion der afhænger af en variabel som eksempelvis beskriver tid. Herudover antages det at vi kender vores ubekendte funktioner til tiden (typisk vil det svare til målinger eller observationer), og de har værdierne givet i en vektor som kaldes begyndelsesbetingelsen.
Dette giver anledning til et såkaldt begyndelsesværdiproblem, som skrives
Her består matricen af koefficienterne til differentialligningerne. Vi har her antaget at disse koefficienter ikke afhænger af .
Følgende resultat viser hvordan vi kan løse begyndelsesværdiproblemet i (8.12), såfremt at matricen kan diagonaliseres.
Overvej begyndelsesværdiproblemet i (8.12). Hvis er diagonaliserbar, hvor er diagonalmatricen
så kan løsningen til (8.12) opskrives direkte ved formlen
Bevis
I dette bevis konstruerer vi en løsning til (8.12), så det viser også eksistensen af en løsning. Det er dog slet ikke klart hvorfor denne løsning er entydig; dette kommer fra eksistens og entydigheds sætningen, som hører til i et analyse kursus og vises ikke her.
Vi definerer nu som højresiden af (8.13), og viser at den opfylder ligningen i (8.12). Vi starter med at tjekke begyndelsesbetingelsen:
Nu differentierer vi , hvilket gøres i hver indgang af . Vi ser at det eneste af der afhænger af er diagonalmatricen med eksponentialfunktionerne. I matrixproduktet vil man få linearkombinationer af disse eksponentialfunktioner, og at differentiere disse linearkombinationer svarer lige præcis til at differentiere eksponentialfunktionerne først, og derefter udføre matrixprodukterne. Vi får derfor
Her har vi brugt at produktet af diagonalmatricer udregnes som produktet af diagonalelementerne, samt vi har indsat en identitetsmatrix som midt i udtrykket. Dette viser samlet set, at vektorfunktionen i (8.13) opfylder begyndelsesværdiproblemet (8.12).
Intuitivt kan vi tænke på Sætning 8.17 som at finde et basisskifte, der gør at differentialligningerne bliver afkoblet fra hinanden. Så ender man netop tilbage med afkoblede ligninger på formen (8.11).
Det viser sig, at man altid kan opskrive løsningen til (8.12) som en matrix-funktion ganget på . Denne matrix kaldes eksponentialmatricen og skrives ofte . Der er flere måder at en eksponentialmatrix kan bestemmes ud fra en kvadratisk matrix ; en metode er ved en uendelig række der består af summen af potenserne for . Denne metode er kun praktisk hvis matricen er diagonaliserbar, og så får man nemlig løsningsformlen i (8.13).
Hvis ikke er diagonaliserbar, så kommer der også til at indgå led som , , og så videre. En metode til udregning af for enhver kvadratisk matrix er Putzers algoritme, hvilket pudsigt nok også kræver at man finder egenværdierne for .
Bevægelsen i et pendul i en stiv masseløs stang kan beskrives med differentialligningen
hvor er vinklen til tiden med hensyn til aksen som pendulet svinger om, som angivet i figuren nedenfor. Konstanterne og er henholdsvis tyngdeaccelerationen og længden af stangen.
Animation af pendul fra Wikipedia, hvor vektorerne og angiver accelerations- og hastighedsvektorer.
Lad være vektoren med position og hastighed til tiden , samt lad være en vektor med startposition og starthastighed . Hvis man starter med tilpas lille, så kan man lave en lineær tilnærmelse af (8.14) med begyndelsesværdiproblemet
Fra systemmatricen får man det karakteristiske polynomium , hvilket har de komplekse rødder . Matricen kan af Proposition 8.13 og Sætning 8.12 diagonaliseres da begge egenværdier har algebraisk og geometrisk multiplicitet .
For små matricer kan man ofte gætte sig frem til nogle egenvektorer. Tjek gerne efter at egenværdien har egenvektor
og egenværdien har egenvektor
Samlet set kan vi opskrive vores løsning fra Sætning 8.17, hvor :
Hvis man indsætter definitionen for den komplekse eksponentialfunktion, , får man de lidt pænere udtryk
hvilket svarer til i vores simplificerede model.

8.5 Egenværdier via potensmetoden

Hånden på hjertet. Vi har reelt kun nu det karakteristiske polynomium til at bestemme egenværdierne for en matrix. For store matricer bliver det helt uoverkommeligt at udregne det karakteristiske polynomium.
Der er brug for andre metoder til udregning af egenværdier. Her giver jeg et eksempel på en sådan klassisk metode.
Antag at er diagonaliserbar med en basis af egenvektorer hørende til egenværdierne (gentaget efter deres multiplicitet). Antag yderligere at og at
for .
Begynd med en vektor
som opfylder at . Herefter itereres, og udnyttes at ,
Antag at det 'te koordinat i er . Så vil
og dermed
hvor
Derfor vil
for , grundet vores antagelse i (8.15).
Lad os illustrere metoden med matricen
og startvektoren .
Nedenfor er angivet de første iterationer af metoden. Første søjle angiver , anden søjle er -koordinaten for , tredje søjle er -koordinaten for , mens sidste søjle angiver med hensyn til -koordinaten.
Iterationerne ser ud til at indikere at er en egenværdi for , hvilket viser sig at være korrekt.

8.6 Gershgorins cirkelsætning

Gershgorins cirkelsætning (efter Semyon Aranovich Gershgorin) udtrykker hvor langt vi kan forvente egenværdierne for en matrix ligger fra diagonalelementer.
Lad være en matrix og lad
hvor
Her er cirkelskiven i den komplekse talplan med centrum i og radius . Bemærk at er summen af de absolutte værdier af indgangene udenfor diagonalen i 'te række for .
Enhver egenværdi for ligger i mindst en af cirkelskiverne for .
Bevis*
Lad være en egenværdi for og vælg en egenvektor hørende til med en koordinat , hvor for . Med definitionen af matrixmultiplikation og følger
og dermed
En matrix kaldes strengt diagonaldominant hvis
for .
En strengt diagonaldominant matrix er invertibel.
Bevis
Lad betegne indgangene i . Det er nok at vise at ikke er en egenværdi for , da det betyder at nulrummet er trivielt. Hvis var en egenværdi måtte vi have for et eller andet på grund af Sætning 8.19. Dette er umuligt, da
Matricen
er invertibel ifølge Sætning 8.21 da den er strengt diagonaldominant. For denne matrix er
hvilket kan sammenlignes med diagonalelementerne i matricen.

8.7 Opgaver

Udregn egenværdierne for matricen
Summen af dem skal gerne give .
Lad
Det opgives at og er egenværdierne for . Undersøg om har en basis af egenvektorer for , det vil sige om er diagonaliserbar. Find i givet fald en invertibel matrix
er en diagonalmatrix.
Gør rede for at matricen
ikke er diagonaliserbar ud fra oplysningen om at dens karakteristiske polynomium er
Kan en invertibel matrix have som egenværdi?
Sandsynliggør at er en egenværdi for
ved at benytte potensmetoden beskrevet i afsnit 8.5. Er diagonaliserbar?
Lad
Bestem egenværdierne for og egenværdierne for . Hvad er egenvektorerne for ? Begrund dine svar.
Find, ved at bruge teorien i dette kapitel, to funktioner som udgør en løsning til systemet
af differentialligninger og som opfylder og . Skitser din metode grundigt og henvis kun til materialet i disse noter.
Lad
Gør rede for at er rod i sit eget karakteristiske polynomium, det vil sige
Lad være en matrix.
  1. Gør rede for at og har det samme karakteristiske polynomium.
    Hint
    Vis og benyt at
  2. Lad være en stokastisk matrix, det vil sige at alle indgange er og alle søjlesummer er . Vis at der findes en vektor .
Lad være en invertibel matrix og en matrix.
  1. Gør rede for at
  2. Vis at og har det samme karakteristiske polynomium.
    Hint
(Eksamen maj 2021)
Lad en matrix være givet ved
  1. Vis at det karakteristiske polynomium for er givet ved
  2. Bestem samtlige egenværdier for , og find en basis for hvert egenrum.
  3. Gør rede for at ikke er diagonaliserbar.