hvor Aij=aij betegner tallet i i-te række og j-te søjle. Hvis vi kalder matricen i (4.2) for A, består den af 2 rækker og 4 søjler med A14=−2.
En matrix kaldes kvadratisk hvis den har lige så mange rækker som søjler. For eksempel er de første to matricer nedenfor kvadratiske, mens den tredje ikke er det.
(1),⎝⎛147258369⎠⎞,(011001).
Diagonalen i en matrix er defineret som indgangene i matricen med samme række- og søjlenummer. Nedenfor er
angivet en 3×4 matrix, hvor diagonalelementerne er markerede
⎝⎛131320013156⎠⎞.
En matrix kaldes en diagonalmatrix, hvis alle dens indgange udenfor diagonalen er =0. Nedenfor er et eksempel på en kvadratisk diagonalmatrix
⎝⎛100020003⎠⎞.
En matrix kaldes en rækkevektor hvis den kun har en række. For eksempel er
(123)
en rækkevektor med tre søjler.
En matrix kaldes en søjlevektor hvis den kun har en søjle.
For eksempel er
⎝⎛123⎠⎞
en søjlevektor med tre rækker.
Rækkerne i en matrix kaldes matricens rækkevektorer.
Den i-række i en matrix A betegnes Ai.
For eksempel har matricen A i (4.2) rækkevektorerne
A1=(024−2)ogA2=(3274).
Søjlerne i en matrix kaldes matricens søjlevektorer.
Den j-te søjle i en matrix A betegnes Aj.
For eksempel har matricen A i (4.2) søjlevektorerne
A1=(03),A2=(22),A3=(47)ogA4=(−24).
En række- eller søjlevektor refereres til som en vektor.
Vi vil senere give en mere abstrakt definition af vektorer som elementer i et såkaldt vektorrum.
4.2 Matrixmultiplikation
Antag vi har givet to ligningssystemer
uu+−2v2v=p=qog2x−x+−3y2y=u=v.
i de variable u,v og x,y.
Vi får et nyt ligningssystem i
x og y ved at sætte u=2x+3y og v=−x−2y ind
i det første ligningssystem:
Ligningen ovenfor er intet mindre end formlen for multiplikation af to 2×2 matricer, præcis som
den blev indført historisk af Cayley omkring 1857. Ved nærmere eftersyn (og markeret med farver i (4.5) for i=2 og j=1)
ses reglen at tallet i den i-te række og j-te søjle i produktmatricen er
række-søjle multiplikationen mellem i-te række og j-te søjle i de to matricer.
Rækkesøjle multiplikationen mellem en rækkevektor
x=(x1x2…xn)
og en søjlevektor
y=⎝⎜⎜⎛y1y2⋮yn⎠⎟⎟⎞
med det samme antal indgange er defineret som
xy=x1y1+x2y2+⋯+xnyn.
Hvis man er lidt pedantisk vil man måske i notationen skelne mellem tallet 5 og 1×1 matricen (5), men det er vi ikke.
Lad A være en m×p matrix og B en p×r matrix. Så er produktet AB defineret som m×r matricen C givet ved
Cij=AiBj
for 1≤i≤m og 1≤j≤r.
Hvis A er en m×n matrix og B en r×s matrix giver matrixproduktet AB kun mening,
hvis n=r: Antallet af søjler i A skal være lig med antallet af rækker i B.
Matrixmultiplikation optræder mange steder. Nedenfor et meget
anvendeligt eksempel indenfor sandsynlighedsregning, som i generaliseret form leder til Googles
berømte page rank algoritme.
Matrixmultiplikation forekommer naturligt i sandsynlighedsregning. Lad os illustrere med et enkelt eksempel.
Lad os antage at rundt regnet 20% af de mennesker, der bor på landet, flytter til byen og at
30% af de mennesker, som bor i byen flytter til landet. Lad os også fastslå at disse procentsatser er opgjort per år og lige omformulere en smule:
Hvis man bor på landet er sandsynligheden for at man flytter til byen 0.2,
Hvis man bor på landet er sandsynligheden for at man bliver boende 0.8,
Hvis man bor i byen er sandsynligheden for at man flytter til landet 0.3,
Hvis man bor i byen er sandsynligheden for at man bliver boende 0.7,
når man ser på et år som tidsramme. Dette kan illustreres med nedenstående diagram
Dette giver anledning til lidt købmandsregning. Lad os sige at der i
starten til tiden t=0 år bor x0 mennesker i byen og y0
mennesker på landet. Hvor mange mennesker x1 bor der så i byen og hvor mange mennesker y1 bor der på landet til tiden t=1 år?
Med ord bliver byen affolket med 30%, men der kommer tilflyttere,
som udgør 20% af befolkningen på landet. Det vil sige
x1=0.7x0+0.2y0.
Tilsvarende har vi for befolkningen på landet at
y1=0.3x0+0.8y0.
Dette kan skrives via matrixmultiplikation som
(x1y1)=(0.70.30.20.8)(x0y0).
Proceduren giver også mening for t=2 år. Her bliver resultatet
som giver fordelingen af by- og landbefolkning til tiden t=n
år. For at kunne benytte formlen (4.8) skal vi altså
udføre n−1 matrixmultiplikationer, hvilket kan være lidt
overvældende, for eksempel hvis vi ønsker at kende befolkningstallet på landet
efter 50 år. Hver matrixmultiplikation indeholder 8 almindelige
talmultiplikationer og 4 almindelige taladditioner. Vi vil senere i kapitlet se hvordan egenvektorer og egenværdier for
matricer kan hjælpe med denne udregning.
Inden da, lad os blot eksperimentere med at udregne de første potenser af P:
Umiddelbart ser det ud som om udregningerne stabiliseres på et
stationært niveau, hvor 40% bor i byen og 60% på landet taget ud
fra det samlede indbyggertal til at begynde med det vil sige til t=0 år.
Matricen P er et eksempel på en stokastisk 2×2 matrix.
Generelt kaldes en kvadratisk matrix en stokastisk matrix hvis alle
dens indgange er ≥0 og dens søjlesummer er 1.
Nedenfor et eksempel på anvendelser i netværksteori.
Matrixmultiplikation forekommer også i praktiske problemer, hvor
netværk er involveret. Lad os antage vi har fem byer, som er
forbundet med forskellige veje som nedenfor
Dette netværk har en 5×5incidensmatrix, hvor by nummer i hører til
i-te række og i-te søjle. Et 1-tal i matricen på plads (i,j) betyder at der er en
vej fra by i til by j, mens et 0 betyder at by i og by j ikke er forbundet med en vej:
Hvad er netværksfortolkningen af A2,A3 og generelt An? Det
viser sig at fortolkningen af indgang (i,j) i matricen An netop
er antallet af stier af længde n fra by i til by j. For eksempel
ser vi ovenfor at der er 3 stier fra by 1 til by 5 af længde 3
svarende til 1245,1345,1235. De 2 stier fra by 1 til by 1 af
længde 3 er 1231,1321 og de 5 stier af længde 3 fra by 1 til
2 er 1342,1242,1323,1212,1232.
Lad os antage at vi har et netværk med m byer og en tilhørende incidensmatrix A.
Det generelle bevis bygger på at
en sti af længde n fra by i til by j må ende med en vej fra en
naboby k til j. For hver af disse nabobyer kan vi så nøjes med at
tælle antallet af stier af længde n−1 fra by i.
Hvis vi nu antager at Aghn−1 er antallet af
stier af længde n−1 fra by g til by h, så siger matrixmultiplikation at
Aijn=Ai1n−1A1j+⋯+Aimn−1Amj
Dette tal er antallet af stier af længde n fra by i til by j fordi
Akj=1 netop når k er en naboby til j (og ellers 0).
4.3 Matrixregning
Matrixmultiplikation er forskellig fra almindelig talmultiplikation på et helt centralt punkt: Faktorernes orden er ikke ligegyldig. Betragt matricerne
A=(1011)ogB=(1101).
Så er
AB=(2111)ogBA=(1112)
dvs AB≠BA. Man siger også at matrixmultiplikation er ikke-kommutativ.
4.3.1 Addition af matricer
Man kan (næsten) regne med matricer som almindelige tal. Specielt giver det mening at lægge
matricer med samme antal rækker og søjler sammen indgang for indgang:
For almindelige tal gælder at man kan gange ind i en parentes det vil sige
a(b+c)=ab+ac. Denne regel gælder også for matricer og
kaldes generelt for den distributive lov (gange bliver distribueret
(fordelt) over plus).
Lad B og C være m×n matricer, A en r×m matrix og D en n×s matrix. Så gælder
Giver det mening at gange tre matricer A,B og C sammen? Vi har faktisk kun defineret
produktet af to matricer. Der er to naturlige måder at udregne produktet ABC på:
(AB)CogA(BC).
Vi kan begynde med at gange A sammen med B og så gange C på fra højre. Vi kan også først gange
B sammen med C og så gange A på fra venstre. Det er slet ikke klart at de to måder leder frem til samme resultat! At det gælder er helt centralt når man regner med matricer. Resultatet kaldes den associative lov for matrixmultiplikation.
Lad A være en m×n matrix, B en n×r matrix og C en r×s matrix. Så er
(AB)C=A(BC).
Det nedenstående bevis er ikke særlig informativt, men det er korrekt.
Senere, når vi har set
sammenhængen mellem matricer og lineære afbildninger, vil vi være i stand til at give en meget bedre forklaring på hvorfor den associative lov er en selvfølge.
Rækkerne i summen i (4.11) svarer til søjlerne i summen (4.12) og det ses at
disse summer er ens. Derfor er ((AB)C)ij=(A(BC))ij.
4.3.5 Opbygning af matricer fra søjler
Hvis vi har n søjlevektorer vi som alle har højde n kan vi danne en m×n matrix A=(v1,v2,…vn) ved at sætte dem ved siden af hinanden. Så hvis vi har søjlevektorerne
v1=(03),v2=(22),v3=(47)ogv4=(−24).
så er
A=(v1,v2,…,vn)=(032247−24)
Vi kan genfinde søjlevektorerne af A som A1=v1,A2=v2,A3=v3 og A4=v4. Vi vil senere få brug for følgende simple udregning.
Gør rede for ovenstående egenskab det vil sige at identitetsmatricen ikke ændrer ved en kvadratisk matrix når den bliver ganget på enten fra venstre eller fra højre.
4.3.7 Den inverse matrix
Man kan dividere med almindelige tal ≠0. Giver det mening at dividere med matricer?
Et almindeligt tal a≠0 har et "inverst" tal c så ac=ca=1. Her kan vi bare sætte
c=1/a=a−1. Vi kan umiddelbart overføre denne definition til kvadratiske matricer.
Lad A,B og C være n×n matricer. Gør rede for at hvis
BA=In
og
AC=In
så må B=C.
En n×n matrix A siges at være invertibel, hvis der eksisterer en n×n matrix B så
AB=BA=In.
I givet fald kaldes B den inverse matrix og betegnes A−1.
Man kunne jo spørge om det kan ske for en m×n matrix A hvor m<n at
der findes en n×m matrix B så at BA=In. Det
kan desværre aldrig lade sig gøre, selv om det sagtens kan ske at der findes en
n×m matrix B så at AB=Im.
Kommentarer/spørgsmål?
Den inverse matrix kommer for eksempel ind i billedet ved løsning af lineære
ligninger. Et lineært ligningssystem med n ligninger og n
ubekendte:
eller mere kompakt som Ax=b.
Hvis A er invertibel giver den associative lov følgende udregning:
AxA−1(Ax)(A−1A)xIxx=b⇒=A−1b⇒=A−1b⇒=A−1b⇒=A−1b.
Den inverse matrix giver altså løsningen til ligningssystemet ud fra kun en matrixmultiplikation med højresiden. Bemærk at denne udregning gælder for alle højresider b i ligningssystemet.
Jeg kan her afsløre at A rent faktisk er invertibel samt at
A−1=(2−3−35).
En enkel matrixmultiplikation:
(xy)=(2−3−35)(138)=(21)
afslører som forventet løsningen til ligningssystemet i (4.13).
Produktet af to invertible matricer (når produktet giver mening) er
også en invertibel matrix. Dette er indholdet af følgende resultat,
som bevises helt formelt ud fra definitionen og den associative lov.
Produktet AB af to invertible matricer A og B er invertibelt med
(AB)−1=B−1A−1.
hvor I betegner identitetsmatricen. Betingelsen AB(B−1A−1)=I checkes analogt.
For de nysgerrige er her en udfordring. Vi har defineret en matrix A til at være invertibel,
hvis der findes en matrix B så både AB=I og BA=I. Kan vi umiddelbart konkludere at
BA=I hvis kun AB=I?
Vi vil vende tilbage til denne udfordring senere.
4.3.8 Den transponerede matrix
Den transponerede til en m×n matrix A er n×m matricen AT givet ved
AijT=Aji,
det vil sige matricen, som indeholder søjlerne i A som rækker (og rækkerne som søjler). For eksempel er
(032247−24)T=⎝⎜⎜⎛024−23274⎠⎟⎟⎞.
Læg også mærke til at (AT)T=A for en vilkårlig matrix A.
Lad A være en m×r matrix og B en r×n matrix. Så er
Per definition er (AB)ijT=(AB)ji. Denne indgang er
givet som række-søjle multiplikation mellem j-te række i A og
i-te søjle i B, hvilket er identisk med række-søjle multiplikation mellem
i-række i BT og j-te søjle i AT.
Der er en række meget naturlige operationer man kan udføre på
matricer, som præcis svarer til hvad man ville gøre på det tilsvarende
system af ligninger:
Ombytning af to rækker.
Multiplikation af en række med et tal forskellig fra nul.
Addition af en række multipliceret med et tal til en anden række.
Disse operationer kaldes rækkeoperationer. Rækkeoperationer er invertible:
∙ Ved først at ombytte to rækker og dernæst ombytte de
samme to rækker genfinder vi den oprindelige matrix.
∙ Ved først at gange en række med et tal λ≠0 og
dernæst gange samme række med 1/λ genfinder vi den oprindelige matrix.
∙ Ved at addere λ gange rækken i til rækken j og dernæst
addere −λ gange rækken i til rækken j genfinder vi den oprindelige matrix.
To matricer A og B kaldes rækkeækvivalente, hvis man kan udføre en følge af
rækkeoperationer på A og få B frem. Dette skrives A∼B.
Vis at hvis A∼B så er B∼A, det vil sige, hvis at man kan udføre en følge af rækkeoperationer på B så at man ender med at få A frem.
Operationen (γ) svarer til Gauss elimination. At trække første ligning fra anden ligning i (4.1) svarer til at gange første række i (4.2) med −1 og addere til anden række. Efter denne operation på matricen (4.2) har vi matricen
(032043−26)(4.14)
Vi benytter nu operationen (β) og ganger anden række med 31 og får matricen
(012041−22).
Tilsvarende ganger vi første række med 21 og får matricen
(011021−12).
Hvis vi omformulerer matricen ovenfor til ligninger, svarer den til
xy++2zz==−12
Intuitivt er rækkefølgen af ligningerne her forkert. Vi vil gerne have at ligningen indeholdende den første variabel x kommer først. Vi benytter operationen (α) og bytter rundt på første og anden række. Dermed har vi
(032043−26)∼(1001122−1).(4.15)
Vi accepterer matricen til sidst i (4.15) som en specielt enkel form vi kan reducere den oprindelige matrix (4.2) til. Den enkle form af matricen afspejler sig i det tilsvarende ligningssystem ved at man umiddelbart kan aflæse løsningerne til at være
xy==−z−2z+−21.
Det Vil Sige z er en fri variabel og bestemmer x og y som ovenfor.
Den simple form vi har reduceret den oprindelige matrix til kaldes reduceret række echelon form.
4.5 Reduceret række echelon form (RREF)
En række i en matrix kaldes en nulrække hvis alle dens indgange er tallet 0.
En matrix A siges at være på reduceret række echelon form (RREF) hvis
Nulrækker er i bunden af matricen.
Hvis en række i A ikke er en nulrække, så er den første indgang ≠0 i rækken tallet 1.
Denne indgang kaldes et pivotelement.
Et pivotelement er længere til højre end pivotelementerne i de foregående rækker.
Et pivotelement er den eneste indgang ≠0 i sin søjle.
Vi kan så rækkereducere via Gauss elimination ud fra
antagelsen A1j=1 og opnå at A1j er eneste indgang ≠0 i sin
søjle. Lad os kalde første række R efter disse modifikationer af A.
Denne procedure kan gentages på (m−1)×n matricen B bestående
af de sidste m−1 rækker i A og vi kan antage at denne mindre matrix
kan rækkereduceres til (m−1)×n matricen H på RREF.
Dermed har vi vist eksistensen af en RREF. Nu skitserer vi et bevis for entydigheden af RREF (fra en
artikel
af Thomas Yuster i Mathematics Magazine, March, 1984).
Vi bruger et induktionsargument. Induktionen bruger antallet søjler.
phantom
Hvis n=1 har
A kun en søjle. Der er kun to muligheder. A kunne være nullvektoren 0. Men 0 er selv på RREF, og den ændrer sig ikke under rækkoperationer, så entydigheden er klar. Hvis A≠0 er RREF også entydig, fordi rækkereduktionen af A er nødvendigvis søjlevektoren med
1 på første indgang og 0 på de øvrige indgange.
Nu har vi klaret induktionsstarten.
For at give et fuldstændigt induktionsbevis for entydigheden er det nok at vise at hvis
vi allerede har bevist entydighed af RREF for matricer på formen m×(n−1), så er entydigheden også gældende for matricer på formen m×n.
phantom
Vi laver nu induktionskridtet, og antager at n>1, og at sætningen gælder for
alle m×(n−1) matricer.
Lad A′ betegne m×(n−1) matricen som
fremkommer fra A ved at slette sidste søjle i A. Hvis nu B og C er
to RREF, som begge hører til A, kan vi antage at de stemmer
overens på de første n−1 søjler.
Jo, fordi hvis vi tilsvarende sletter de sidste søjler i B og C får vi to
m×(n−1) matricer B′ og C′. Og B′ og C′ er begge RREF for A′.
Ifølge vores induktionsantagelse er dermed B′=C′.
B og C kan kun adskille i den sidste
søjle, så vores opgave er at vise at også de to sidste søjler er ens, det vil sige at Bn=Cn.
Vi skelner nu mellem to tilfælder. Det første tilfælde er at
både Bn og Cn er pivotsøjler. Det andet tilfælde er at
enten Bn ikke er en pivotsøjle i B, eller at Cn ikke er en pivotsøjle i C. Vi giver et argument der viser at B=C i det første tilfælde, og et helt andet argument der viser at B=C i det andet tilfælde. Tilsammen beviser de to argumenter sætningen.
Antag at Bn og Cn begge er pivotsøjler.
Vi kigger først på B. Vi bemærker at pivotsøjlen Bn er
bestemt af B′. Hvis vi kender B′ og ved at den sidste søjle er en pivotsøjle, så kender vi også B.
Pivotelementet står nemlig i den første række i B der er en nullrække i B′.
Enten er den sidste række i B eller den sidste række i C ikke en pivotsøjle. Der er ikke forskel på B og C i antagelserne, så
vi kan også lige så godt antage at det er Bn der ikke er en pivotsøjle. Det efterfølgende argument virker lige så fint for C, vi skifter bare B ud mod C i notationen.
Vi antager altså at Bn ikke er en pivotsøjle.
Da den sidste række i B ikke er en pivotsøjle, kan vi finde ifølge bemærkning 4.27 finde en løsning u til vektorligningen Bu=0 som opfylder at un≠0.
Nu er B og C RREF til den samme matrix A, så hvis
Bu=0 er også Au=0 og Cu=0, og dermed (B−C)u=0.
Siden B′=C′ befinder sig de eneste elementer i B−C der er forskellige fra 0 i den sidste søjle. Hvis vi tager højde for dette og udfører matrixmultiplikationen får vi
0=(B−C)u=(Bn−Cn)(un)=un(Bn−Cn)
Her er (un) en 1×1 matrix. Da un≠0 har vi lov til at dividere med un. Vi får at Bn−Cn=0, og dermed er vi færdige.
Et eksempel til illustration af proceduren i beviset kunne være
A=⎝⎛000100111111110⎠⎞,
hvor j=2.
Her er
B=(0000111110)
og dermed
H=(0000101001).
Derfor bliver
C=⎝⎛000100110110101⎠⎞
og de markerede pivotelementer ovenfor bruges ved Gauss elimination til at give den endelige RREF
⎝⎛000100010010001⎠⎞.
4.5.1 Løsning af ligninger ved hjælp af RREF
Hvis en m×n matrix R er på RREF er ligningssystemet Rx=b
med m ligninger og n variable specielt nemt at gå til. Pivotelementerne
i R er de eneste indgange i deres søjle ≠0. Deres søjlenumre B svarer
til de såkaldte bundne variable. De øvrige søjlenumre F svarer til de såkaldte
frie variable.
Vi samler de frie variable i en vektor xF, og de bundne variable i en anden vektor xB.
Lad os se på et konkret eksempel. Lad
R=⎝⎛000100200010001113⎠⎞
Da er R på RREF, og de tre pivoter står i søjlerne med nummer 2,4,5.
Hvis vi vil løse en ligning Rx=b, så er x=(x1,x2,x3,x4,x5.x6)T
, de bundne variable er x2,x4,x5 og de frie variable er x1,x3,x6. Vi skriver altså
xF=(x1,x3,x6)T og xB=(x2,x4,x5)T.
Vi laver nu en lille omsortering af søjlerne i R. Vi flytter de tre pivot søjle foran. De resterende
søjler der svarer til bundne variable samler vi til en matrix vi kalder
R′=⎝⎛000200113⎠⎞.
Nu ser vi at følgende to ligninger er fuldstændigt ensbetydende:
Her er x2,x4,x5 de bundne variable og x1,x3,x6 de frie variable. Skrevet som
ligninger svarer dette til ligningssystemet
x2+2x3x4x5+++x6x63x6===123
med løsningsformlerne
x2x4x5=1−2x3−x6=2−x6=3−3x6.
Læg mærke til at x1 er en fri variabel, som her ikke indgår i formlerne for x2,x4,x5.
Det betyder, for eksempel, at hvis R er en matrix på RREF, og hvis en søjle i matricen R med søjlenummer i ikke indeholder en pivot, så findes der en søjlevektor u så at hver indgang i u opfylder at ui=1, og desuden sådan at Ru=0.
Vi har allerede brugt denne bemærkning i beviset for
den vigtige sætning (4.25). Men måske var det snyd at vi brugte et resultat der står senere i teksten? Lidt som at rejse tilbage i tiden og give sig selv de rigtige lottotal? Argumentér for at vi ikke har snydt (eller argumentér alternativt for at vi har snydt).
Kommentarer/spørgsmål?
4.6 Elementære matricer
Vi vil nu omfortolke rækkeoperationer ved hjælp af matrixmultiplikation. Hver af de tre typer af rækkeoperationer som vi beskrev i begyndelsen af
4.4 svarer til multiplikation fra venstre med en matrix af en bestemt type.
For eksempel er ombytning af rækkke 1 med række 2 i en 3×n matrix det samme som multiplikation
fra venstre med
⎝⎛010100001⎠⎞.
Multiplikation af den anden række med 5 er detsamme som produkt med
⎝⎛100050001⎠⎞,
og operationen at gange den tredie række med −3 og lægge den til den første række er detsamme som multiplikation med matricen
Vis de resterende to af de ovenstående påstande for 3×3 matricer ved direkte udregning!
Vi siger at en elementær matrix fremkommer ved at udføre præcis en rækkeoperation på den kvadratiske m×m identitetsmatrix Im. Hvis denne rækkeoperation er givet ved at multiplicere fra venstre med en matrix E, er den tilhørende elementære matrix altså EIm=E.
Vi indfører betegnelser for de tre typer af elementære matricer.
Lad Prs være den matrix der fremkommer fra identitetsmatricen ved at bytte om på rækkerne med nummer r respektive s.
Vi lader Di(λ) betegne matricen, som fremkommer ved at gange
i-te række i identitetsmatricen af orden m med λ.
Dette er stadig en diagonal matrix, lige som enhedsmatricen, det vil sige at hvis j≠k er
Di(λ)jk=0.
Til sidst lader vi Eij(λ) betegne den
elementære matrix, som fremkommer fra identitetsmatricen af orden m ved at
gange j-te række med λ og addere til i-te række. Denne
matrix er lig identitetsmatricen med undtagelse af at der i indgangen i i-te
række og j-te søjle står λ i stedet for 0.
At udføre en rækkeoperation på en m×n matrix A svarer
til at gange den tilsvarende elementære m×m matrix på fra
venstre.
En elementær matrix svarende til en rækkeoperation er
invertibel. Dens inverse matrix er den elementære matrix svarende
til den inverse rækkeoperation.
Vi begynder med at bevis for (α).
Vi betragter først tilfældet at A er en m×1 matrix, det vil sige at A er en søjlevektor.
For at spare på det dyrbare papir plejer man at skrive en søjlevektor som (v1,v2,…,vm)T hvor T står for transponering, og gamle vaner er svære at give slip på selv når man skriver for skærmen. Nu regner vi ved at bruge formlen for matrixmultiplikation. Følgende to produkter er nemme at beregne:
Vi ser at i alle tre tilfælder er multiplikation med en elementær matrix EA
detsamme som den tilsvarende rækkeoperation, hvis A er en søjlevektor.
I det generelle tilfælde kan vi skrive matricen A som opbygget af søjlevektorer
af højde m, og bruge 4.9
AEA=(A1,…,An)=(EA1,…,EAn)
Ifølge specialtilfældet brugt på hver søjle Ai, så fremkommer EA fra A ved at bruge den samme
rækkeoperation på hver søjle i A. Men det er det samme som at bruge søjleoperationen på A.
Nu ser vi på del (β). Hvis E1,E2 er en elementære matricer der svarer til
inverse søjleoperationer, så er E1E2=E1E2Im den matrix der fremkommer ved at udføre først søjleoperationen der svarer E2 på identitetsmatricen, og derefter udføre søjleoperationen der svarer til E1 på resultatet. Da disse søjleoperationer er inverse, ender vi med at få identitetsmatricen tilbage, det vil sige at
E1E2=Im. Tilsvarende er E2E1=Im, så at E1 og E2 er inverse matricer.
Nu er vi endelig i stand til at gengive en algoritme til at udregne den inverse matrix.
En n×n matrix A er invertibel hvis og kun hvis dens RREF er In. Hvis A er invertibel er
RREF for n×(2n) matricen
En n×n matrix på RREF som ikke er identitetsmatricen bliver
nødt til at indeholde en nulrække. Med andre ord, hvis en matrix
på RREF er invertibel, så er den nødt til at være identitetsmatricen.
Lad os antage at A er
invertibel. Som for enhver anden matrix kan vi finde et produkt E
af elementære matricer så EA er RREF for A, men da E og EAer invertible bliver denne RREF altså nødt til at være lig
identitetsmatricen.
Modsat hvis matricen har RREF lig identitetsmatricen så findes et
produkt F af elementære matricer så FA=In og A er
invertibel med A−1=F, da F som produkt af elementære matricer er invertibel.
Den sidste påstand følger ved at gange matricen F ovenfor på
matricen (A∣In). Dette matrixprodukt giver (FA∣FIn)=(In∣F). Da
multiplikation med F fra venstre giver rækkereduktion, og da
(In∣F)=(In∣A−1) er på RREF, er
(In,A−1) den entydigt bestemte RREF af (A∣In).
Ovenstående sætning giver en metode til at udregne den inverse matrix.
Kommentarer/spørgsmål?
Lad A være en n×n matrix. Så er A invertibel hvis og kun hvis
ligningssystemet
Hvis A ikke er invertibel kan vi rækkereducere A til en matrix B
med en nulrække til sidst (se Sætning 4.33 og Opgave
4.8.12). Men her gælder Av=0⇔Bv=0 og
ligningsystemet Bv=0 har en løsning ≠0, fordi det har
mindst en fri variabel svarende til at den sidste søjle ikke indeholder
et pivotelement (se afsnit 4.5.1).
4.7 Egenvektorer og egenværdier for en matrix
I eksemplet med stokastiske matricer havde vi brug for at udregne
potenser P2,P3,… af en matrix P. Hvis P er en
kvadratisk diagonalmatrix er disse operationer
meget mere overkommelige.
Hvis
D=⎝⎜⎜⎛λ10⋮00λ2⋮0……⋱…00⋮λn⎠⎟⎟⎞
er en kvadratisk diagonalmatrix, så er
Dm=⎝⎜⎜⎛λ1m0⋮00λ2m⋮0……⋱…00⋮λnm⎠⎟⎟⎞.
Det vil sige en kvadratisk diagonalmatrix opløftes til en potens ved at
opløfte diagonalelementerne til potensen.
Det betaler sig at lave P om til en diagonalmatrix for at udregne
Pm og jeg vil her kort forklare hvordan dette ofte kan lade sig gøre.
4.7.1 Konjugering
For en invertibel matrix T findes den inverse matrix T−1 og
udregningen T−1AT giver mening for en kvadratisk matrix A med
samme antal rækker som T. Denne operation kaldes konjugering med T
og matricen T−1AT kaldes en konjugeret matrix til
A.
hvor λ1≠0 og λ2≠0.
Lad B=T−1AT. Hvad er rigtigt af nedenstående?
B=(a11λ2λ1a21λ1λ2a12a22).
B=(λ1λ2a11λ2λ1a21a12a22).
AT=TA.
B=A
hvis λ1=λ2.
Konjugering viser sig at være central i lineær algebra. Lad os se på et eksempel.
Lad os antage et øjeblik at matricen P kan konjugeres til en
diagonalmatrix det vil sige vi kan finde en invertibel matrix T så
T−1PT=D,
hvor D er en diagonalmatrix. Så vil
P=TDT−1
og dermed
P2=(TDT−1)(TDT−1)=TD(T−1T)DT−1=TD2T−1.
Nøjagtig den samme udregning kan laves ikke bare for potensen 2, men for en generel potens m:
Pm=TDmT−1.
Det Vil Sige hvis vi er så heldige at finde en invertibel matrix T, således
at T−1PT er en diagonalmatrix, så kan vi udregne potenser af
P meget nemmere end ved almindelig matrixmultiplikation. Der er slet
ikke sikkert at T findes, men vi kan prøve på at analysere hvad matricen
P skal opfylde for at det lader sig gøre.
Lad P være en n×n matrix, T en invertibel n×n matrix med
søjlevektorer v1,…,vn og D diagonalmatricen
T−1PT=D gælder hvis og kun hvis PT=TD. Per definition af
matrixmultiplikation følger det at søjlevektorerne i PT er Pvi
for i=1,…,n samt at de tilsvarende søjlevektorer i TD er
λivi.
Disse overvejelser leder frem til følgende definitioner.
Lad P være en kvadratisk matrix.
P kaldes diagonaliserbar hvis der findes en invertibel matrix T så
T−1PT
er en diagonalmatrix.
En vektor v kaldes en egenvektor for P, hvis v≠0 og
Pv=λv,
for et tal λ (som gerne må være 0). Dette tal kaldes for en egenværdi for P og v siges at være en egenvektor
hørende til λ.
Det er ikke oplagt med vores viden nu om en matrix overhovedet har
endeligt mange egenværdier eller hvordan man bærer sig ad med at regne
egenværdier ud. Lad os prøve at kigge på 2×2 matricer.
4.7.2 Hvad sker der for små matricer?
At finde egenværdier for en kvadratisk n×n matrix A kan
omformuleres til at at finde et tal λ (en egenværdi), så der
findes en vektor v≠0 med Av=λv. Dette er det samme
som at der findes en vektor v≠0 med
(A−λIn)v=0.(4.16)
Lad os i dette lille afsnit foregribe begivenhedernes gang ved at kigge på
en 2×2 matrix
B=(b11b21b12b22)
og spørgsmålet: Hvornår findes en vektor v≠0 så Bv=0? Vi
ved fra Sætning 4.34 at dette forekommer præcis når
B ikke er invertibel.
Samtidig ved vi fra Sætning 4.33 at B er invertibel hvis og kun
B er rækkeækvivalent med identitetsmatricen. Lad os eksperimentere: Hvis
både b11 og b21 er 0 kan B ikke være invertibel. Hvis
b11≠0 så er
Samme betingelse gør sig gældende ved rækkereduktioner ud fra antagelsen b21≠0. Vi kalder
b11b22−b21b12 for determinanten for B og betegner den det(B).
Nu kan vi svare på hvornår
Polynomiet i (4.17) kaldes for det karakteristiske polynomium
hørende til A.
Det vi har vist er altså at en 2×2 matrix A har mindst en egenvektor hørende til egenværdien λ hvis og kun hvis λ er en rod i det karakteristiske polynomium.
I næste kapitel kommer vi ind på hvad der sker for større matricer ved
at definere determinanten af en generel n×n matrix.
4.7.3 Differentialligninger som eksempel
Egenværdier og egenvektorer er ekstremt nyttige ved løsning af koblede
differentialligninger som