Kapitel 6: Matematikken bag lineære modeller

I har nu flere gange set, hvordan der dannes en -teststørrelse ved at bruge at et skøn over en middelværdiparameter er normalfordelt, variansskønnet følger en skaleret -fordeling, og de to skøn er stokastisk uafhængige. I dette kapitel vil jeg gå lidt ind på matematikken bag denne type resultat, såvel som resultatet om det generelle -test i afsnit 4.7.
I analysen af den generelle lineære model tænker vi ofte på data som organiseret i en dataframe, hvor responsvektoren er en af søjlerne, og de andre søjler er faktorer og regressionsvariable. Det er denne vektortilgang, vi vil udnytte i dette kapitel. Så i stedet for at have fokus på den enkelte variabel vil vi have fokus på hele vektoren
Jeg starter med at indføre lidt vektor- og matrixnotation. Vektorer kan enten være rækkevektorer eller søjlevektorer. Hvis vi transponerer en rækkevektor (notation: , hvor er rækkevektoren) får vi en søjlevektor, og vice versa.

Middelværdi og varians af vektor

Middelværdien af en stokastisk (søjle-) vektor defineres som vektoren af middelværdier af de enkelte indgange
Variansen defineres som en matrix, hvor den 'te diagonalindgang er variansen , og den 'te indgang er kovariansen :
I kender formodentligt følgende regneregler
Med den indførte matrixnotation kan vi samle disse regneregler på følgende vis. Lad være en ikke-stokastisk matrix. Så er

Matriks-regneregler

For fuldstændighedens skyld samler jeg her nogle vigtige regneregler for matricer.
Resultat 6.0.1. (Regneregler for matricer)
  1. Hvis er en matrix, med 'te indgang så er en matrix med 'te indgang
  2. Hvis er og er , så er
  3. Hvis er så er matricen symmetrisk (), og dette gælder også for den inverse matrix
  4. Hvis er en symmetrisk matrix, er den inverse matrix bestemt ved og

For analysen af normalfordelingsmodellerne skal vi også vide noget om projektioner. Når vi skal finde skøn over ved at minimere
er dette ækvivalent med at minimere den kvadrerede -norm
hvor er matricen med 'te indgang Her står, at vi skal finde det punkt, udspændt af søjlerne i som er tættest på , men dette er netop projektionen af på rummet udspændt af søjlerne i
Resultat 6.0.2. (Projektion)
Projektionen af vektoren ned på underrummet udspændt af søjlerne i er givet ved , hvor matricen er givet som . I ovenstående minimeringsproblem giver dette skønnet
For at eftervise dette resultat skal man vise, at står vinkelret på søjlerne i , men dette følger af
hvor er en diagonalmatrix med 1 langs diagonalen.

Vektor af normalfordelte variable

Hvis , er uafhængige, skriver vi dette kort som
hvor er en diagonalmatriks med 1 langs diagonalen, og er søjlevektoren med middelværdierne, I notationen er det første argument middelværdien og det andet argument er variansen
Hvis vi laver linearkombinationer af koordinaterne i bliver disse igen normalfordelte (regneregler for normalfordelingen!), men ikke nødvendigvis uafhængige. Vi vil stadig bruge notationen med og skriver
idet Hvis vi har en søjlevektor der er fremkommet ved linearkombinationer af uafhængige normalfordelte variable, og så vil
Dette skyldes, at koordinaterne i vil også være linearkombinationer af uafhængige normalfordelte variable.
Ved hjælp af den ovenfor etablerede matriksnotation kan vi nemt lave beregninger baseret på normalfordelte variable.

ForegåendeNæste