Download as pdf or txt
Download as pdf or txt
You are on page 1of 190

Inhoudsopgave

College 1, Stelsels lineaire vergelijkingen I 1


1.1 Vectoren in R2 en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 De ruimte Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Lineaire vergelijkingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Introductie tot het oplossen van stelsels . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Het vegen van een lineair stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

College 2, Stelsels lineaire vergelijkingen II 13


2.1 Echelonvormen van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Het oplossen van stelsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Stelsels met één of meerdere parameters . . . . . . . . . . . . . . . . . . . . . . . . 22

College 3, Stelsels lineaire vergelijkingen III 25


3.1 Vectorvergelijking, matrixvergelijking Ax = b en homogene vergelijkingen . . . . . 25
3.2 De unitaire ruimte Cn en complexe lineaire stelsels . . . . . . . . . . . . . . . . . . 27
3.3 Lineaire opspanning en het opspannen van Rn . . . . . . . . . . . . . . . . . . . . . 29

College 4, Afhankelijkheid stelsels vectoren 35


4.1 Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid en onafhankelijkheid . . . 35
4.2 Matrix Operaties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

College 5, Matrix Algebra 43


5.1 Product van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Vegen en het matrixproduct, elementaire matrices. . . . . . . . . . . . . . . . . . . 47

College 6, Inverteerbare matrices 49


6.1 De inverse matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.2 Inverteerbaarheid via elementaire matrices . . . . . . . . . . . . . . . . . . . . . . . 52
6.3 Procedure om A−1 te vinden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.4 Karakterisering inverteerbare matrices . . . . . . . . . . . . . . . . . . . . . . . . . 55

College 7, Determinanten 57
7.1 Introductie tot Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2 Berekening van Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

College 8, Determinanten (vervolg) en afbeeldingen 65


8.1 Berekenen Determinanten via vegen . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8.2 Algebraı̈sche eigenschappen van Determinanten . . . . . . . . . . . . . . . . . . . . 66
8.3 Aanvullende eigenschappen van Determinanten . . . . . . . . . . . . . . . . . . . . 68
8.4 Afbeeldingen van Rn naar Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

i
ii INHOUDSOPGAVE

College 9, Lineaire afbeeldingen en deelruimten 77


9.1 Lineaire afbeeldingen L : Rn → Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.2 Determinanten en lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3 Lineaire afbeeldingen in de analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.4 Lineaire deelruimten van Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

College 10, Deelruimten(vervolg) 87


10.1 Basis van een deelruimten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
10.2 Deelruimten geassocieerd met een matrix . . . . . . . . . . . . . . . . . . . . . . . 90

College 11, Rang en eigenwaarde van een matrix 95


11.1 De rang van een matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
11.2 Eigenwaarden, Eigenvectoren en Eigenruimten . . . . . . . . . . . . . . . . . . . . 97

College 12, De karakteristieke vergelijking 103


12.1 De karakteristieke vergelijking van een matrix . . . . . . . . . . . . . . . . . . . . . 103

College 13, Gelijkvormigheid en diagonaliseerbaarheid. 109


13.1 Gelijkvormigheid van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.2 Diagonaliseerbaarheid van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.3 Toepassingen van diagonalisering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

College 14, Orthogonaliteit in Rn . 121


14.1 Het Standaard Inwendig Product in Rn . . . . . . . . . . . . . . . . . . . . . . . . 121
14.2 Orthogonale verzamelingen en orthogonale bases . . . . . . . . . . . . . . . . . . . 125

College 15, Orthogonale matrices en orthogonaal complement. 129


15.1 Orthogonale matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
15.2 Het Orthogonaal Complement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
15.3 De orthogonale decompositiestelling . . . . . . . . . . . . . . . . . . . . . . . . . . 135

College 16, Projectie matrices, het Gram–Schmidt proces. 139


16.1 Projectiematrices en spiegelingsmatrices . . . . . . . . . . . . . . . . . . . . . . . . 139
16.2 Het Gram-Schmidt Proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

College 17, Kleinste kwadraten benadering. 145


17.1 Karakterisering van de orthogonale projectie . . . . . . . . . . . . . . . . . . . . . 145
17.2 De Kleinste Kwadraat Oplossing van een Stelsel Ax = b . . . . . . . . . . . . . . . 146
17.3 Een alternatieve formule voor de projectiematrix . . . . . . . . . . . . . . . . . . . 149

Opgaven ter Lehring ende Vermaeck 151


College 1, Introductie

1.1 Vectoren in R2 en R3
In dit dictaat gaan wij ervan uit dat de lezer vertrouwd is met het (euclidische) vlak. We kunnen
in dit vlak een assenstelsel kiezen, we spreken van een x-as en een y-as. We weten hoe met behulp
van dit assenstelsel de punten coördinaten krijgen. Punten in het vlak (en de ruimte) worden
aangegeven met een hoofdletter, “het punt P ”, en een punt P krijgt de coördinaten (x, y) (zie de
schets). We zeggen zelfs: P = (x, y).
z
z-as
P = (x, y, z)

P = (x, y) y y-as
y

x
x

x-as
Op dezelfde manier kunnen we de ruimte coördinatiseren. Door drie onderling loodrechte assen te
kiezen, de x-as, y-as en de z-as, krijgt ieder punt P in de ruimte coördinaten van de vorm (x, y, z).
In de schets komt de positieve x-as het papier uit, naar ons toe. Ook hier zeggen we: P = (x, y, z).
In de keuze welke as de x-as, respectievelijk de y-as en de z-as wordt, is men vrij. Wel zullen we de
volgende eis stellen aan een assenstelsel: “de keuze van de positieve x-as, positieve y-as en positieve
z-as zal “rechtshandig” zijn”. D.w.z. als, vanuit de oorsprong, de duim van de rechterhand in de
richting van de positieve x-as is, de wijsvinger van de rechterhand in de richting van de positieve
y-as is, dan MOET de middelvinger van de rechterhand in de richting van de positieve z-as gaan.
(De noodzaak van deze eis is wellicht niet duidelijk. Maar bepaalde formules die we kennen, zoals
de formule van het uitwendig product in R3 , zijn alleen correct in een rechtshandig stelsel.)

−−−→ −−−→
A1 B1 = A2 B2 = B1 B2
B −−−→
= A3 B3 !
−−→ B3
v = AB
A A1 A2

A3

−−→
Onze aandacht gaat niet uit naar punten maar naar vectoren van de vorm a = AB, d.w.z. de
pijl met A als beginpunt en B als eindpunt. Vectoren met dezelfde lengte en richting in de ruimte
worden geı̈dentificeerd. Bijvoorbeeld, als A1 = (1, 0), A2 = (1, 1), A3 = (0, 1), B1 = (2, 1),

1
2 College 1, Stelsels lineaire vergelijkingen I

−−−→ −−−→ −−−→


B2 = (2, 2) en B3 = (1, 2) dan geldt: A1 B1 = A2 B2 = A3 B3 . Inderdaad, deze vectoren hebben
dezelfde lengte en richting! Omdat kennelijk de vectoren vrij in het vlak of de in ruimte mogen
bewegen (evenwijdig aan zichzelf) zonder hun identiteit te verliezen, heten dit ook wel “vrije
vectoren”. We kunnen ook eisen dat vectoren in de oorsprong O moeten beginnen, dus zoals de
−−→
vector: OP . Vectoren in deze vorm worden ook wel positie-vectoren of gebonden vectoren genoemd.
In deze situatie wordt de vector geheel bepaald door het eindpunt P . In het vlak spreken we af
−−→
dat de gebonden vector OP corresponderend
  met het eindpunt P = (x1 , x2 ) genoteerd wordt met
x1
de kolom: (of ook, “kolomvector”) .
x2
−−→
Evenzo, in de ruimte wordt de gebonden vector  OP  corresponderende met een gegeven punt
x1
P = (x1 , x2 , x3 ) genoteerd met de kolomvector  x2 .
x3
Afspraak: Punten worden genoteren met hoofdletters P . Vectoren worden genoteerd met òf een
−−→
kleine letter, zoals a (respectievelijk a of −

a ) òf als P Q òf als een kolomvector.

We definiëren:

Definitie: De verzameling van alle kolomvectoren in het vlak wordt aangeduid met R2 . Dus
in verzamelingen-notatie:
   
x1
R2 = x = : x1 , x2 ∈ R .
x2

Evenzo wordt de verzameling van alle kolomvectoren in de ruimte aangeduid met R3 . Dus in
verzamelingen-notatie:    
 x1 
R3 = x =  x2  : x1 , x2 , x3 ∈ R .
 
x3

De getallen x1 , x2 , x3 worden de kentallen van de vector x genoemd. Zowel op R2 als op R2 de-


finiëren we twee basis operaties. De zogeheten vectoriële optelling en de scalaire vermenigvuldiging.
Meetkundig wordt de optelling, zowel in R2 als in R3 , als volgt gedefiniëerd. Als gebonden vectoren
wordt u + v verkregen via de welbekende parallellogram-constructie.
w

u+v u+v+w v

v u u

Voor vrije vectoren is de zogeheten “kop-staart-constructie” ook mogelijk. Deze is met name handig
als er meerdere vectoren moeten worden opgeteld.
Meetkundig is de definitie van de scalaire vermenigvuldiging ook welbekend. Als c ∈ R (c heet een
1.1. Vectoren in R2 en R3 3

scalar) en als u een vector in R2 is (of in R3 ), dan is de vector cu gelijk aan:



als c ≥ 0 die vector in de zelfde richting als u, maar c maal zo lang
cu =
als c ≤ 0 die vector in tegenstelde richting als u, maar −c maal zo lang
De algebraı̈sche definitie van de vectoriële optelling en de scalaire vermenigvuldiging is veel een-
voudiger te formuleren. Op R3 luidt deze:
         
x1 y1 x1 + y1 x1 cx1
 x2  +  y2  =  x2 + y2  en c  x2  =  cx2  .
x3 y3 x3 + y3 x3 cx3
Natuurlijk moet nog wel worden nagegaan dat deze algebraı̈sche definitie inderdaad overeenstemt
met de meetkundige definitie. Dit zullen we achterwege laten.  
0
Tenslotte voeren we het symbool 0 in, de nulvector. In R2 wordt dit 0 = en in R3
  0
0
0 =  0 . Merk op dat zowel in R2 als in R3 geldt:
0
x + 0 = 0 + x = x, voor alle vectoren x.
Als laatste voeren we het symbool −x in, de zogeheten “tegengestelde van x”, via:
−x = (−1)x
De vector −x heeft de eigenschap:
x + (−x) = (−x) + x = 0, voor alle vectoren x.
Merk op dat
−−→ −−→
AB = −BA.

STELLING 1.1. Als A = (a1 , a2 , a3 ) en (b1 , b2 , b3 ) punten zijn in R3 , dan geldt:


 
b − a1
−−→  1
AB = b2 − a2  .
b 3 − a3

−→ −−→
Bewijs: Omdat OA + AB = OB geldt:
     
b a b − a1
−−→ −−→ −→  1   1   1
AB = OB − OA = b2 − a2 = b2 − a2  .
b3 a3 b 3 − a3

We zijn ook vertrouwd met het begrip: “lengte van 


een vectorën we kennen de notatie kxk voor
x1
de lengte. We kennen ook de formule: als x =  x2  dan
x3
q
kxk = x21 + x22 + x23
4 College 1, Stelsels lineaire vergelijkingen I

In het college Analyse zijn we ook het zogeheten (standaard) inwendigproduct x · y op R2 (en ook
op R3 ) tegengekomen .
   
x1 y1
Herinner: in R3 : als x =  x2  en y =  y2  dan
x3 y3

x · y = x1 y1 + x2 y2 + x3 y3 ∈ R.

Het inwendigproduct van vectoren is dus een scalar en geen vector.

Het is te hopen dat de volgende stelling iedereen bekend is:

STELLING 1.2. Als x en y vectoren in R3 , dan geldt:

x · y = kxk kyk cos(ϕ),

waar ϕ de hoek tussen de vectoren x en y is.

Omdat −1 ≤ cos(ϕ) ≤ 1 volgt:

STELLING 1.3. (Ongelijkheid Cauchy-Schwarz)


Als x en y twee vectoren in R3 zijn, dan:

|x · y| ≤ kxk kyk.

Ook volgt:

STELLING 1.4. Twee vectoren x en y in R3 zijn loodrecht (orthogonaal) als en slechts als
x · y = 0.

Tenslotte horen wij bekend te zijn met de loodrechte projectie van een vector x op een vector u;
deze zullen we noteren met:

proju (x).
1.2. De ruimte Rn . 5

Het is duidelijk dat proju (x) een scalair veelvoud


zal zijn van u. We stellen daarom: x
x − λu
proju (x) = λu

en het zal dat scalaire veelvoud zijn van u zo dat


u
x − λu ⊥ u. λu

Hieruit is λ te bepalen. Inderdaad:


u ⊥ x − λu ⇒ u · (x − λu) = 0 ⇒ u · x − λu · u = 0 O
en dus
u·x
λ=
u·u

STELLING 1.5. Laat x en u vectoren in R3 (of R2 ) zijn. De orthogonale projectie van


x op u is gelijk aan de vector: u · x
proju (x) = u.
u·u

De vector x − proju (x) heet: “de component van x loodrecht op u”. We gaan op dit moment hier
niet verder op in. We zullen dit alles opnieuw tegenkomen in de ruimte Rn . Maar dan moet die
ruimte eerst geı̈ntroduceerd worden.

1.2 De ruimte Rn .
De ruimtes R2 en R3 zijn op een voor de hand liggende manier te generaliseren tot “een ob-
ject/ruimte” Rn , via:

x ∈ Rn als en slechts als x een kolom is met n geordende kentallen uit R.

Dus als x ∈ Rn dan is x van de vorm:


 
x1

 x2 

x= .. .
 . 
xn

Dit zullen we weer vectoren noemen.


De vector x ∈ Rn is ons bekend als al zijn n kentallen x1 , . . . , xn ons bekend zijn. We zullen ons
van het object (de ruimte) Rn geen voorstelling maken, althans, niet voor n > 3.
Op de ruimte Rn leggen we een zogeheten “lineaire structuur”, dat wil zeggen een structuur waarop
een optelling en een scalaire vermenigvuldiging is gedefinieerd. Dit doen we op de volgende voor
de hand liggende manier:
6 College 1, Stelsels lineaire vergelijkingen I

   
x1 y1
Definitie: Als x =  ...  en y =  ..  vectoren in Rn zijn en α ∈ R, dan:
  
. 
xn yn
   
x1 + yn αx1
 ..   . 
x+y = .  en αx =  .. 
xn + yn αxn

  
−x1 0
Verder definieren we nog de vector −x via −x =  ...  en  ...  wordt weer de nulvector
   

−xn 0
genoemd.
We verkrijgen de volgende rekenregels voor de lineaire structuur op Rn .

STELLING 1.6. Laat u, v en w vectoren in Rn zijn en c, d scalairen in R. Dan:


1. u + v = v + u (de commutatieve wet)
2. u + (v + w) = (u + v) + w (de associatieve wet)
3. u + 0 = u
4. u + (−u) = 0
5. c(u + v) = cu + cv (de eerste distributieve wet)
6. (c + d)u = cu + du (de tweede distributieve wet)
7. c(du) = (cd)u (een soort associatieve wet)
8. 1u = u

Tenslotte definieren we nog den standaard


 eenheidsvectoren
 . , en van Rn via:
e1 , . . 
1 0 0
 0   1   0 
     
e1 =  .  , e2 =  .  , · · · en en =  . .
 ..   ..   .. 
0 0 1
 
x1
 x2  Xn
 
Merk op dat geldt: x =  ..  ⇒ x = x1 e1 + x2 e2 + . . . + xn en = xi ei .
 .  i=1
xn
n
R , met zijn lineaire structuur, is het object dat in de lineaire algebra bestudeerd wordt. Later
zullen we ook nog de structuur van het standaard inwendig product op Rn bestuderen, maar eerst
beperken we ons tot de lineaire structuur.
1.3. Lineaire vergelijkingen 7

Definitie: Als v1 , v2 , . . . , vp gegeven vectoren in Rn zijn en c1 , c2 , . . . , cp scalairen in R dan


heet de vector
b = c1 v1 + c2 v2 + · · · + cp vp
een lineaire combinatie van de vectoren v1 , v2 , . . . , vp (met gewichten c1 , c2 , . . . , cp ).

     
1 3 −2
Voorbeeld 1.7. De vector b = 4  2  − 2  2  =  4  is kennelijk een lineaire combinatie
3 1 10
   
1 3
van de vectoren  2  en  2  (met gewichten 4 en 2).
3 1

Voorbeeld 1.8.  Vraag.



2
Is de vector v =  −2  een lineaire combinatie van de vectoren
−1
     
1 2 5
 0  ,  −3  ,  −4 ?
−1 1 0
Antwoord: Kennelijk moeten we nagaan of er c1 , c2 en c3 bestaan zodat
       
1 2 5 2
c1  0  + c2  −3  + c3  −4  =  −2  .
−1 1 0 −1

Bestaan de c1 , c2 , c3 niet, dan is v geen lineaire combinatie van de gegeven vectoren. Schrijven we
bovenstaande vergelijking per kental uit, dan levert dit kennelijk de volgende drie vergelijkingen
met drie onbekenden. 
 c1 + 2c2 + 5c3 = 2
−3c2 − 4c3 = −2

−c1 + c2 = −1
Zulke stelsels, m lineaire vergelijkingen met n onbekenden blijken steeds weer op te duiken in de
lineaire algebra. Ons eerste doel is een methode te vinden om zulke stelsels op te lossen.
Op dit moment zullen we slechts zeggen: ga maar na dat c1 = 3, c2 = 2 en c1 = −1 een oplossing is.
We kunnen concluderen dat de vector v inderdaad een lineaire combinatie is van de drie gegeven
vectoren.

1.3 Lineaire vergelijkingen


We beginnen met een paar opmerkingen over matrices.
8 College 1, Stelsels lineaire vergelijkingen I

Definitie: Een m× n matrix is een rechthoek van getallen (de kentallen van A genoemd),
en wel een rechthoek met m rijen en n kolommen.

We leggen de volgende nummering van de kentallen van de m × n matrix A vast.


 
a1,1 ··· a1,j ··· a1,n
 .. .. .. 
 . . . 
 
 ai,1
A= ··· ai,j ··· ai,n 

 . .. .. 
 .. . . 
am,1 ··· am,j ··· am,n

Merk op:
 
1. De ide rij van de matrix A is de rij: ai,1 ··· ai,j ··· ai,n .

a1,j
 .. 
 . 
 
2. De j de  ai,j .
kolom van de matrix A is de kolom:  
 . 
 .. 
am,j

3. Het kental ai,j van A zit in de ide rij en de j de kolom van de matrix A.

4. De kolommen van de matrix A heten ai (i = 1 · · · n), en dit zijn vectoren in Rm . We schrijven


A = [ a1 . . . an ].

5. Algemeen, als (b1 , · · · , bk ) een stelsel vectoren in Rn is, dan heet [ b1 · · · bk ] de aan dit stelsel
toegevoegde kolommatrix. (Dit is een n × k matrix.)
     
1 3 1
Voorbeeld 1.9. Als a1 = , a2 = en a3 = dan is de aan het stelsel (a1 , a2 , a3 )
2 −1 −2
toegevoegde kolommatrix:
 
1 3 1
A = [ a1 a2 a3 ] = .
2 −1 −2

We stappen over naar de vergelijkingen.


Herinner dat de algemene vergelijking van een lijn in R2 van de volgende vorm is:

ax + by = d.

Evenzo is de algemene vergelijking van een vlak in R3 van de vorm

ax + by + cz = d.

Vergelijkingen van deze vorm heten lineaire vergelijkingen.


1.3. Lineaire vergelijkingen 9

Definitie: Een lineaire vergelijking in de onbekende variabelen x1 , . . . , xn is een ver-


geli jking van de vorm
a1 x1 + a2 x2 + · · · + an xn = b
waarbij de coëfficienten a1 , a2 , . . . , an gegeven constanten zijn, evenals de “constante term”
b.
Een oplossing van deze vergelijking is een vector in x ∈ Rn wiens kentallen x1 , . . . , xn voldoen
aan de vergelijking.

De vergelijkingen √
4x1 + 5x2 − 4 = 2x3 en x2 = 5x1 + sin(2)x3
zijn lineair, omdat ze als zodanig kunnen worden gerangschikt. Echter, de vergelijkingen
√ √
x2 = 5 x1 + sin(2)x3 of x2 = 5x1 + 2 sin(x3 )
 
1
zijn dat niet. Een oplossing van de vergelijking 4x1 + 5x2 − 4 = 2x3 is de vector x =  2  ∈ R3 ,
5
maar R3 bevat natuurlijk nog veel meer oplossingen van deze vergelijking. Enige voorzichtigheid
is soms wel nodig. Men kan de vergelijking 4x1 + 5x2 − 4 = 2x3 ook als een lineaire vergelijking in
x1 , x2 , x3 , x4 zien via 4x1 + 5x2 − 2x3 + 0x4 = 4. Dan zit een oplossing x van deze vergelijking in
R4 !
Een stelsel lineaire vergelijkingen in de onbekende variabelen x1 , . . . , xn is een m−tal lineaire
vergelijkingen in de variabelen x1 , . . . , xn . Dit is te schrijven als:


 a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1

 a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2
.. .. .. ..


 . . . .

am,1 x1 + am,2 x2 + . . . + am,n xn = bm
De getallen ai,j heten de coëfficienten van het stelsel, deze worden verzameld in de coëfficienten
matrix A = [ai,j ]i=1..m,j=1..n van dit stelsel. Voegen we de bi ook toe aan deze matrix, dan spreken
we van de aangevulde matrix [A|b] van dit stelsel. Dus:
   
a1,1 · · · a1,n a1,1 · · · a1,n b1
A =  ... ..  en [A|b] =  .. .. .. 

.   . . . 
am,1 ··· am,n am,1 ··· am,n bm
Merk op dat de aangevulde matrix het hele stelsel bepaald. Als A een m × n matrix en b ∈ Rm ,
dan spreken we van het stelsel [A|b].
Een oplossing van dit stelsel is een vector in x ∈ Rn wiens kentallen x1 , . . . , xn voldoen aan al
de m vergelijkingen.
De oplossing van dit stelsel (of ook: de algemene oplossing van dit stelsel) is de verzameling
van alle vectoren in x ∈ Rn met x een oplossing van dit stelsel.
Ons doel is een effectieve methode (procedure) te vinden om de oplossing van een stelsel te bepalen.
Het stelsel heet consistent als er oplossingen zijn. Zo niet, dan heet het stelsel inconsistent (of
stri‘jdig).
Twee (wellicht flauwe) voorbeelden van inconsistente stelsels zijn:
 
2x1 + x2 = 2 2x1 − 4x2 = 5
of
2x1 + x2 = 3 0x1 + 0x2 = 1
10 College 1, Stelsels lineaire vergelijkingen I

1.4 Introductie tot het oplossen van stelsels


We concentreren ons nu op drie vergelijkingen met drie onbekenden.

Voorbeeld 1.10. Beschouw het volgende stelsel van 3 vergelijkingen met drie onbekenden.
 Merk op dat iedere vergelijking
 x1 − x2 − x3 = 6 een vlak in de ruimte represen-
3x1 − 4x2 + 2x3 = 17 teert. Er zijn drie vlakken en we

2x1 − x2 + x3 = 9 zijn op zoek
naar de gemeenschappelijke punten (vectoren) van deze drie vlakken. Echter, hoe deze te vinden?

Zijn er stelsels die eenvoudig zijn op te lossen? Ja, en één type stelsels springt er uit, namelijk
stelsels die in driehoeksvorm staan.

Voorbeeld 1.11. Het volgende stelsel in driehoeksvorm is wel eenvoudig op de lossen.

 Want uit de derde vergelijking


 x1 + 2x2 + 3x3 = 6 volgt x3 = 1. Substitueren we
2x2 + 4x3 = 6 dit in de tweede vergelijking, dan

2x3 = 2 volgt x2 = 1. Substitueren we
 
1
x2 , x3 in de eerste vergelijking dan krijgen we x1 = 1. Dus x =  1  is de unieke oplossing van
1
dit stelsel. Deze oplosmethode heet wel “terug substitutie”.

De algemene strategie voor het oplossen van een stelsel van drie vergelijkingen met drie onbe-
kenden is nu simpel te bevatten. We transformeren het oude stelsel in een nieuw stelsel van drie
vergelijkingen met drie onbekenden in driehoeksvorm. Dit doen we door de zogeheten “elementaire
rijbewerkingen” op zo een stelsel los te laten. We bekijken dit eerst voor Voorbeeld 1.10 en dan
zullen we definities etc. geven. Deze rijbewerkingen kunnen we loslaten òf op een stelsel òf op de
aangevulde matrix.

Voorbeeld 1.12. We transformeren het stelsel uit voorbeeld 1.10 naar driehoeksvorm.

Stelsel: Aangevulde matrix:


  
 x1 − x2 − x3 = 6 1 −1 −1 6
3x1 − 4x2 + 2x3 = 17  3 −4 2 17 

2x1 − x2 + x3 = 9 2 −1 1 9
Tel -3 maal de eerste Tel -3 maal de eerste rij op bij de
vergelijking op bij de tweede tweede rij:
vergelijking:
  
 x1 − x2 − x3 = 6 1 −1 −1 6
− x2 + 5x3 = −1  0 −1 5 −1 

2x1 − x2 + x3 = 9 2 −1 1 9
Tel -2 maal de eerste Tel -2 maal de eerste rij op bij de
vergelijking op bij de derde derde rij:
vergelijking:
  
 x1 − x2 − x3 = 6 1 −1 −1 6
− x2 + 5x3 = −1  0 −1 5 −1 

x2 + 3x3 = −3 0 1 3 −3
1.5. Het vegen van een lineair stelsels 11

Tel tweede vergelijking op bij de derde: Tel tweede rij op bij de derde:
  
 x1 − x2 − x3 = 6 1 −1 −1 6
− x2 + 5x3 = −1  0 −1 5 −1 

8x3 = −4 0 0 8 −4
Het stelsel is op driehoeksvorm gebracht, en het zal een ieder duidelijk zijn dat een oplossing van
het eerste stelsel ook een oplossing is van het tweede stelsel. Maar omdat alle stappen omkeer-
baar zijn geldt ook het
 omgekeerde.
 De twee stelsels heten equivalent en via terug substitutie
4
verkrijgen we dat x =  −3/2  de unieke oplossing is.
−1/2

We merken tenslotte op dat de volgende drie bewerkingen zijn gebruikte. Bij het toepassen van
deze bewerkingen op een stelsel gaan geen oplossingen verloren, en komen er ook geen nieuwe
oplossingen te voorschijn.

Definitie: De volgende operaties heten de “elementaire rijbewerkingen”.


1. (Verwisseling) Het verwisselen van twee rijen,
2. (Schaling) Een rij met constante c 6= 0 vermenigvuldigen,
3. (Substitutie) Een veelvoud van een rij bij een andere rij optellen.

Als stelsel [ A|b ] tot een stelsel [ A′ |b′ ] wordt omgebouwd via elementaire rijbewerkingen, dan
zeggen we dat stelsel [ A|b ] naar stelsel [ A′ |b′ ] wordt geveegd.

1.5 Het vegen van een lineair stelsels

Definitie: Twee stelsels [ A|b ] en [ A′ |b′ ] heten rijequivalent als stelsel [ A|b ] naar [ A′ |b′ ]
kan worden geveegd. We noteren dit met [ A|b ] ∼ [ A′ |b′ ].
Twee stelsels [ A|b ] en [ A′ |b′ ] heten equivalent als deze stelsels dezelfde oplossingsverzame-
ling hebben.

Afspraak: als we vegen dan zetten we bij iedere stap de veegstappen.

Voorbeeld 1.13.
      +
1 2 1 4 ×2 1 2 1 4 1 2 1 4 ↑
 −2 2 0 0  ↓+ ∼  0 6 2 8  ← ∼ 0 1 1 0  ×−2 ×−6 ∼
0 1 1 0 0 1 1 0 ← 0 6 2 8 ↓+
     
1 0 −1 4 1 0 −1 4 ↑+ 1 0 0 2
 0 1 1 0  ∼ 0 1 1 0  ↑+ ↑ ∼ 0 1 0 2 
0 0 −4 8 × − 1/4 0 0 1 −2 ×−1 ×1 0 0 1 −2
12 College 1, Stelsels lineaire vergelijkingen I

STELLING 1.14. Als het stelsel [A|b] naar het stelsel [ A′ |b′ ] kan worden geveegd dan kan
het stelsel [ A′ |b′ ] naar het stelsel [A|b] worden teruggeveegd.

Bewijs: Om dit in te zien is het voldoende in te zien dat de elementaire rijbewerkingen omkeerbaar
zijn. Voor verwisseling en scaling is dit duidelijk. Voor substitutie wellicht iets minder.
   
1 −1 −1 2 ×−3 1 −1 −1 2
 3 −3 2 16  ↓+ ∼  0 0 5 10 
2 −1 1 9 2 −1 1 9

Omgekeerd:
   
1 −1 −1 2 ×3 1 −1 −1 2
 0 0 5 10  ↓+ ∼  3 −3 2 16 
2 −1 1 9 2 −1 1 9

Inderdaad, als [ A′ |b′ ] uit [A|b] is ontstaan door c × ide rij op te tellen bij de j de rij, dan kan [A|b]
uit [ A′ |b′ ] verkregen worden door in [ A′ |b′ ] −c× ide rij op te tellen bij de j de rij. Tenslotte, als er
meerdere veegstappen nodig waren kunnen we teruglopen door alle veegstappen om te keren.
 
1 0 0 2
Inderdaad, het stelsel  0 1 0 2  uit Voorbeeld 1.13 kan worden teruggeveegd, stap voor
0 0 1 −2 
1 2 1 4
stap, naar het oorspronkelijke stelsel  −2 2 0 0 , op de volgende manier:
0 1 1 0
  +
    +
1 0 0 2 ↑ 1 0 −1 4 1 0 −1 4 ↑
 0 1 0 2  ↑+ ↑ ∼ 0 1 1 0  ∼ 0 1 1 0  ×2 ×6 ∼
0 0 1 −2 ×1 × − 1 0 0 1 −2 ×−4 0 0 −4 8 ↓+
     
1 2 1 4 1 2 1 4 ×−2 1 2 1 4
 0 1 1 0  ← ∼  0 6 2 8  ↓+ ∼  −2 2 0 0 .
0 6 2 8 ← 0 1 1 0 0 1 1 0

STELLING 1.15. Beschouw het stelsel [A|b]. Als deze met behulp van elementaire rijbewer-
kingen tot een stelsel [A′ |b′ ] geveegd wordt dan hebben deze twee stelsels dezelfde oplossing.

Bewijs: Het is eenvoudig na te gaan dat na iedere veegstap (verwisseling, scaling of vervanging)
een oplossing van het oorspronkelijke stelsel ook een oplossing is van het geveegde stelsel. Omdat
veegstappen omkeerbaar zijn, geldt ook het omgekeerde. Dus na één veegstap hebben het oor-
spronkelijke stelsel en het geveegde stelsel precies dezelfde oplossing. Maar als dit zo is na één
veegstap dan geldt hetzelfde na k veegstappen.

Bovenstaande stelling zegt dat “stelsels waarvan de aangevulde matrices rijequivalent zijn, ook
equivalent zijn”.
Om een stelsel op te lossen willen we dit stelsel vegen naar een ”simpel”stelsel, wat makkelijk is
op te lossen. Alleen, wat is een “simpel stelsel”? Daar gaan we het volgende college over door.
College 2, Stelsels lineaire
vergelijkingen II

2.1 Echelonvormen van matrices


We herinneren ons van het vorige college dat een lineair stelsel, zeg m vergelijkingen met n onbe-
kenden, geschreven wordt als aangevulde matrix [A|b]. Hierbij staat A voor de coëfficientenmatrix,
b ∈ Rm staat voor de vector waarin de constante termen staan
  
 x1 − x2 − x3 + x4 = 6 1 −1 −1 1 6
Voorbeeld: 3x1 − 4x2 + 2x3 − x4 = 17 noteren we als  3 −4 2 −1 17 .

2x1 − x2 + x3 = 9 2 −1 1 0 9
We herinneren ons het veegproces bij een stelsel.
Nu introduceren we ook het vegen van matrices.

Definitie: De volgende operaties op een matrix (of op een stelsel) heten de “elementaire
rijbewerkingen”.
1. (Verwisseling) Het verwisselen van twee rijen,
2. (Schaling) Een rij met constante c 6= 0 vermenigvuldigen,
3. (Substitutie) Een veelvoud van een rij bij een andere rij optellen.
Als de matrix A tot een matrix A′ wordt omgebouwd via elementaire rijbewerkingen, dan
zeggen we dat de matrix A naar matrix A′ geveegd wordt. De matrices A en A′ heten dan
rijequivalent en we noteren dit met A ∼ A′ .

Afspraak: als we vegen dan zetten we bij iedere stap de veegstappen.

Voorbeeld 2.1.
      +
1 2 1 4 ×2 1 2 1 4 1 2 1 4 ↑
 −2 2 0 0  ↓+ ∼  0 6 2 8  ← ∼ 0 1 1 0  ×−2 ×−6 ∼
0 1 1 0 0 1 1 0 ← 0 6 2 8 ↓+
     
1 0 −1 4 1 0 −1 4 ↑+ 1 0 0 2
 0 1 1 0  ∼ 0 1 1 0  ↑+ ↑ ∼ 0 1 0 2 
0 0 −4 8 × − 1/4 0 0 1 −2 ×−1 ×1 0 0 1 −2

13
14 College 2, Stelsels lineaire vergelijkingen II

STELLING 2.2. Als de matrix A naar de matrix A′ kan worden geveegd dan kan de matrix
A′ naar de matrix A worden teruggeveegd.

Bewijs: Zie het bewijs van stelling 1.14.


 
1 0 0 2
Inderdaad, de matrix  0 1 0 2  uit Voorbeeld 2.1 kan worden teruggeveegd, stap voor
0 0 1 −2
 
1 2 1 4
stap, naar de oorspronkelijke matrix  −2 2 0 0 , op de volgende manier:
0 1 1 0
  +
    +
1 0 0 2 ↑ 1 0 −1 4 1 0 −1 4 ↑
 0 1 0 2  ↑+ ↑ ∼ 0 1 1 0  ∼ 0 1 1 0  ×2 ×6 ∼
0 0 1 −2 ×1 × − 1 0 0 1 −2 ×−4 0 0 −4 8 ↓+
     
1 2 1 4 1 2 1 4 ×−2 1 2 1 4
 0 1 1 0  ← ∼  0 6 2 8  ↓+ ∼  −2 2 0 0 .
0 6 2 8 ← 0 1 1 0 0 1 1 0
De definitie van een matrix in echelonvorm is een generalisatie van de driehoeksvorm bij een 3 × 3
matrix. Het is makkelijker te zien 
dan te zeggenwat echelonvorm is.
1 2 −2
Duidelijk is dat de matrix D =  0 3 −1  een matrix in driehoeksvorm is. De volgende
0 0 −5
matrices zijn matrices in echelonvorm.
   
1 2 2 5 1 3 5 4 −1  
 0 2 1 1   0 0 −1 0 0 1 2 0
1 
 , A3 =  0 0 0 1 
A1 =   0 0 0 5  , A2 =  0 0
 
0 1 2 
0 0 0 0
0 0 0 0 0 0 0 0 0
In de matrices A1 , A2 en A3 is ook een soort driehoek te zien. Om de juiste definitie te presenteren
hebben we het volgende begrip nodig.

Definitie: De pivot (as of spil) van een rij is het eerste element in die rij ongelijk aan 0.

Definitie: Een matrix A heet een matrix in echelonvorm als:


1. eventuele nulrijen staan onder de niet-nulrijen,
2. de pivot van een rij staat strikt rechts van de pivot van een hogere rij.

Met deze definitie is het inderdaad duidelijk dat A1 , A2 , A3 matrices in echelonvorm zijn. Als we
2.1. Echelonvormen van matrices 15

pivotS aangeven met • en een willekeurige element (dus nul of niet nul) met ∗, dan zien we in de
structuur van deze matrices inderdaad een driehoeksstuctuur verschijnen.
   
• ∗ ∗ ∗ • ∗ ∗ ∗ ∗  
 0 • ∗ ∗   0 0 • ∗ ∗  0 • ∗ 0
 0 0 0 •  , A2 =  0 0 0 • ∗  , A3 = 0 0 0 •
A1 =      
0 0 0 0
0 0 0 0 0 0 0 0 0

Merk op dat bij een matrix in echelonvorm onder de pivots nullen staan. (Waarom eigenlijk?)

Definitie: Een matrix A heet een matrix in gereduceerde echelonvorm als:


1. A een matrix in echelonvorm in,
2. alle pivots gelijk zijn aan 1,
3. ook boven de pivots nullen staan.

 
1 2 1 4
We merken op dat in Voorbeeld 2.1 de matrix  −2 2 0 0  is geveegd naar de matrix in gere-
  0 1 1 0
1 0 0 2
duceerde echelonvorm  0 1 0 2 . Bij dit veegproces is al eerder een matrix in echelonvorm
0 0 1 −2
bereikt. Dit alles is geen toeval, zoals de volgende stelling laat zien.

STELLING 2.3. Iedere matrix A is rijequivalent met (te vegen naar) een matrix C in
echelonvorm. Echter, die echelonvorm C is niet uniek. Bovendien geldt dat A rijequivalent is
met een matrix D in gereduceerde echelonvorm. De gereduceerde echelonvorm D van A is wel
uniek.

We zullen deze stelling niet bewijzen, maar aan de hand van een voorbeeld demonstreren. In dit
voorbeeld is ook de procedure te vinden hoe A naar een matrix in echelonvorm te vegen. Bestudeer
deze procedure grondig. Bekijk ook de conclusies die uit de gereduceerde echelonvorm te trekken
zijn. De stelling heeft het volgende interessante gevolg.

GEVOLG 2.4. Laat A en B twee m × n matrices zijn. De matrices A en B zijn rijequivalent


als en slechts als A en B dezelfde gereduceerde echelon vorm hebben.
16 College 2, Stelsels lineaire vergelijkingen II

Vegen naar echelonvorm.


Voorbeeld 2.5. Gebruik elementaire rijbewerkingen om de volgende matrix A naar een echelon
vorm te vegen.  
0 0 3 −6 6 4 −5
 0 3 −7 8 −5 8 9 
A=  0 3 −9 12 −9

6 15 
0 1 −2 2 −1 −1 −14
De procedure.
1. Bepaal de eerste niet 0 kolom. In dit geval de tweede kolom.
2. Zorg ervoor dat het eerste kental van deze kolom ongelijk 0 wordt, en wel door “rijverwisse-
ling”. In dit geval verwisselen we rij 1 en 4.
3. Maak nu door “Vervanging” alle kentallen in kolom twee onder de pivot gelijk aan nul.
   
0 1 −2 2 −1 −1 −14 ×−3 ×−3 0 1 −2 2 −1 −1 −14
 0 3 −7 8 −5 8 9  ↓+ |  0 0 −1 2 −2 11 51 

 0 3
 ∼ 
−9 12 −9 6 15  ↓+ 0 0 −3 6 −6 9 57 
0 0 3 −6 6 4 −5 0 0 3 −6 6 4 −5

Met de eerste rij mag niet meer geveegd worden ( anders worden de nullen onder de pivot van de
eerste rij ongelijk aan nul)! We gaan nu de pivot van de tweede rij zoeken en daaronder alles nul
maken.
4. Bepaal de eerste niet 0 kolom in de laatste matrix zonder de eerste rij. In dit geval de derde
kolom.
5. Er is nu geen rijverwisseling nodig om het tweede kental van deze kolom ongelijk nul te
maken.
6. Maak nu door “Vervanging” alle kentallen in kolom drie onder de pivot gelijk aan nul.
   
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
 0 0 −1 2 −2 11 51 
 × − 3 ×3 ∼  0 0 −1 2 −2 11 51 

 
 0 0 −3 6 −6 9 57  ↓+ |  0 0 0 0 0 −24 −96 
0 0 3 −6 6 4 −5 ↓+ 0 0 0 0 0 37 148

Vanaf nu geldt dat we niet meer met rij 1 en 2 kunnen vegen, dat zou de nullen onder de pivots
verpesten.
7. Het lijkt niet onverstandig eerst de laatste twee rijen te schalen.
   
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
 0 0 −1 2 −2 11 51   0 0 −1 2 −2 11 51 

 0 0
 ∼ 
0 0 0 −24 −96  × − 1/24  0 0 0 0 0 1 4 
0 0 0 0 0 37 148 ×1/37 0 0 0 0 0 1 4

8. Bepaal de eerste niet 0 kolom in de laatste matrix zonder de eerste twee rijen. In dit geval
de zesde kolom.
9. Maak nu door “Vervanging” alle kentallen in kolom zes onder de pivot gelijk aan nul.
   
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
 0 0 −1 2 −2 11 51   0 0 −1 2 −2 11 51 

 0
 ∼ 
0 0 0 0 1 4  ×−1  0 0 0 0 0 1 4 
0 0 0 0 0 1 4 ↓+ 0 0 0 0 0 0 0
2.1. Echelonvormen van matrices 17

Aangezien de laatste rij alleen uit nullen bestaat is een echelonvorm van A hiermee gevonden, maar
de gereduceerde echelonvorm is nog niet gevonden.

Vegen naar gereduceerde echelonvorm.


Voorbeeld 2.6. Er zijn twee methodes om naar gereduceerde echelonvorm te vegen.
Methode 1.
Stap 1. Veeg eerst de matrix naar echelon vorm. Bij de matrix A uit Voorbeeld 2.5 is dit gebeurd.
   
0 0 3 −6 6 4 −5 0 1 −2 2 −1 −1 −14
 0 3 −7 8 −5 8 9 
 ∼  0 0 −1 2 −2 11 51 

A=  0 3 −9 12 −9

6 15   0 0 0 0 0 1 4 
0 1 −2 2 −1 −1 −14 0 0 0 0 0 0 0
Stap 2.
10. Maak m.b.v. scaling alle pivots gelijk aan 1.
   
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
 0 0 −1 2 −2 11 51  × − 1  0 0 1 −2 2 −11 −51 

 0
 ∼ 
0 0 0 0 1 4   0 0 0 0 0 1 4 
0 0 0 0 0 0 0 0 0 0 0 0 0 0
11. Ga nu van rechts naar links ook boven de pivots nul maken via vervanging.
   
0 1 −2 2 −1 −1 −14 + 0 1 −2 2 −1 0 −10
 0 ↑
0 1 −2 2 −11 −51 
 ↑+
 0 0 1 −2 2 0 −7 

 0 | ∼ 
0 0 0 0 1 4   0 0 0 0 0 1 4 
×11 ×1
0 0 0 0 0 0 0 0 0 0 0 0 0 0
  +  
0 1 −2 2 −1 0 −10 ↑ 0 1 0 −2 3 0 −24
 0 0 1 −2 2 0 −7  ×2  0 0 1 −2 2 0 −7 

 0 0
 ∼ 
0 0 0 1 4   0 0 0 0 0 1 4 
0 0 0 0 0 0 0 0 0 0 0 0 0 0
12. De gerduceerde echelonvorm van A is gevonden.
Er wordt wel gezegd dat Methode 1 behelst: “veeg A van links naar rechts naar echelonvorm
en van rechts naar links naar gereduceerde echelonvorm”.
Methode 2.
(Methode 2 heeft mijn voorkeur.)
Veeg de matrix rechtstreeks naar gereduceerde echelonvorm, dus zonder eerst naar echelonvorm te
vegen. Dit wordt bereikt door pivots meteen naar 1 te schalen en bij vervanging niet alleen onder
de pivots nullen te maken, maar ook er boven.
Volgen we deze procedure bij matrix A dan krijgen we (na eerst rij 1 en rij 4 verwisseld te hebben):
   
0 1 −2 2 −1 −1 −14 ×−3 ×−3 0 1 −2 2 −1 −1 −14
 0 3 −7 8 −5 8 9  ↓+ |  0 0 −1 2 −2 11 51 
A∼  0 3 −9 12 −9
 ∼  
6 15  ↓+  0 0 −3 6 −6 9 57 
0 0 3 −6 6 4 −5 0 0 3 −6 6 4 −5
Vervolgens: schalen we en vegen de we met de volgende pivot de kolom nul.
  +  
0 1 −2 2 −1 −1 −14 ↑ 0 1 0 −2 3 −23 −116
 0 0 1 −2 2 −11 −51   ×2 ×3 × − 3  0 0 1 −2 2 −11 −51 

 
 0 0 −3 6 −6 9 57  ↓+ |  0 0 0 0 0 −24 −96 
0 0 3 −6 6 4 −5 ↓+ 0 0 0 0 0 37 148
18 College 2, Stelsels lineaire vergelijkingen II

Vervolgens: scailen we en vegen we met de volgende pivot de kolom nul.

   
0 1 0 −2 3 −23 −116 ↑+ 0 1 0 −2 3 0 −24
 0
 0 1 −2 2 −11 −51  | ↑+  0
 0 1 −2 2 0 −7 
 0 0 0 0 0 1 4  ×23 ×11 × − 37  0 0 0 0 0 1 4 
0 0 0 0 0 37 148 ↓+ 0 0 0 0 0 0 0

De gereduceerde echelonvorm is gevonden.

Het veegproces is een proces dat steeds weer terug komt. Dus leer je zelf snel en effectief te vegen.
We hebben al gezegd dat een matrix A naar meerdere echelonvormen, zeg C1 , C2 , kan worden
geveegd. Toch zullen die echelonvormen iets gemeenschappelijk hebben. Zonder bewijs delen we
mede dat de echelonvormen C1 , C2 hun pivots op de zelfde positie in de matrix hebben.

Definitie: Laat A een matrix zijn. De pivotposities van A zijn de posities (in de matrix
A) waar in echelonvorm de pivots staan.
De kolommen van A waar de pivotposities in staan heten de pivot kolommen van A.

In Voorbeeld
 2.5 hebben we de matrix Anaar  echelonvorm geveegd. 
0 0 3 −6 6 4 −5 0 1 −2 2 −1 −1 −14
 0 3 −7 8 −5 8 9 
 ∼  0 0 −1 2 −2 11 51 

A=  0 3 −9 12 −9
 = C.
6 15   0 0 0 0 0 1 4 
0 1 −2 2 −1 −1 −14 0 0 0 0 0 0 0
Dit impliceert dat de volgende posities de pivot posities van A zijn. (Deze worden weer aangegeven
met een • of met een omcirkeld kental.)
 
0 • 3 −6 6 4 −5
 0 3 • 8 −5 8 9 
 
 0 3 −9 12 −9 • 15 
0 1 −2 2 −1 −1 −14

en de kolommen 2, 3 en 6 zijn de pivotkolommen van A. U ziet dus dat de pivotposities van A


absoluut niet overeenkomen met de pivots van de rijen van A (maar wel met die van C).

2.2 Het oplossen van stelsels


Echelonvormen zijn handig vanwege de volgende stelling.

STELLING 2.7. Beschouw een stelsel met onbekenden x1 , . . . , xn en aangevulde matrix


[A | b]. Als de coëfficientenmatrix A in echelonvorm staat dan geldt: het stelsel is inconsis-
tent als en slechts als de vergelijking

0x1 + 0x2 + · · · + 0xn = b 6= 0

aanwezig is.
2.2. Het oplossen van stelsels 19

Bewijs: Iedereen ziet in dat als de vergelijking 0x1 + 0x2 + · · · + 0xn = b 6= 0 aanwezig is, dat dan
het stelsel inconsistent is. Dat het omgekeerde ook waar is, is het makkelijkste in te zien aan de
hand van een voorbeeld.

Voorbeeld 2.8. Beschouw het volgende stelsel in de onbekenden x1 , . . . , x6 met de aangevulde


matrix.
  
 x1 − x2 + 2x3 − x4 + x5 − x6 = 5 1 −1 2 −1 1 −1 5
x3 + x4 − x5 − x6 = 2 met  0 0 1 1 −1 −1 2 

x4 + x5 + x6 = 4 0 0 0 1 1 1 4

Het zal iedereen duidelijk zijn dat de coëfficientenmatrix in echelonvorm staat en dat de vergelijking
0x1 + 0x2 + · · · + 0x6 = b 6= 0 niet aanwezig is. Hoe kunnen we een oplossing verzinnen? Weer via
terug substitutie! In de laatste vergelijking kunnen we x5 , x6 vrij kiezen en dan x4 oplossen. Dit
stoppen we in vergelijking 2, en lossen x3 op. Dit stoppen we in vergelijking 1, kiezen x2 vrij en
lossen x1 op! Bijvoorbeeld: kies x6 , x5 beide gelijk aan 1. Dit geeft x4 = 2 en 
daarna
 x3= 2. Kies
x1 3
 x2   0 
   
 x3 
 =  2  . Er zijn
 
x2 = 0 en dat geeft x1 = 3. Een oplossing is gevonden, en wel: x =   x4   2 
   
 x5   1 
x6 1
andere oplossingen te vinden door voor x6 , x5 en x2 andere vrije waarden te kiezen.

Kortom, bij een stelsel met de coëfficientenmatrix A in echelonvorm zien we in één oog opslag of
het stelsel consistent is, of niet.
Daarom is het een gebruikelijke aanpak om een gegeven stelsel [A | b] eerst naar een equivalent
stelsel [A′ | b′ ] te vegen met de coëfficientenmatrix A′ in echelonvorm. Via stelling 2.7 zien we in
één oog opslag of het geveegde stelsel (en daarmee het oorspronkelijke stelsel) consistent is. Als
het consistent is dan pas vegen we door naar een stelsel in gereduceerde echelonvorm.
In de aanpak die wij in dit dictaat voorstaan zal meteen naar een equivalent stelsel geveegd worden
met de coëfficientenmatrix A in gereduceerde echelonvorm.
Methode tot oplossen stelsel

1. Schrijf de aangevulde matrix [ A | b ] van het stelsel op.

2. Veeg het stelsel naar een equivalent stelsel met de coëfficientenmatrix in (gereduceerde) eche-
lonvorm.

3. Als in het nieuwe stelsel de vergelijking

0x1 + 0x2 + · · · + 0xn = b 6= 0

verschijnt, dan is het oorspronkelijke stelsel inconsistent, en zijn we klaar.


Zo niet, dan

4. Zo nodig: veeg stelsel door naar een equivalent stelsel met de coëfficientenmatrix in geredu-
ceerde echelonvorm.

5. Variabelen xi die in de pivotkolommen staan heten “gebonden variabelen”.


Variabelen xj die niet in de pivotkolommen staan heten “vrije variabelen”.

6. Schrijf het nieuwe stelsel op.

7. Los de gebonden variabelen op in de vrije variabelen.


20 College 2, Stelsels lineaire vergelijkingen II

8. Geef een parametrisering van de oplossing (de zogeheten “vector parameter vorm van het
antwoord”).
Wat precies met de twee laatste stappen bedoeld wordt is te zien in de volgende drie voorbeelden.
Bestudeer deze goed.
Voorbeeld 2.9. We bepalen de oplossing van het stelsel uit Voorbeeld 2.8. We vegen de aange-
vulde matrix eerst naar gereduceerde echelonvorm.
  
 x1 − x2 + 2x3 − x4 + x5 − x6 = 5 1 −1 2 −1 1 −1 5
x3 + x4 − x5 − x6 = 2 met  0 0 1 1 −1 −1 2 

x4 + x5 + x6 = 4 0 0 0 1 1 1 4
 
1 −1 2 −1 1 −1 5 ↑+
 0 +
0 1 1 −1 −1 2  ↑ |
0 0 0 1 1 1 4 × − 1 ×1
 
1 −1 2 0 2 0 9 ↑+
 0 0 1 0 −2 −2 −2  × − 2
0 0 0 1 1 1 4
  
1 −1 0 0 6 4 13  x1 − x2 + 6x5 + 4x6 = 13
 0 0 1 0 −2 −2 −2  geeft x3 − 2x5 − 2x6 = −2

0 0 0 1 1 1 4 x4 + x5 + x6 = 4
Kennelijk zijn de x2 , x5 , x6 de vrije variabelen en x1 , x3 , x4 de gebonden variabelen. Het antwoord
wordt:
           
x1 13 + x2 − 6x5 − 4x6 13 x2 −6x5 −4x6
 x2   x2   0   x2   0  0 
     
     
 x3   −2 + 2x5 + 2x6   −2   0   2x5   2x6 
       
x= =
 x4   = + + + =
   4 − x5 − x6    4   0   −x5   −x6 
       
 x5   x5   0   0   x5   0 
x6 x6 0 0 0 x6
       
13 1 −6 −4
 0   1   0   0 
       
 −2   0   2   2 
= 
 + x2  0  + x5  −1  + x6  −1 
      
 4       
 0   0   1   0 
0 0 0 1
De oplossing is, in de taal van hoofdstuk 1, kennelijk een object in R6 met een steunvector en drie
richtingsvectoren. Kennelijk heeft het stelsel oneindig veel oplossingen.

Voorbeeld 2.10. Beschouw het volgende stelsel met zijn aangevulde matrix.
  

 x1 + 2x2 + x3 − 4x4 + 2x5 = 10 1 2 1 −4 2 10

2x1 + 4x2 + 3x3 + 5x4 + 4x5 = −5  2 4 3 5 4 −5 
en  

 x1 + 2x2 + 2x3 + 5x4 + 6x5 = 9  1 2 2 5 6 9 

3x1 + 6x2 + 4x3 + x4 + 6x5 = 5 3 6 4 1 6 5

We vegen de aangevulde
 matrix:  
1 2 1 −4 2 10 ×−2 ×−1 ×−3
 2 4 3 5 4 −5 
  ↓+ | |
 
 ∼
 1 2 2 5 6 9  ↓+ | 
3 6 4 1 6 5 ↓+
2.2. Het oplossen van stelsels 21

  
1 2 1 −4 2 10 ↑+
 0 0 1 13 0 −25   × − 1 × − 1 
  ∼
 0 0 1 9 4 −1   ↓+ | 
0 0 1 13 0 −25 ↓+
     
1 2 0 −17 2 35 1 2 0 −17 2 35 ↑+
 0 0 1 +
 13 0 −25   
∼ 0 0 1
  13 0 −25   ↑
  | 

 0 0 0 −4 4 24   − 14   0 0 0 1 −1 −6   × − 13 ×17 
0 0 0 0 0 0 0 0 0 0 0 0
Dit levert de volgende aangevulde matrix en het volgende stelsel op.
  
1 2 0 0 −15 −67 
 x1 + 2x2 − 15x5 = −67
 0 0 1 0 
13 53  x3 + 13x5 = 53
 0 0 0 1 −1 −6  en 
 
 x4 − x5 = −6

0 0 0 0 0 0 0=0
Kennelijk is het stelsel consistent, x1 , x3 , x4 zijn de gebonden variabelen en x2 , x5 zijn de vrije
variabelen. Kennelijk: x1 = −67 − 15x5 − 2x2 , x3 = 53 − 13x5 en x4 = −6 + x5 .
Voorde oplossing
  van het stelsel wordt  dit:     
x1 −67 + 15x5 − 2x2 −67 −2x2 15x5
 x2   x2   0   x2   0 
         
x= x 
 3   =  53 − 13x 
5  = 
 53  +
 
 0  +
 
 −13x 
5 
 x4   −6 + x5   −6   0   x5 
x5 x5 0 0 x5
en dus:      
−67 −2 15

 0 

 1 
 

 0 

x =  53  + x2  0  + x5  −13 
    
 = s + x2 r1 + x5 r2
 −6   0   1 
0 0 1
d.w.z. de oplossing van het stelsel een object in R5 met steunvector en twee richtingsvectoren.
Kennelijk heeft dit stelsel oneindig veel oplossingen.

Voorbeeld 2.11. Beschouw het volgende stelsel met zijn aangevulde matrix.
  

 x1 + x2 + x3 − 4x4 = −1 1 1 1 −4 −1

2x1 + 4x2 + 3x3 − 5x4 = 4  2 4 3 −5 4 
en  

 x1 + 2x 2 + 2x3 + 5x4 = 10  1 2 2 5 10 

3x1 + 6x2 − 5x3 − 2x4 = 2 3 6 −5 −2 2

We vegen de aangevulde
 matrix:  
1 1 1 −4 −1 ×−2 ×−1 ×−3
 2 4 3 −5 4   ↓+ | | 
  ∼
 1 2 2 5 10   ↓+ | 
3 6 −5 −2 2 ↓+
   
1 1 1 −4 −1 ↑+
 0 2
 1 3 6  
  ↑+ | 
∼
 0 1 1 9 11   ×−2 ×−1 ×−3 
0 3 −8 10 5 ↓+
    
1 0 0 −13 −12 1 0 0 −13 −12
 0 0 −1 −15 −16  
 ∼ 0 1 1 9 11 

 ↑+ 
∼
 0 1 1 9 11   0 0 1 15 16   × − 1 × − 11 
0 0 −11 −17 −28 0 0 11 17 28 ↓+
22 College 2, Stelsels lineaire vergelijkingen II

   
1 0 0 −13 −12 1 0 0 0 1
 0 1 0 −6 −5   0 1 0 0 1 
∼
 0
∼ 
0 1 15 16   0 0 1 0 1 
0 0 0 −148 −148 0 0 0 1 1
 
1
 1 
We zien, het stelsel is consistent en x = 
  is de unieke oplossing.
1 
1

STELLING 2.12. Beschouw het stelsel lineaire vergelijkingen [ A | b ]. Dan geldt:


1. of het stelsel is inconsistent,
2. of het stelsel is consistent.
Als het stelsel consistent is dan:
(a) of het stelsel heeft een unieke oplossing,
(b) of het stelsel heeft oneindig veel oplossingen.

Bewijs: De situaties (a) en (b) komen in het consistente geval overéén met het geval: geen wel
vrije variabelen.

2.3 Stelsels met één of meerdere parameters


Als men inderdaad een stel stelsel zelf heeft opgelost, dan is men hopelijk tot de conclusie gekomen
dat dit wel te doen is. Er staat een vaste procedure voor, en als men die procedure volgt dan lukt
het.
We gaan een stap in moeilijkheidsgraad omhoog door nu stelsels met één of meerdere parameters
erin te bekijken. We zullen volstaan met het bestuderen van twee voorbeelden van zulke stelsels.
Voorbeeld 2.13. Beschouw het volgende stelsel vergelijkingen in de onbekenden x1 , x2 en x3 met
parameter k ∈ R: 
 x1 + x2 + x3 = 1
x1 + 2x2 + kx3 = 2

2x1 + 4x2 + 2kx3 = −1 + k
Vraag.
(1) Schrijf de aangevulde matrix van dit stelsel op en veeg het stelsel naar een stelsel in echelonvorm.
(2) Voor welke k heeft dit stelsel oneindig veel oplossingen?
(3) Geef de oplossing van het stelsel als k = 5.
Antwoord.
(1)Vegen
 van dit stelsel naar
 echelonvorm geeft bijvoorbeeld:

1 1 1 1 1 1 1 1
 1 2 k 2 ∽ 0 1 k−1 1  (Ga zelf maar na).
2 4 2k −1 + k 0 0 0 k−5
(2) Aan de echelonvorm zien we dat het stelsel alleen consistent is als k = 5. En dan zijn er ook
oneindig veel oplossingen. Dus antwoord isk = 5. 
1 1 1 1 1 0 −3 0
(3) k = 5 levert stelsel  0 1 4 1  ∼  0 1 4 1 
0 0 0 0 0 0 0 0
2.3. Stelsels met één of meerdere parameters 23

       
x1 3x3 0 3
En dus: x =  x2  =  1 − 4x3  =  1  + x3  −4 .
x3 x3 0 1

Voorbeeld 2.14. Gegeven zijn de volgende matrix en vector:


   
−1 a a 1
A =  3 a2 −a  en b =  b  (a, b ∈ R).
3 a2 3 0

Vraag.
(1) Geef alle waarden van a en b waarvoor het stelsel [A|b] consistent is.
(2) Geef alle waarden van a en b waarvoor het stelsel [A|b] een unieke oplossing heeft.
(3) Geef alle waarden van a en b waarvoor het stelsel [A|b] oneindig veel oplossingen heeft.
Antwoord Veeg het stelsel naar een equivalent stelsel met coëfficientenmatrix in echelonvorm.
   
−1 a a 1 ×3 ×3 −1 a a 1
 3 a2 −a b  ↓+ | ∼  0 a2 + 3a 2a b + 3  × − 1 ∼
2
3 a 3 0 ↓+ 0 a2 + 3a 3a + 3 3 ↓+
 
−1 a a 1
∼  0 a2 + 3a 2a 3 + b  .
0 0 3+a −b
Pas op. Dit lijkt misschien echelonvorm voor alle a, echter dat is onjuist. Vul a = 0 maar eens in.
De probleem gevallen bekijken we apart!
We concluderen dat als a2 + 3a 6= 0 en a + 3 6= 0, d.w.z. a 6= 0, −3, het geveegde stelsel in
echelonvorm is en consistent is (ongeacht de waarde van b). (Bovendien is er dan geen vrije
variabele, dus dan is er een unieke oplossing.)
Bekijk nu het geval a2 + 3a = 0, dus a = 0 of a = −3. In deze gevallen moeten we nog doorvegen
naar de echelonvorm!
Het geval a = 0 levert de echelonvorm:
   
−1 0 0 1 −1 0 0 1
 0 0 0 3+b ∼ 0 0 3 −b 
0 0 3 −b 0 0 0 3+b

en deze is alleen consistent als b = −3. Dan zijn er oneindig veel oplossingen.
Invullen van a = −3 levert de echelonvorm
 
−1 −3 −3 1
 0 0 −6 3 + b 
0 0 0 −b

en dit stelsel is alleen consistent als b = 0. Ook dan zijn er oneindig veel oplossingen. Kortom:
(1) Het stelsel is consistent als en slechts als a 6= 0, −3 (ongeacht b) of als (a = 0 en b = −3) of als
(a = −3 en b = 0).
(2) Het stelsel heeft een unieke oplossing als a 6= 0, −3 (ongeacht b).
(3) Het stelsel heeft oneindig veel oplossingen als (a = 0 en b = −3) of als (a = −3 en b = 0).

Opmerking. Maak niet de fout om bij een stelsel van het volgende type:
 
a 1 1 2
1 0 1 0
24 College 2, Stelsels lineaire vergelijkingen II

de volgende veegstap te maken.


 
a 1 1 2 × − 1/a
1 0 1 0 ↓+

Dit werkt alleen als a 6= 0, en het geval a = 0 moet men dan apart bekijken. Handiger is de
vergelijken te verwisselen en te vegen via:
 
1 0 1 0 ×−a
a 1 1 2 ↓+
College 3, Stelsels lineaire
vergelijkingen III

3.1 Vectorvergelijking, matrixvergelijking Ax = b en homo-


gene vergelijkingen

We introduceren een korte schrijfwijze van een lineair stelsel.

Definitie: Als a1 , . . . , an vectoren in Rm zijn, dan noemen we de uitdrukking

c1 a1 + c2 a2 + · · · + cn an

een lineaire combinatie van de vectoren a1 , . . . , an (met gewichten c1 , . . . , cn ).


Bovendien noteren we deze uitdrukking als het zogeheten “matrix-vector pro-
duct” Ax:  
x1
x1 a1 + x2 a2 + · · · + xn an = [ a1 . . . an ]  ...  = Ax
 

xn
Tenslotte: een vergelijking van het type:

x1 a1 + x2 a2 + · · · + xn an = b

heet een “vectorvergelijking”.

 
1 2 3  
 −1 1
2 −3 
 en x =  −2  dan: Ax =
Voorbeeld 3.1. Laat A = 
 1 1 1 
3
0 1 0

         
1 2 3   1 2 3 6
 −1 1
2 −3 
  −2  = 1  −1  − 2 
  
 + 3  −3  =  −14  .
2     
=

1 1 1   1   1   1   2 
3
0 1 0 0 1 0 −2

25
26 College 3, Stelsels lineaire vergelijkingen III

De vergelijking        
1 2 3 6
 −1  2 
 + x3  −3  =  −14 
    
x1 
 1  + x2 
 
1   1   2 
0 1 0 −2
   
x1 1
is een voorbeeld van een vectorvergelijking en hierboven staat dat x =  x2  =  −2  een
x3 3
oplossing van deze vectorvergelijking is.

Rekenregels matrixvectorproduct
Als A een m × n matrix en x, y ∈ Rn en c ∈ R, dan geldt:
1. A(x + y) = Ax + Ay,
2. A(cx) = c(Ax).

Bewijs: Rechtstreeks invullen.

STELLING 3.2. Laat A = [ a1 . . . an ] een m × n matrix zijn met kolommen ai ∈ Rm . Als


b ∈ Rm , dan geldt:
De oplossingsverzameling van het lineaire stelsel met aangevulde matrix

[ a1 . . . an | b ]

is hetzelfde als de verzameling van alle x ∈ Rn die voldoen aan de vectorvergelijking:

x1 a1 + x2 a2 + · · · + xn an = b

en dit is weer gelijk aan de oplossingsverzameling van de matrixvergelijking:

Ax = b.

Bewijs: Als we schrijven [ai ]j = ai,j en [b]j = bj (voor j = 1 . . . m) dan wordt het lineaire stelsel
met aangevulde matrix [ a1 . . . an | b ] het stelsel:


 a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1

 a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2
.. .. .. ..


 . . . .

am,1 x1 + am,2 x2 + . . . + am,n xn = bm
wat te herschrijven is als
       
a1,1 a1,2 ... a1,n b1
 a2,1   a2,2  . . .  a2,n   b2 
       
x1  .  + x2  ..  + .. + xn  .. = .. .
 ..   .  .  .   . 
am,1 am,2 ... am,n bm
Dus inderdaad, dit wordt de vectorvergelijking x1 a1 + x2 a2 + · · · + xn an = b wat herschreven kan
worden als Ax = b. De rest is duidelijk.
3.2. De unitaire ruimte Cn en complexe lineaire stelsels 27

Opmerking: Vanaf nu zullen we spreken van een “lineaire vergelijking Ax = b”.

Een systeem lineaire vergelijkingen heet homogeen als het van de vorm is:

Ax = 0.

(Hier is A een m×n matrix en 0 ∈ Rm .) Een homogene vergelijking is consistent, want x = 0 ∈ Rn


is een overduidelijke oplossing van dit stelsel, de zogeheten trivale oplossing. Eventuele andere
oplossingen worden niet–triviale oplossingen genoemd.
Merk op: het homogene lineaire stelsel Ax = 0 heeft een niet triviale oplossing als en slechts als
er een vrije variabele is.
Tenslotte:

STELLING 3.3. Stel dat Ax = b een consistent lineair stelsel is, zeg met “particuliere
oplossing” x0 . Als vh de oplossing is van het bijbehorende homogene stelsel Ax = 0, dan
geldt:
x = x0 + vh
is de algemene oplossing van het stelsel Ax = b.

Bewijs: In de eerste plaats: x = x0 + vh bestaat uit oplossingen van het stelsel Ax = b, want

Ax = A(x0 + vh ) = Ax0 + Avh = b + 0 = b.

Bovendien bestaat dit uit alle oplossingen van het stelsel Ax = b, want als x1 een oplossing is van
Ax = b, dan is x1 − x0 een oplossing is van het bijbehorende homogene stelsel Ax = 0.
Inderdaad, A(x1 − x0 ) = Ax1 − Ax0 = b − b = 0.
Als x1 − x0 = vh1 , dan x = x0 + vh1 ∈ x0 + vh .

3.2 De unitaire ruimte Cn en complexe lineaire stelsels


Net als Rn uit alle reële n × 1 matrices bestaat, zalCn bestaan
 uit alle complexe n × 1 matrices.
z1
C n heet “de unitaire ruimte” en we schrijven z =  ...  ∈ Cn .
 

zn
Ook op Cn definiëren we een optelling en een scalaire vermenigvuldiging (een lineaire structuur)
via: als: z, w ∈ Cn en c ∈ C, zeg:
       
z1 w1 z1 + w1 cz1
z =  ...  en w =  ..  dan z + w =  ..
     . 
.   .  en cz =  .. 
zn wn zn + wn czn

Met deze optelling en (complexe) scalaire vermenigvuldiging blijkt Cn een zogeheten (complexe)
vectorruimte te zijn. Daarmee bedoelen we te zeggen dat Cn aan precies dezelfde rekenregels 1-8
als die van Rn voldoet, zie Stelling 1.6, met dat verschil dat nu de scalairen complex mogen zijn.
28 College 3, Stelsels lineaire vergelijkingen III

STELLING 3.4. De optelling + voegt aan ieder tweetal z, w ∈ Cn en aan iedere scalair
c ∈ C een vector z + w ∈ Cn en cz ∈ Cn toe, die voldoet aan de volgende 8 rekenregels.
1. z + w = w + z. ( commutatieve eigenschap)
2. (z + w) + v = z + (w + v). ( associatieve eigenschap)
3. Er is een nulvector 0 met de eigenschap z + 0 = 0 + z = z.
4. Voor elke z bestaat een tegengestelde −z zo dat z + (−z) = 0.
5. c(z + w) = cz + cw. ( distributieve eigenschap 1)
6. (c + d)z = cz + dz. ( distributieve eigenschap 2)
7. c(dz) = (cd)z.
8. 1z = z.

 
1 − 2i
We kunnen weer spreken van linaire combinaties in Cn , bijvoorbeeld, als z =  i  en
  5
1−i
w =  1 + i  dan is
0
     
1 − 2i 1−i 6 − 3i
(1 + 2i)  i  + (2 − i)  1 + i  =  1 + 2i  (ga na)
5 0 5 + 10i
een lineaire combinatie van z en w met gewichten 1 + 2i en 2 − i.
We merken nog op dat de standaard eenheidsvectoren e1 , e2 , . . . , en ook vectoren in Cn zijn
(zoals alle vectoren in Rn ), en dat iedere vector z ∈ Cn een lineaire combinatie is van de vectoren
e1 , e2 , . . . , en .  
z1
Inderdaad, als z =  ...  ∈ Cn dan z = z1 e1 + · · · + zn en .
 

zn
De basis vraag: “is een gegeven vector b ∈ Cn een lineaire combinatie van gegeven vectoren
z1 , . . . , zk ”, leidt net als Rn , tot stelsels lineaire vergelijkingen. Het enige verschil is dat de kentallen
van de aangevulde matrix complexe getallen kunnen zijn en dat eventuele vrije variabelen complex
zullen zijn. Vegen met complexe getallen vereist aanzienlijke hogere rekenvaardigheden dan in het
reële geval, hoewel het doel (vegen naar gereduceerde echelonvorm) hetzelfde is.
Voorbeeld 3.5. Beschouw het volgende lineaire stelsel over C:

z1 + iz2 − (1 − i)z3 = 1
(1 − i)z1 − 2z2 + 12iz3 = 0
Dit geeft de volgende aangevulde matrix, waarbij de eerste stap geen probleem is.
   
1 i −1 + i 1 × −1 + i 1 i −1 + i 1

1 − i −2 12i 0 ↓+ 0 −3 − i 10i −1 + i
De volgende pivot is −3 − i. Aangezien vegen met reële pivots toch wel wat makkeli jker is, verme-
nigvuldigen we de tweede vergelijking eerst met −3 + i, de geconjugeerde van −3 − i. (Herinner:
zz = |z|2 ∈ R!)
3.3. Lineaire opspanning en het opspannen van Rn 29

   
1 i −1 + i 1 1 i −1 + i 1
∼ ∼
0 −3 − i 10i −1 + i
×−3+i 0 10 −10 − 30i 2 − 4i
×1/10
   
1 i −1 + i 1 ↑+ 1 0 −4 + 2i 14/10 − 2/10i

0 1 −1 − 3i 2/10 − 4/10i × −i 0 1 −1 − 3i 2/10 − 4/10i
Dus de oplossing wordt:     
14/10 − 2/10i − (−4 + 2i)z3 14/10 − 2/10i 4 − 2i
z =  −4/10 + 2/10i − (−1 − 3i)z3  =  −4/10 + 2/10i  + z3  1 + 3i 
z3 0 1

Opmerking: Bij lineaire algebra deel 2 wordt de complexe lineaire algebra echt besproken.

3.3 Lineaire opspanning en het opspannen van Rn


De lineaire algebra is een tak van de wiskunde dat zijn “eigen taal” spreekt. Alles is geformuleerd
in die taal, zowel de vragen als de antwoorden. We beginnen met de volgende terminologie.
We noemen een geordende verzameling van een eindig stel (niet noodzakelijk verschillende) vec-
toren v1 , v2 , . . . , vk uit Rn een stelsel vectoren. Als de volgorde van de vectoren van belang is,
wordt dit stelsel vectoren genoteerd als

(v1 , v2 , . . . , vk ),

Als de volgorde niet van belang is, kan het stelsel ook genoteerd worden met de verzameling notatie

{v1 , v2 , . . . , vk }.

We benadrukken nog eens dat in een stelsel vectoren eventueel twee of meer gelijke vectoren kunnen
voorkomen. We herhalen:
Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn is en als c1 , c2 , . . . , ck scalairen in R zijn, dan wordt
de vector van de vorm
c1 v1 + c2 v2 + · · · + ck vk
een lineaire combinatie van het stelsel genoemd. De getallen c1 , c2 , . . . , ck heten de gewichten van
de lineaire combinatie.
We weten inmiddels hoe we moeten nagaan of een gegeven vector b al dan niet een lineaire
combinatie van een gegeven stel vectoren is.

Definitie: Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn is dan heet de verzameling U van
alle lineaire combinaties van dit stelsel het
“lineaire omhulsel van (v1 . . . , vk )”
(of ook de “lineaire opspanning van (v1 , . . . , vk )”) (of kortweg “de opspannig van (v1 , . . . , vk )”).
De verzameling U wordt genoteerd met:

U = Span(v1 , . . . , vk ) of U = Span{v1 , . . . , vk }.

We zeggen dat het stelsel (v1 , v2 , . . . , vk ) de verzameling U voortbrengt of opspant .

In Stelling 3.2 hebben we geleerd de volgende basisvraag te beantwoorden.


30 College 3, Stelsels lineaire vergelijkingen III

Voorbeeld 3.6.  Basisvraag.



2
Is de vector v =  −2  een lineaire combinatie van het stelsel vectoren
−1
     
 1 2 5 
 0  ,  −3  ,  −4  ?
 
−1 1 0
Aan de hand van bovenstaande definitie zie we nu in dat deze vraag equivalent is met de vraag:


      
2  1 2 5 
geldt:  −2  ∈ Span  0  ,  −3  ,  −4  ?
 
−1 −1 1 0

en dus is de methode om de eerste vraag te beantwoorden, dezelfde als de methode voor de tweede
vraag.
Kennelijk moeten we kijken of er c1 , c2 en c3 bestaan zodat

       
1 2 5 2
c1  0  + c2  −3  + c3  −4  =  −2  .
−1 1 0 −1

Volgens Stelling 3.2 is dit equivalent met de consistentie van het stelsel

 
1 2 5 2
 0 −3 −4 −2  .
−1 1 0 −1

Omdat
   
1 2 5 2 1 2 5 2
 0 −3 −4 −2  ∼  0 −3 −4 −2 
−1 1 0 −1 0 0 1 −1

is dit stelsel consistent en dus: ja, v is een lineaire combinatie van deze vectoren.
       
1 2 5 2
Ga na dat geldt: 3  0  + 2  −3  −  −4  =  −2  en dus:
−1 1 0 −1

       
2  1 2 5 
 −2  ∈ Span  0  ,  −3  ,  −4  !
 
−1 −1 1 0

Via Stelling 3.2 en bovenstaand voorbeeld komen we tot de volgende uitbreiding van Stelling 3.2.
3.3. Lineaire opspanning en het opspannen van Rn 31

STELLING 3.7. Laat A = [ a1 . . . an ] een m × n matrix zijn met kolommen ai ∈ Rm en zij


b ∈ Rm . Dan geldt dat de volgende uitspraken equivalent zijn:
1. b is een lineaire combinatie van de vectoren {a1 , . . . , an },
2. b ∈ Span{a1 , . . . , an },
3. de vectorvergelijking: x1 a1 + x2 a2 + · · · + xn an = b is consistent,
4. het lineaire stelsel met aangevulde matrix [ a1 . . . an | b ] is consistent,
5. de matrixvergelijking Ax = b is consistent,
6. Span{a1 , . . . , an } = Span{a1 , . . . , an , b}.

Bewijs: Het zal duidelijk zijn dat de uitspraken 1. tot en met 5. equivalent zijn.
Daarom: 6. ⇒ 1.. Stel dat Span{a1 , . . . , an } = Span{a1 , . . . , an , b}. Omdat b ∈ Span{a1 , . . . , an , b}
volgt b ∈ Span{a1 , . . . , an }. Dit is uitspraak 2. en dus volgt 1.
Omgekeerd, 1. ⇒ 6.. Stel dat b = c1 a1 + · · · + cn an .
Altijd zal gelden: Span{a1 , . . . , an } ⊂ Span{a1 , . . . , an , b}, maar nu zal ook gelden Span{a1 , . . . , an , b} ⊂
Span{a1 , . . . , an }. Want als x ∈ Span{a1 , . . . , an , b}, zeg

x = x1 a1 + · · · + xn an + xn+1 b

dan volgt: x = x1 a1 +· · ·+xn an +xn+1 (c1 a1 +· · ·+cn an ) = (x1 +c1 xn+1 )a1 +· · ·+(xn +cn xn+1 )an
en dus x ∈ Span{a1 , . . . , an }.
We concluderen: Span{a1 , . . . , an } = Span{a1 , . . . , an , b}.

Het is van belang een gevoel te ontwikkelen voor het begrip “lineaire opspanning”. Dit zal met
name in R2 en R3 moeten gebeuren, want bij de ruimte R4 etc. kunnen we ons meetkundig weinig
tot niets voorstellen.
   
1 2
Voorbeeld 3.8. Beschouw de twee vectoren v1 =  1  en v2 =  −3  in R3 .
1 1
Vraag: Beschrijf Span{v1 , v2 }.      
 1 2 
Antwoord: Omdat Span{v1 } = c1  1  + c2  −3  : c1 , c2 ∈ R zien we ei-
 
1 1
   
1 2
genlijk de parametervoorstelling c1  1  +c2  −3  van een vlak door de oorsprong te voorschijn
1 1
komen. (Want v1 en v2 zijn geen scalaire veelvouden van elkaar.) Dat vlak is de opspanning van
die twee vectoren.
     
1 2 1
Voorbeeld 3.9. Beschouw de drie vectoren v1 =  1 , v2 =  −3  en v3 =  6  in R3 .
1 1 3
Vraag: Beschrijf Span{v1 , v2 , v3
}.       
 1 2 1 
Antwoord: Span{v1 , v2 , v3 } = c1  1  + c2  −3  + c3  6  : c1 , c2 , c3 ∈ R herkennen
 
1 1 3
32 College 3, Stelsels lineaire vergelijkingen III

we in eerste instantie nog niet. We zien wel dat


voor iedere vaste c3 er de parametervoorstelling
 
1 2
v3
van het vlak c1  1  + c2  −3  staat, maar
1 1
 
1
dan verschoven over de steunvector c3  6 .
3 v2
  c3 v3
1
v1
Merk op dat de lijn c3  6  en het vlak
    3
1 2
c1  1  + c2  −3  alleen de oorsprong gemeen
1 1
hebben (ga na!).
Het zal duidelijk zijn dat als we nu c3 ook laten variëren de hele ruimte R3 wordt “volgeschoven”,
dat wil zeggen: Span{v1 , v2 , v3 } = R3 . (Of te wel: de vectoren v1 , v2 , v3 spannen R3 op.)
     
1 2 3
Voorbeeld 3.10. Beschouw de drie vectoren v1 =  1 , v2 =  −3  en v3 =  −2  in R3 .
1 1 2
Vraag: Beschrijf Span{v1 , v2 , v3
}.       
 1 2 3 
Antwoord: Span{v1 , v2 , v3 } = c1  1  + c2  −3  + c3  −2  : c1 , c2 , c3 ∈ R herkennen
 
1 1 2
we ook hier nog niet.
 Weer  geldt dat iedere voor vaste c3 er de parameter  voorstelling
 van het
1 2 3
vlak c1  1  + c2  −3  staat, maar verschoven over de steunvector c3  −2 . Maar hier geldt
1 1 2
     
3 1 2
dat: v3 = v1 + v2 en dus ligt de lijn c3  −2  binnen het vlak c1  1  + c2  −3 , d.w.z de
2 1 1
verschuiving over de vector c3 v3 is een verschuiving van het vlak binnen het vlak! Kortom:

Span{v1 , v2 , v3 } = Span{v1 , v2 }

en dus geldt hier dat Span{v1 , v2 , v3 } een vlak is. (En hier spannen de vectoren v1 , v2 , v3 spannen
R3 dus niet op.)

We hebben ingezien dat het mogelijk is voor een stel vectoren in R3 de hele ruimte R3 als lineaire
opspanning te hebben.
We introduceren de volgende terminologie.

Definitie: Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn zijn. We zeggen dat dit stelsel
vectoren de hele ruimte Rn opspant als Span{v1 , . . . , vk } = Rn

Hoe kunnen we in het algemeen nagaan of de vectoren {a1 , . . . , ak } uit Rm de ruimte Rm opspan-
nen? Het meetkundig inzicht uit R3 helpt niet in Rn .
3.3. Lineaire opspanning en het opspannen van Rn 33

      
1 1 1 3
 2   1   1   4 
Voorbeeld 3.11. Ga na of de vectoren a1 =   1 , a2 =  2 , a3 =  1  en a4 =  4 
      

1 1 2 4
4
heel R opspannen.
Antwoord Zal het ons lukken om een b ∈ R4 te vinden met b ∈ / Span{a1 , a2 , a3 , a4 }? We proberen
het. Dus gezocht, b ∈ R4 zo dat het stelsel [ a1 a2 a3 a4 |b ] inconsistent is. Omdat geldt (ga na):
   
1 1 1 3 b1 1 1 1 3 b1
 2 1 1 4 b2   0 −1 −1 2 b2 − 2b1 
 1 2 1 4 b3  ∼  0
   
0 −1 −1 b3 + b2 − 3b1 
1 1 2 4 b4 0 0 0 0 b4 + b3 + b2 − 4b1
zien we dat het stelsel
 inconsistent
 is als en slechts als b4 + b3 + b2 − 4b1 6= 0. Dit is het geval als
1
 1 
bijvoorbeeld: b =  1 . Dus voor deze b geldt: b ∈
 / Span{a1 , a2 , a3 , a4 } en we concluderen dat
1
de vier vectoren a1 , a2 , a3 , a4 de ruimte R4 niet opspannen.

De oorzaak van het feit dat de vectoren a1 , a2 , a3 , a4 de ruimte R4 niet opspannen ligt in het feit
dat na vegen van de matrix [ a1 a2 a3 a4 ] een nulrij ontstaat (waardoor we een inconsistent stelsel
kunnen creëren). We concluderen:

STELLING 3.12. Laat A = [ a1 . . . an ] een m × n matrix zijn met kolommen ai ∈ Rm .


Equivalent zijn:
1. de vectoren a1 , . . . , an spannen Rm op,
2. Span{a1 , . . . , an } = Rm ,
3. voor iedere b ∈ Rm is het lineaire stelsel [ a1 . . . an | b ] consistent,
4. voor iedere b ∈ Rm heeft de matrix vergelijking Ax = b een oplossing,
5. een (iedere) echelonvorm van de matrix A bevat geen nulrij,
6. iedere rij van A bevat een pivotpisotie,
7. de kolommen van een (iedere) echelonvorm van de matrix A spannen Rm op,
8. de m × n matrix A heeft m pivot kolommen.

We verkrijgen bovendien het belangrijke en misschien verassende gevolg:

STELLING 3.13. Voor de ruimte Rm geldt: minder dan m vectoren spannen de ruimte
Rm niet op.

Bewijs: Neem k vectoren a1 , . . . , ak in Rm met k < m. Bekijk de m × k matrix A = [ a1 · · · ak ]


met k kolommen. Omdat deze matrix k kolommen heeft, zal A tenhoogste k pivotkolommen
34 College 3, Stelsels lineaire vergelijkingen III

hebben, dus minder dan m. Bovenstaande stelling zegt de kolommen van A de ruimte Rm niet
zullen opspannen.
College 4, Afhankelijkheid stelsels
vectoren

4.1 Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid


en onafhankelijkheid
We beginnen met het volgende begrip:

Definitie: Stel dat (v1 , · · · , vk ) een stelsel vectoren in Rn is. Een afhankelijk-
heidsrelatie van dit stelsel (of: tussen de vectoren v1 , · · · , vk ) is een relatie

c1 v1 + · · · + ck vk = 0

waarbij niet alle ci gelijk zijn aan nul.

De eis dat niet alle ci gelijk aan nul mogen zijn, is omdat altijd geldt:
0v1 + · · · + 0vk = 0
en zonder deze eis zou er tussen ieder stel vectoren een afhankelijkheidsrelatie bestaan. Dat willen
we niet.
     
1 1 1
Voorbeeld 4.1. Beschouw de vectoren v1 =  −1 , v2 =  −2  en v3 =  −4 . Tussen
2 1 −1
deze vectoren bestaat een afhankelijkheidsrelatie, want toevallig zien we:
2v1 − 3v2 + v3 = 0.
Een voorbeeld van een stelsel vectoren waartussen geen afhankelijkheidsrelatie bestaat? Wellicht
is het simpelste voorbeeld het stelsel (e1 , . . . , en ), de standaard eenheidsvectoren in Rn .

Merk op dat er een verbinding/relatie bestaat tussen het begrip afhankelijkheidsrelatie en het
begrip lineaire combinatie tussen vectoren (v1 , . . . , vp ), in de volgende zin. (We nemen p = 4.)
1. Als v4 een lineaire combinatie is van v1 , v2 , v3 , zeg
v4 = −2v1 + v2 + 5v3
dan is er een afhankelijkheidsrelatie tussen de vectoren (v1 , v2 , v3 , v4 ), namelijk:
−2v1 + v2 + 5v3 − v4 = 0.

35
36 College 4, Afhankelijkheid stelsels vectoren

2. Als er een afhankelijkheidsrelatie bestaat tussen het stelsel vectoren (v1 , v2 , v3 , v4 ), zeg bij-
voorbeeld:
2v1 + 0v2 − v3 + 4v4 = 0

Dan:

(a) v1 is een lineaire combinatie van v2 , v3 , v4 , want: v1 = 0v2 + 21 v3 − 2v4 .


(b) v3 is een lineaire combinatie van v1 , v2 , v4 , want: v3 = 2v1 + 0v2 + 4v4 .
(c) v4 is een lineaire combinatie van v1 , v2 , v3 , want: v4 = − 21 v1 + 0v2 + 14 v3 .
(d) Over v2 valt niets te zeggen.

Op dezelfde manier toont men aan:

STELLING 4.2. Stel dat (v1 , . . . , vp ) een stelsel vectoren in Rn is. Dan geldt: “er bestaat
een afhankelijkheidsrelatie tussen de vectoren van het stelsel (v1 , . . . , vp ) als en slechts als
tenminste één van de vectoren van dit stelsel een lineaire combinatie is van de overige vectoren
uit dit stelsel.”

Definitie: Het stelsel vectoren (v1 , . . . , vp ) heet afhankelijk (of: de vectoren v1 , . . . , vp zijn
afhankelijk) als er een afhankelijkheidsrelatie tussen de vectoren uit het stelsel (v1 , . . . , vp )
bestaat.
Het stelsel vectoren (v1 , . . . , vp ) heet onafhankelijk als het niet afhankelijk is.

Voorbeeld 4.3. De vectoren v1 , v2 , v3 uit Voorbeeld 4.1 zijn afhankelijk: 2v1 − 3v2 + v3 = 0.
Een voorbeeld van een onafhankelijk stel vectoren is bijvoorbeeld het stelsel (e1 , . . . , en ) van stan-
daard eenheidsvectoren in Rn

Een (wellicht vervelend) kenmerk van de lineaire algebra is, dat één vraag op vele manieren gesteld
kan worden. Bijvoorbeeld: de volgende vragen vertegenwoordigen alle dezelfde vraag.

1. Is er een afhankelijkheidsrelaties tussen de vectoren in het stelsel (v1 , . . . , vp )?

2. Is één van de vectoren uit het stelsel (v1 , . . . , vp ) een lineaire combinatie van de overigen
vectoren?

3. Is het stelsel (v1 , . . . , vp ) afhankelijk?

4. Zijn de vectoren v1 . . . vp afhankelijk?

Hoe zijn afhankelijkheidsrelaties te vinden tussen vectoren? Dit wordt duidelijk via de volgende
stelling.
4.1. Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid en onafhankelijkheid 37

STELLING 4.4. Stel dat (a1 , · · · , ak ) een stelsel vectoren in Rn is. Schrijf A = [ a1 . . . ak ].
Dan geldt: De relatie c1 a1 + · · · + ck ak = 0 is een afhankelijkheidsrelaties tussen de vectoren
c1
 .. 
a1 , . . . , ak als en slechts als de vector x =  .  een niet triviale oplossing is van de homogene
ck
matrixvergelijking Ax = 0.

Omdat we de oplossing van de matrixvergelijking Ax = 0 verkrijgen door A te vegen, verkrijgen


we:

STELLING 4.5. Stel dat de matrix A = [ a1 · · · ak ] via elementaire rijbewerkingen geveegd


wordt naar de de matrix B = [ b1 · · · bk ]. Dan geldt:
“iedere afhankelijkheidsrelatie c1 a1 + · · ·+ ck ak = 0 tussen de kolommen van de matrix A geldt
ook tussen de kolommen van B, dus ook: c1 b1 + · · · + ck bk = 0”.
Het omgekeerde geldt ook: iedere afhankelijkheidsrelatie tussen de kolommen van de matrix B
geldt ook tussen de kolommen van A.

Voorbeeld 4.6. In Voorbeeld 2.6 is de matrix A = [ a1 · · · a7 ] naar gereduceerde echelonvorm C


geveegd.
   
0 0 3 −6 6 4 −5 0 1 0 −2 3 0 −24
 0 3 −7 8 −5 8 9   0 0 1 −2 2 0 −7 
A=  0 3
 = [ a1 · · · a7 ] ∼  
−9 12 −9 6 15   0 0 0 0 0 1 4 
0 1 −2 2 −1 −1 −14 0 0 0 0 0 0 0

In de matrix C in gereduceerde echelonvorm is het makkelijk de niet-pivotkolommen te schrijven


als lineaire combinatie van voorafgaande pivotkolommen. Bijvoorbeeld:

1. c4 is een lineaire combinatie van c2 , c3 (c4 = −2c2 − 2c3 ), en dus geldt ook: a4 = −2a2 − 2a3 !
2. c5 is een lineaire combinatie van c2 , c3 (c5 = 3c2 + 2c3 ) en dus geldt ook: a5 = 3a2 + 2a3 !
3. c7 is een lineaire combinatie van c2 , c3 , c6 , (c7 = −24c2 − 7c3 + 4c6 ), en dus geldt ook:
a7 = −24a2 − 7a3 + 4a6 !

We zien dat iedere niet pivotkolom van A een lineaire combinatie is van de pivotkolommen A. Ook
zien we dat de pivotkolommen
  van A lineair onafhankelijk zijn, want hetzelfde veegschema veegt
1 0 0
[ a2 a3 a6 ] naar  0 1 0 . (Het is duidelijk dat er bij de geveegde matrix geen afhankelijk-
0 0 1
heidsrelatie tussen de kolmmen is).

We zien: als de matrix A naar gereduceerde echelon vorm wordt geveegd tot een matrix C, dan
kunnen we de matrix C beschouwen als een soort “agenda” die bijhoudt of en hoe iedere kolom
van A zit in het Span van de voorafgaande pivotkolom
men.
Hiermede hebben we een effectieve procedure gevonden om na te gaan of een stelsel vectoren
afhankelijk dan wel onafhankelijk is.
38 College 4, Afhankelijkheid stelsels vectoren

      
1 1 2 0
 1   2   3   −1 
Voorbeeld 4.7. Beschouw de vectoren a1 =   −1 , a2 =  1 , a3 =  0 , a4 =  −2  en
      

−1 1 0 −2
 
1
 1 
a5 = 
  en we stellen de vraag: is het stelsel {a1 , a2 , a3 , a4 , a5 } afhankelijk of onafhankelijk?
1 
1

Beschouw daartoe de kolommatrix A = [ a1 . . . a5 ] en veeg deze naar gereduceerde echelonvorm


matrix C = [ c1 . . . c5 ] dan krijgen we (ga na):

   
1 1 2 0 1 1 0 1 1 0
 1 2 3 −1 1   0 1 1 −1 0 
A=
 −1
∼ =C
1 0 −2 1   0 0 0 0 1 
−1 1 0 −2 1 0 0 0 0 0

We lezen via C af: a3 = a1 + a2 , a4 = a1 − a2 en daarom is het stelsel afhankelijk.

We hebben aangetoond:

STELLING 4.8. Gegeven is een stelsel vectoren (a1 . . . ak ) in Rn . Beschouw de kolomma-


trix A = [ a1 . . . ak ] en veeg deze naar gereduceerde echelonvorm, zeg naar C = [ c1 . . . ck ].
Equivalent zijn:
1. Het stelsel (a1 . . . ak ) is onafhankelijk.
2. Het stelsel (c1 . . . ck ) is onafhankelijk.
3. De matrixvergelijking Ax = 0 heeft geen niet–triviale oplossingen.
4. Alle kolommen van A zijn pivot kolommen.
5. De n × k matrix A heeft k pivotposities.
6. De gereduceerde echelonvorm C van A bestaat uit louter standaard eenheids vectoren van
Rn .

We verkrijgen direct het volgende gevolg dat zo belangrijk is dat we het een stelling noemen.

STELLING 4.9. Meer dan n vectoren in Rn zijn afhankelijk!


4.2. Matrix Operaties 39

4.2 Matrix Operaties


Als A een m × n matrix is, d.w.z. een matrix met m rijen en n kolommen, dan wordt het (i, j)de
kental aangegeven met ai,j of [A]i,j . Zoals we weten noteren we de matrix met:
 
a1,1 · · · a1,j · · · a1,n
 .. .. .. 
 . . . 
 
A =  ai,1 · · · ai,j · · · ai,n 


 . .. .. 
 .. . . 
am,1 · · · am,j · · · am,n

De kolommen van A zijn n vectoren in Rm en deze worden genoteerd met a1 , . . . , an . De rijen van
A zijn m punten in Rn en we noteren deze met A1 , . . . , Am . We noteren:
 
A1
 A2 
 
A = [ a1 a2 . . . an ] =  .. 
 . 
Am

Sommige typen matrices komen steeds weer terug en en we geven hier een overzicht.

Definitie: Een m × n matrix A heet:


1. een nulmatrix als ai,j = 0, voor alle i, j. Notatie: 0 of 0m×n .
2. vierkant, als m = n.
Een vierkante matrix A heet:
1. een bovendriehoeksmatrix als ai,j = 0, voor alle i, j met i > j. Notatie: U of Un .
2. een onderdriehoeksmatrix als ai,j = 0, voor alle i, j met i < j. Notatie: L of Ln .
3. een diagonaalmatrix als ai,j = 0, voor alle i, j met i 6= j. Notatie: D of Dn .
4. een eenheidsmatrix als ai,j = 0, voor alle i, j met i 6= j en ai,i = 1, voor alle i. Notatie: I
of In .
5. symmetrisch als ai,j = aj,i , voor alle i, j. Notatie: S of Sn .
6. scheef-symmetrisch als ai,j = −aj,i , voor alle i, j. Notatie: S of S n .

De kentallen a1,1 , a2,2 , . . . , an,n van een vierkante matrix A = [ai,j ] vormen een diagonaal van de
matrix, geheten de hoofddiagonaal of kortweg de diagonaal.

Optellen en scalaire vermenigvuldiging


Als A en B twee m × n matrices zijn dan wordt de som A + B gedefinieerd als de m × n matrix
met
[A + B]i,j = [A]i,j + [B]i,j
Merk op dat de som van de matrices A en B alleen gedefinieerd is als A en B dezelfde afmetingen
hebben.
Als c ∈ R een scalair is en A een m × n matrix dan wordt het scalaire product cA gedefinieerd
als de m × n matrix met
[cA]i,j = c[A]i,j
40 College 4, Afhankelijkheid stelsels vectoren

Tenslotte wordt −A gedefinieerd door −A = (−1)A. Voor de optelling en de scalaire vermenigvul-


diging van matrices bestaan de volgende rekenregels:
Rekenregels optelling en de scalaire vermenigvuldiging van matrices.
Laat A, B en C m × n matrices zijn en c, d scalairen in R. Dan:

1. A + B = B + A (de commutatieve wet)

2. (A + B) + C = A + (B + C) (de associatieve wet)

3. A + O = A

4. A + (−A) = O

5. c(A + B) = cA + cB (de eerste distributieve wet)

6. (c + d)A = cA + dA (de tweede distributieve wet)

7. c(dA) = (cd)A (een soort associatieve wet)

8. 1A = A

De bewijzen van de rekenregels zijn rechtstreeks uit de definitie.


     
1 2 3 −1 1 2 1 1
Voorbeeld 4.10. Als A = ,B= en C = dan
0 1 −1 1 0 1 −1 5
     
2 4 6 3 −3 −6 5 1 0
2A − 3B = + =
0 2 −2 −3 0 −3 −3 2 −5

en A + C is niet gedefinieerd.

Getransponeerde van een matrix

Definitie: Stel dat A een m × n matrix is. De getransponeerde van de matrix A is die n × m
matrix AT met de eigenschap dat de ide kolom van A de ide rij van AT wordt.

Dus:
[AT ]i,j = [A]j,i .
   
1 2 1 2 0  
Voorbeeld 4.11. Stel dat A = ,B= en C = 1 2 3 . Dan:
3 4  0 2  1  
  1 0 1
1 3
AT = , B T =  2 2  en C T =  2 .
2 4
0 1 3

Rekenregels voor het transponeren:


Laat A, B matrices zijn die afmetingen hebben zodat voor iedere regel de aangegeven formule
bestaat en laat c ∈ R een scalair zijn. Dan:

1. (AT )T = A
4.2. Matrix Operaties 41

2. (A + B)T = AT + B T
3. (cA)T = cAT

De bewijzen zijn rechtstreeks, evenals het bewijs van de volgende stelling.

STELLING 4.12. Laat A een n × n matrix zijn. Dan geldt:

AT = A ⇔ A is symmetrisch.
42 College 4, Afhankelijkheid stelsels vectoren
College 5, Matrix Algebra

5.1 Product van matrices


Wellicht is een voor de hand liggende definitie van een product van twee (m × n) matrices voor
U de zogeheten componentsgewijze definitie, dus [AB]i,j = [A]i,j [B]i,j . Natuurlijk, er is niets dat
ons kan stoppen om dat te doen, toch zullen we dit NIET doen. Bijvoorbeeld, omdat dit product
weinig zinvolle toepassingen blijkt te hebben. Een andere reden is dat we met ons matrixproduct
willen aansluiten bij de definitie van het matrixvectorproduct. Het volgende voorbeeld kan als
motivatie dienen voor het matrix product.

Voorbeeld 5.1. Dit voorbeeld is gebaseerd op het idee dat in een winkel geldt:
“aantal kilo’s nodig × prijs per kilo = totale prijs”
De eerste tabel geeft aan hoeveel kilo aan fruit Joost en Emiel nodig hebben. De tweede tabel
geeft aan wat de prijs per kilo is van het benodigde fruit bij de twee groenteboeren Arie en Ali.

Arie Ali
Appels Peren Sinaasappelen
Appels 2 1.90
Joost 2 10 1
Peren 4 4.50
Emiel 5 1 5
Sinaasappelen 3 2.50

Het lijkt redelijk te zijn te eisen dat voor het product van de matrices zou moeten gelden:
 
  2 1.90
2 10 1
als N (odig) = en P (rijs) =  4 4.50  dat dan :
5 1 5
3 2.50

Prijs Joost bij Arie Prijs Joost bij Ali


NP=
Prijs Emiel bij Arie Prijs Emiel bij Ali
En dus:  
  2 1.90
2 10 1  2 × 2 + 10 × 4 + 1 × 3 2 × 1.90 + 10 × 4.50 + 1 × 2.50
4 4.50  = =
5 1 5 5×2+1×4+5×3 5 × 1.90 + 1 × 4.50 + 5 × 2.50
3 2.50
 
47 51.30
=
29 26.50

Dit idee leidt tot de volgende definitie.

43
44 College 5, Matrix Algebra

Definitie: Als A een m × k matrix is en B eem k × n matrix is, dan wordt het product
C = AB een m × n matrix. Het i, j de kental van dit product wordt berekend via:
k
X
ci,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,k bk,j = ai,ℓ bℓ,j
ℓ=1

Opmerking: 1. Als AB bestaat dan hoeven A en B niet dezelfde afmetingen te hebben, echter,
het aantal kolommen van A moet gelijk zijn aan het aantal rijen van B. (In de situatie als in de
definitie is dit aantal k.)
2. In de formule ci,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,k bk,j doorlopen de kentallen ai,ℓ de i-de rij van
A en de kentallen bℓ,j de j-de kolom van B. We zeggen ook wel:
“het i, j de kental van AB is de ide rij van A maal de j de kolom van B”.
3. Als AB bestaat dan is het aantal rijen van AB gelijk aan het aantal rijen van A, het aantal
kolommen van AB is gelijk aan het aantal kolommen van B.
4. Als A een m×n matrix is en als x ∈ Rn wordt gezien als een n×1 matrix, dan is het matrixvector
product Ax gelijk aan het matrixproduct Ax.

Voorbeeld 5.2. Beschouw de volgende vier matrices:


     
  1 1 1 2 1
A= 1 2 , B= , C= en D = .
−1 2 3 4 3

Vraag: Bepaal alle mogelijke producten van twee matrices.


Antwoord Omdat A een 1 × 2 matrix is, B en C een 2 × 2 matrix en D een 2 × 1 matrix, bestaan
de producten: AB, AC, AD, BB, BC, BD, CB, CC, CD en DA. De producten AA, BA, CA,
DB, DC en DD bestaan niet. We berekenen 6 van de 10 producten. Wat betreft de andere 4
laten we de berekening aan U over.
 
    4 6
AB = −1 5 , AD = 7 , BC =
5 6
     
−1 5 7 1 2
CB = , CD = en DA = .
−1 11 15 3 6

Opmerking: We zien dat de matrix vermenigvuldiging niet voldoet aan de zogeheten commu-
tatieve wet (ab = ba), en om verscheidene redenen. In het vorige voorbeeld zien we:

1. AB 6= BA, want AB is wel en BA is niet gedefinieerd.

2. AD 6= DA, want hoewel AD en DA beide gedefinieerd zijn, hebben deze matrices niet
dezelfde afmetingen.

3. BC = 6 CB, want hoewel BC en CB beide gedefinieerd zijn en dezelfde afmetingen hebben,


zijn het toch verschillende matrices.

De vier zienswijzes van het matrixproduct AB


5.1. Product van matrices 45

 
· · · A1 ···
Voor de m × k matrix A schrijven we: A =  · · · Ai · · ·  en voor de k × n matrix B schrijven
· · · Am ···
 
.. .. ..
 . . . 
 b1 · · · bj · · · bn  = [ b1 · · · bn ].
we: B =  
.. .. ..
. . .
I. De rij-kolom visie van het product.
Deze visie is eigenlijk de definitie van het product. Er geldt (zoals eerder gezegd): “het i, j de
kental van AB is de ide rij Ai van A maal de j de kolom van B”.
Om precies te zijn: Ai bj - als matrixproduct(!) - is gelijk aan i, j de kental van AB.
II. De kolom visie van het product.
De j de -kolom van AB is Abj . Dus:

AB = A [ b1 . . . bj . . . bk ] = [ Ab1 . . . Abj . . . Abk ]

Om precies te zijn: “de j de -kolom van AB is A maal de j de -kolom van B, dus is een lineaire
combinatie van de kolommen van A met gewichten uit de j de -kolom van B”.
Om in te zien dat dit juist is volstaat het om naar het ide kental te kijken (voor i = 1, . . . , m) van
deze j de -kolom van AB.
III. De rij-visie van het product.
De ide -rij van AB is Ai B. Dus:
   
A1 A1 B

 ··· 


 ··· 

Als A = 
 Ai  dan AB = 
  Ai B 

 ···   ··· 
Am Am B

Om precies te zijn: “de ide -rij van AB is de ide -rij van A maal B, dus is een lineaire combinatie
van de rijen van B met gewichten uit ide -rij van A”.
Om in te zien dat dit juist is volstaat het om naar het j de kental te kijken (voor j = 1, . . . , n) van
deze ide -rij van AB.
IV. De kolom-rij expansie van het product.
 
B1
Als A = [ a1 . . . ak ] en B =  · · ·  dan geldt voor het matrixproduct: aℓ Bℓ dat [aℓ Bℓ ]i,j = ai,ℓ bℓ,j
Bk
en dus:
AB = a1 B1 + a2 B2 + · · · + ak Bk

De visies zijn met name handig als men in een groot product slechts één rij of kolom hoeft te weten.
Deze zijn te bepalen zonder het hele product uit te rekenen.
   
1 0 1 1 −1 2 1
Voorbeeld 5.3. Beschouw A =  2 1 1  en B =  1 1 1 1 .
1 0 1 1 2 1 −1
Vraag: Bepaal [AB]2,4 , de derde kolom van AB en de derde rij van AB. Bepaal tenslotte het
46 College 5, Matrix Algebra

product met kolom-rij expansie.  


  1
Antwoord. [AB]2,4 = A2 b4 = 2 1 1  1  = 2 + 1 − 1 = 2.
−1        
2 0 1 3
De derde kolom van AB = Ab3 = 2a1 + 1a2 + 1a3 =  4  +  1  +  1  =  6 .
2 0 1 3
   
De
 derde rij van
 AB = A3 B = 1.B 1 + 0B 2 + 1.B 3 = 1 −1 2 1 + 1 2 1 −1 =
2 1 3 0 .  
1  
Tenslotte. AB = (via kolom-rij expansie) = a1 B1 + a2 B2 + a3 B3 =  2  1 −1 2 1 +
1
       
0   1   1 −1 2 1 0 0 0 0
 1  1 1 1 1 +  1  1 2 1 −1 =  2 −2 4 2  +  1 1 1 1  +
0 1 1 −1 2 1 0 0 0 0
   
1 2 1 −1 2 1 3 0
+  1 2 1 −1  =  4 1 6 2 .
1 2 1 −1 2 1 3 0

Rekenregels voor matrixproduct:


Laat A, B en C matrices afmetingen hebben zodat voor iedere regel de aangegeven formule bestaat
en laat c ∈ R een scalair zijn. Dan:
1. (AB)C = A(BC) (de associatieve wet)
2. A(B + C) = AB + AC (de distributieve wet)
3. (A + B)C = AC + BC (de distributieve wet)
4. c(AB) = (cA)B = A(cB)
en:
Laat A een m × n matrix zijn, ei is de ide kolom van In en Ej is de j de rij van Im . Dan:
1. Im A = A = AIn .

2. Aei is de ide kolom van A.

3. Ej A is de j de rij van A.

Waarschuwing:
1. In het algemeen: AB 6= BA (De commutatieve wet geldt NIET)
2. Als AB = AC en A 6= 0 dan niet noodzakelijk B = C. (Wegstrepen mag niet zomaar.)
3. Als AB = 0 en B 6= 0 dan niet noodzakelijk A = 0.

Opmerking: De schrijfwijze van de scalaire vermenigvuldiging cv (met c ∈ R en v ∈ Rn ) komt


niet overeen met de matrix-product schrijfwijze. Hadden we echter vc geschreven, dan is ook
de scalaire vermenigvuldiging een matrix-product geworden. Soms is het handig deze notatie te
gebruiken.

Machten van een matrix


5.2. Vegen en het matrixproduct, elementaire matrices. 47

Voor vierkante matrices A bestaat AA. Het ligt voor de hand dit aan te duiden met A2 . Evenzo
definieren we voor een k ∈ N:
Ak = A | A{z
. . . A}
k factoren
Vanwege de geldende associatieve wet voor het matrixproduct is dit een zinvolle definitie (leg uit!).
Ook definieren we voor een n × n matrix A:

A0 = In

Rekenregels Als A een vierkante matrix en r, s ∈ N dan:


1. Ar As = Ar+s
2. (Ar )s = Ars .
Rekenregels voor het transponeren:
Laat A, B matrices zijn die afmetingen hebben zodat voor iedere regel de aangegeven formule
bestaat en laat c ∈ R een scalair zijn. Dan:
1. (Ar )T = (AT )r
2. (AB)T = B T AT .
3. (A1 A2 . . . An )T = ATn . . . AT2 AT1 .
De bewijzen zijn rechtstreeks, evenals het bewijs van de volgende stellingen.

STELLING 5.4. Voor iedere m × n matrix A is de matrix AT A symmetrisch.

5.2 Vegen en het matrixproduct, elementaire matrices.


De rest van dit college moet ons doen inzien dat elementaire rijbewerkingen eigenlijk al een vorm
van matrixvermenigvuldiging is.
Om tot dit inzicht te komen definiëren we eerst het begrip “elementaire matrix”.

Definitie: Een elementairy matrix E is een matrix verkregen door één veegstap toe te passen
op de eenheidsmatrix In .

Dus we kunnen meteen een overzicht maken van alle mogelijke elementaire matrices.
De elementaire matrices.
n
1. E(α,i,j) is de matrix verkregen door α maal de i-de rij van de eenheidsmatrix In bij de j-rij
op-te-tellen.
2. E (n,i,j) is de matrix verkregen door in de eenheidsmatrix In de i-de en de j-rij te verwisselen.
n
3. E(α,i) is de matrix verkregen door de i-de rij van de eenheidsmatrix In met α 6= 0 te verme-
nigvuldigen.
48 College 5, Matrix Algebra

Voorbeeld 5.5. Definieer:


     
1 0 0 1 0 0 1 0 0
3
E(−4,1,2) =  −4 1 0  E (3,2,3) =  0 0 3
1  E(−2,3) = 0 1 0 
0 0 1 0 1 0 0 0 −2
 
1 2 1 2
A =  3 −1 1 2 
0 0 2 1
Merk op dat:
    
1 2 1 2 1 2 1 2 ×−4
3
1. E(−4,1,2) A =  −1 −9 −3 −6  =  3 −1 1 2   ↓+ 
0 0 2 1 0 0 2 1
    
1 2 1 2 1 2 1 2
2. E (3,2,3) A =  0 0 2 1  =  3 −1 1 2  ⇐ 
3 −1 1 2 0 0 2 1 ⇐
    
1 2 1 2 1 2 1 2
3
3. E(−2,3) A =  3 −1 1 2  =  3 −1 1 2  
0 0 −4 −2 0 0 2 1 ×−2

Dit voorbeeld illustreert de volgende stelling, die overigens simpel te bewijzen is met behulp van
de rijvisie van het product.

STELLING 5.6. Het resultaat van één elementaire rijoperatie toepassen op een n × r matrix
A is gelijk aan EA, waarbij E de elementaire matrix is die verkregen wordt door dezelfde
elementaire rijoperatie toe te passen op In .
Evenzo, het resultaat van een aantal veegstappen op de matrix A is te schrijven als:

Ek Ek−1 · · · E1 A.
College 6, Inverteerbare matrices

6.1 De inverse matrix


Bij getallen bestaat de inverse operatie die het gemakkelijk maakt vergelijkingen op te lossen.
Bijvoorbeeld:
ax = b ⇒ a−1 (ax) = a−1 b ⇒ (a−1 a)x = a−1 b ⇒ x = a−1 b
(Dit voorbeeld laat al zien dat we bij getallen zonder nadenken de associatieve wet gebruiken. En
meestal zijn we ons nog geen eens bewust dat we deze wet gebruiken.)
We zouden graag een een soortgelijke operatie hebben voor matrices, al is het alleen al om het
stelsel Ax = b op te lossen. Aangezien het matrixproduct niet commutatief is lijkt het dat we in
eerste instantie voorzichtig moeten zijn. De volgende stelling, die op college bewezen wordt, laat
zien dat die voorzictigheid toch niet nodig is.

STELLING 6.1. Laat A een m × n matrix zijn. Als er n × m matrices C en D bestaan


zodat CA = In en AD = Im dan geldt: m = n en C = D.

Daarom definiëren we het begrip inverteerbaar alleen maar voor vierkante matrices (en kunnen het
alleen maar voor vierkante matrices te definiëren).

Definitie: Laat A een n × n matrix zijn. De matrix A heet inverteerbaar, als er een n × n
matrix C bestaat, zodat:
AC = In en CA = In

Laten we eerst opmerken dat de matrix C in bovenstaande definitie uniek is. Inderdaad, laat C1
en C2 twee n × n matrices zijn zodat AC1 = In = C1 A en AC2 = In = C2 A. Dan:

C1 = C1 In = C1 (AC2 ) = (C1 A)C2 = In C2 = C2

Als A inverteerbaar is, dan zullen we de unieke matrix C met AC = In = CA aanduiden met

A−1

De matrix A−1 heet de inverse van A. Dus:

AA−1 = In en A−1 A = In

49
50 College 6, Inverteerbare matrices

Een vierkante matrix die niet inverteerbaar is heet een singuliere matrix. Als deze wel inver-
teerbaar is dan wordt deze niet singulier of ook wel regulier genoemd.
De belangrijkste twee vragen die we stellen zijn:

1. Wanneer is de n × n matrix A inverteerbaar?

2. Als A inverteerbaar is, hoe kunnen we A−1 bepalen?

Voor een 2 × 2 matrix zijn deze vragen makkelijk te beantwoorden. De volgende stelling wordt in
de opgaven bewezen.

 
a b
STELLING 6.2. Laat A = een 2 × 2 matrix zijn. Dan:
c d
1. De matrix A is inverteerbaar als en slechts als het getal ad − bc 6= 0.
2. Als A inverteerbaar is, dan geldt:
 
−1 1 d −b
A =
ad − bc −c a

Het getal ad − bc in Stelling 6.2 wordt de determinant van A genoemd (notatie det(A)). Volgens
de stelling is een 2 × 2 matrix A inverteerbaar als en slechts als det(A) 6= 0.

 
2 5
Voorbeeld 6.3. Beschouw de matrix A = . Deze matrix A is inverteerbaar want
−3 −7
det(A) = (2 × (−7)) − (5 × (−3)) = 1 6= 0. En

   
1 −7 −5 −7 −5
A−1 = =
1 3 2 3 2

Merk op dat in de inverse van een


 matrix
 met gehele getallen geen breuken behoeft te bezitten.
4 1
Het kan wel. Bijvoorbeeld: B = is inverteerbaar want det(B) = 20 6= 0 en
0 5

   5 −1

−1 1 5 −1 20 20
B = = 4 .
20 0 4 0 20

In de volgende stelling verzamelen we de rekenregels voor de inverse operator


6.1. De inverse matrix 51

STELLING 6.4. Laat A en B n × n matrices zijn, en c ∈ R.


1. Als A inverteerbaar is, dan is A−1 dat ook en

(A−1 )−1 = A

2. Als A inverteerbaar is en c 6= 0, dan is cA ook inverteerbaar en


1 −1
(cA)−1 = A
c

3. Als A en B inverteerbaar zijn, dan is AB dat ook en

(AB)−1 = B −1 A−1

4. Als A inverteerbaar is, dan is AT dat ook en

(AT )−1 = (A−1 )T

Bewijs:

1. Omdat er een C bestaat met A−1 C = In = CA−1 (namelijk neem C = A) is A−1 inverteer-
baar en (A−1 )−1 = C = A.

2. Duidelijk.

3. Gezocht wordt een matrix C met (AB)C = In = C(AB). De stelling zelf suggereert
C = B −1 A−1 te nemen. Inderdaad, (AB)C(AB)(B −1 A−1 ) =
= A(BB −1 )A−1 = AIn A−1 = In en C(AB) = (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B =
In . Dus is AB inverteerbaar en (AB)−1 = C = B −1 A−1 .

4. Transponeren van de identiteit AA−1 = In = A−1 A geeft: (AA−1 )T = InT = (A−1 A)T ⇒
(A−1 )T AT = In = AT (A−1 )T , d.w.z. er is een matrix C (namelijk C = (A−1 )T ) zo dat
CAT = In = AT C. Dus is de matrix AT inverteerbaar en (AT )−1 = C = (A−1 )T .

De eerste stap naar het antwoord op de eerste vraag: “welke matrices zijn inverteerbaar”, komt
als gevolg van de volgende stelling.

STELLING 6.5. Als A een inverteerbare n × n matrix is, dan geldt voor iedere b ∈ Rn :
de vergelijking Ax = b heeft een unieke oplossing, en wel x = A−1 b.

Bewijs: Als Ax = b ⇒ A−1 (Ax) = A−1 b ⇒ (A−1 A)x = A−1 b ⇒ In x = A−1 b ⇒ x = A−1 b.
Dus inderdaad, als er een oplossing is van het stelsel Ax = b, dan moet dit x = A−1 b zijn.
Dat x = A−1 b inderdaad een oplossing is volgt uit Ax = A(A−1 b) = (AA−1 )b = In b = b.
52 College 6, Inverteerbare matrices

Voorbeeld 6.6. Gebruik A−1 om het volgende stelsel op te lossen.



2x1 + 5x2 = 2
−3x1 − 7x2 = 1

    
2 5 x1 2
Dit systeem is te schrijven als Ax = b, dus = .
−3 −7 x2 1
   −1       
x1 2 5 2 −7 −5 2 −19
Dan x = = = = .
x2 −3 −7 1 3 2 1 8

Waarschuwing: Los het stelsel Ax = b NOOIT op via de formule x = A−1 b. In de praktijk


blijkt het vegen van het stelsel [A|b] minder werk te zijn dan de berekening van A−1 .

GEVOLG 6.7. Als A een inverteerbare n × n matrix is dan geldt: de gereduceerde echelon-
vorm van A is In .

Bewijs: Kies b ∈ Rn en veeg het stelsel [A|b] naar een equivalent stelsel met coëfficientenmatrix
in gereduceerde echelonvorm. Als [A|b] ∼ [E|b′ ] dan volgt uit het feit dat het stelsel [A|b] een
unieke oplossing heeft dat E = In .

6.2 Inverteerbaarheid via elementaire matrices


De volgende paragraaf houdt zich bezig met de omkering van het vorige gevolg: “als A naar In te
vegen is, is A dan inverteerbaar”? We weten inmiddels dat het vegen van een matrix gelijk staat aan
links met een elementaire matrix vermenigvuldigen. Daarom bekijken we eerst de inverteerbaarheid
van elementaire matrices. We weten dat we iedere veegstap kunnen te niet doen door een andere
veegstap (het “terugvegen”) en dat geeft de volgende stelling.

STELLING 6.8. Iedere elementaire matrix is inverteerbaar en de inverse is ook weer een
elementaire matrix.

Bewijs: Het terugvegen heeft ons geleerd:

n
(E(α,i,j) )−1 = E(−α,i,j)
n
, (E (n,i,j) )−1 = E (n,i,j) , (E(α,i)
n
)−1 = E(n1 ,i) .
α

En we krijgen de volgende equivalentie:


6.3. Procedure om A−1 te vinden 53

STELLING 6.9. Laat A een n × n matrix zijn. De volgende uitspraken zijn equivalent:

1. A is inverteerbaar,
2. A is te vegen naar de eenheidsmatrix.
3. A is te schrijven als een product van elementaire matrices.

Bewijs: 1. ⇒ 2. Dit is Gevolg 6.7.


2. ⇒ 3. Stel A is naar In te vegen, zeg:
En En−1 . . . E2 E1 A = In (met Ei een elementaire matrix).
Dan kunnen we vervolgens stap voor stap de Ei naar rechts brengen, via:
En En−1 . . . E2 E1 A = In ⇒ En−1 En En−1 . . . E2 E1 A = En−1 In ⇒
En−1 . . . E2 E1 A = En−1 In
en dit levert uiteindelijk:
A = E1−1 E2−1 . . . En−1
−1
En−1 In = E1−1 E2−1 . . . En−1
−1
En−1 .
Omdat volgens Stelling 6.8 de inverse van een elementaire matrix weer een elementaire matrix is,
is A te schrijven als een product van elementaire matrices.
3. ⇒ 1. Als A een product van elementaire matrices is, dan is A een product van inverteerbare
matrices en volgens Stelling 6.4 is A dan ook inverteerbaar.

6.3 Procedure om A−1 te vinden


Via de verkregen inzichten via de elementaire matrices, tonen we aan:

STELLING 6.10. Stel dat A een inverteerbare n× n matrix is. Dan geldt: dezelfde veegstap-
pen die A naar I vegen, vegen I naar A−1 .

Bewijs: Veeg de matrix A naar In , zeg:


En En−1 . . . E2 E1 A = In (met Ei een elementaire matrix).
en dus
A = E1−1 E2−1 . . . En−1
−1
En−1 In = E1−1 E2−1 . . . En−1
−1
En−1 .
−1
We kunnen nu A berekenen.
A = E1−1 E2−1 . . . En−1
−1
En−1 ⇒ A−1 = (E1−1 E2−1 . . . En−1
−1
En−1 )−1 =
−1 −1 −1 −1 −1 −1 −1 −1
=(En ) (En−1 ) . . . (A2 ) (A1 ) = En En−1 . . . E2 E1
en dus:
A−1 = En En−1 . . . E2 E1 In
En hier staat inderdaad, de stappen E1 , . . . , En die A naar I vegen, vegen I naar A−1 .

Procedure: Veeg in de matrix [A|I] de matrix A naar I en pas dezelfde veegstappen toe op I.
Dan verkrijgt men: [I|A−1 ]. (Dus: [A|I] ∼ [I|A−1 ].)
 
1 −2 −1
Voorbeeld 6.11. Bepaal A−1 van de matrix A =  −1 5 6 .
5 −4 6
54 College 6, Inverteerbare matrices

  
1 −2 −1 1 0 0 ×1 × − 5
Antwoord: Bekijk [A|I] =  −1 5 6 0 1 0   ↓+ | ∼
5 −4 6 0 0 1 ↓+
     
1 −2 −1 1 0 0 1 −2 −1 1 0 0 ↑+
∼ 0 3 5 1 1 0  × − 2  ∼  0 3 5 1 1 0   ↑+ | 
 0 6 11 −5 0 1   ↓+  0 0 1 −7 −2 1 × −
 5 + ×1

1 −2 0 −6 −2 1 1 −2 0 −6 −2 1 ↑
∼ 0 3 0 36 11 −5   ×1/3  ∼  0 1 0 12 11/3 −5/3   ×2  ∼
0 0 | −7 −2 1  0 0 1 −7  −2 1
1 0 0 18 16/3 −7/3
∼  0 1 0 12 11/3 −5/3 
0 0 1 −7 −2 1
Dus:  
18 16/3 −7/3
A−1 =  12 11/3 −5/3 
−7 −2 1

Een andere kijk op de procedure om A−1 te vinden


Stel dat we weten dat de n × n matrix A inverteerbaar is. Als we schrijven: A−1 = [ b1 . . . bn ] dan
geldt, via de kolomvisie van het matrixproduct:

AA−1 = In ⇒ A[ b1 . . . bn ] = [ e1 . . . en ] ⇒ [ Ab1 . . . Abn ] = [ e1 . . . en ]

Dat betekent dat:


bi is de oplossing van het stelsel Ax = ei
of te wel
[ A | ei ] ∼ [ In | bi ]
Men kan het vegen van
[ A | In ] = [ A | e1 . . . en ]
zien als het simultaan oplossen van de n stelsels vergelijkingen [ A | ei ], en dit levert kennelijk als
oplossing
[ A | e1 . . . en ] ∼ [ In | b1 . . . bn ] = [ In | A−1 ]
6.4. Karakterisering inverteerbare matrices 55

6.4 Karakterisering inverteerbare matrices


Als we de kennis van de colleges 4 en 5 bij elkaar stoppen, komen we tot de volgende stelling.

STELLING 6.12. DE INVERSE MATRIX STELLING


Laat A een n × n matrix zijn. De volgende uitspraken zijn equivalent:
1. A is inverteerbaar.
2. A is te schrijven als een product van elementaire matrices.
3. A is rij-equivalent met de eenheidsmatrix In .
4. A heeft n pivot-posities.
5. A heeft n pivot kolommen. 9. A heeft n pivot rijen.
6. Iedere kolom van A heeft een pivotpositie. 10. Iedere rij van A heeft een
pivotpositie.
7. De kolommen van A zijn onafhankelijk.
11. De kolommen van A spannen
8. De vergelijking Ax = 0 heeft een unieke op- Rn op.
lossing.
12. Voor iedere b ∈ Rn is het stelsel
Ax = b consistent.
13. AT is inverteerbaar.
14. De rijen van A zijn lineair onafhankelijk.
15. De rijen van A spannen Rn op.

Bewijs: Al het werk voor deze stelling is al geleverd.


De equivalentie van de uitspraken 1., 2. en 3. is te vinden in Stelling 6.9. De equivalentie van
de uitspraken 3., 4. en 5. is triviaal, omdat A een vierkante matrix is. De equivalentie van de
uitspraken 5., 6., 7. en 8 is te vinden in Stelling 4.8.
De equivalentie van de uitspraken 9., 10., 11. en 12 is te vinden in Stelling 3.12. De equivalentie
van de uitspraken 1. en 13. is van Stelling 6.4.
Omdat de rijen van A eigenlijk de kolommen van AT zijn, zijn de uitspraken 7. en 14. equivalent.
Evenzo zijn de uitspraken 11. en 15. equivalent.

Opmerking. Deze stelling is erg lang. De meeste uitspraken zijn slechts van theoretische waarde
(zoals uitspraak 2.). Voor de praktijk zijn de equivalentie van 1., 3., 7. en 11. echt van belang.

Een vraag die vaak gesteld wordt is de volgende:

Waarom wordt bij de definitie van inverteerbaarheid van A het bestaan van een matrix C geëist
zodat AC = In en CA = In . Is één van die twee niet voldoende? De volgende stelling zegt dat dit
voor vierkante matrices inderdaad het geval is!

Merk op: als de matrix A niet vierkant is, kan er wel een matric C bestaan met AC = I. Stelling
6.1 zegt dan dat zeker niet geldt dat CA = I. Evenzo (voor niet vierkante matrices A): er kan een
matrix D bestaan met DA = I, maar dan geldt zeker niet AD = I.
56 College 6, Inverteerbare matrices

STELLING 6.13. Stel dat A een n × n matrix is.

1. Als er een n × n matrix C bestaat met CA = In , dan moet A inverteerbaar zijn en


C = A−1 .
2. Als er een n × n matrix C bestaat met AC = In , dan moet A inverteerbaar zijn en
C = A−1 .

Bewijs: 1. We gebruiken criterium 8. van Stelling 6.12 om aan te tonen dat A inverteerbaar is.
Stel Ax = 0. Dan: Ax = 0 ⇒ C(Ax) = C0 ⇒ (CA)x = 0 ⇒ Ix = 0 ⇒ x = 0. Dus inderdaad, de
vergelijking Ax = 0 heeft een unieke oplossing en dus is A een inverteerbare matrix.
Tenslotte: CA = In ⇒ (CA)A−1 = In A−1 ⇒ C(AA−1 ) = A−1 ⇒ C = A−1 .
2. Uit 1. volgt dat C inverteerbaar is en C −1 = A. Maar dan is A ook inverteerbaar en A−1 = C.

Opmerking De twee uitspraken in de vorige stelling hadden we als uitspraak 14. en 15. kunnen
toevoegen aan Stelling 6.12. In de rest van dit dictaat zullen we Stelling 6.12 nog enkele malen
uitbreiden.
College 7, Determinanten

7.1 Introductie tot Determinanten


Merkwaardigerwijs ging de geschiedenis van de determinanten vooraf aan die van de matrices.
Determinanten werden geı̈ntroduceerd door de Japanner T.S. Kowa (1642-1708) in 1683 en (onaf–
hankelijk) door G.W. von Leibniz (1646-1716) in 1693. In 1748 verscheen het boek “Treatise on
Algebra” van Maclaurin waarin “de regel van Cramer” voor 4 × 4 stelsels besproken werd. In 1750
bewees de Zwitser Cramer de “algemene regel van Cramer”. In 1772 introduceerde Laplace bereke-
ning van determinanten via ontwikkeling naar rijen en /of kolommen. Het woord “determinanten”
werd in 1801 door Gauß geı̈ntroduceerd. Het was Cauchy die verantwoordelijk was voor de moderne
aanpak en de verdere ontwikkeling van determinanten. Maar determinanten werden pas echt goed
bekend in 1841, toen Jacobi deze gebruikte bij de aanpak van functies van meerdere variabelen
(de matrix van Jacobi en zijn determinant, de Jacobiaan). Het hoogtepunt van de determinanten
was omstreeks 1904, toen het vijfdelige monumentale werk over determinanten van Thomas Muir
verscheen. Sindsdien is het belang van determinanten langszaam verminderd. Tegenwoordig is het
gebruik van de determinant vervangen door veel effectievere methodes uit de numerieke wiskunde.
In veel boeken wordt zelfs de officiële definitie van determinanten niet meer gegeven. Alleen de
berekening van de de determinant wordt besproken. De huidige stand van zaken is dat enig inzicht
wat betreft determinanten van kleine matrices als gewenst wordt beschouwd, met name voor de
berekening van eigenwaarden van deze matrices.
Voor de geı̈nteresseerde student zullen we hier de officiële definitie van de determinant van een
vierkante matrix presenteren. In de volgende paragrafen zal de beheersing van deze definitie niet
echt nodig zijn, temeer daar wij veel bewijzen niet zullen leveren. Maar wellicht is het niet slecht
om deze definitie toch eens te zien.
 
a1,1 a1,2
Uit hoofdstuk 4 weten we dat als A = een 2 × 2 matrix is, dan is de determinant
a2,1 a2,2
van A gelijk aan het getal:
a1,1 a2,2 − a1,2 a2,1
 
a1,1 a1,2 a1,3
Evenzo delen we mede: als A =  a2,1 a2,2 a2,3  een 3 × 3 matrix is dan is de determinant
a3,1 a3,2 a3,3
van A gelijk aan het getal:

a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3

Merk op dat hier een sommatie staat van producten a1,− a2,− a3,− , waarvan de eerste kentallen
van de subscripts bestaan uit 1, 2, 3. Kijken we naar de tweede kentallen van de subscripts van
deze producten dan verschijnen daar weer de getallen 1, 2, 3, en wel in alle mogelijke volgordes
opgeschreven. (Hetzelfde geldt voor de 2 × 2 matrix met de kentallen 1, 2.)
In het algemeen: het herschrijven van de volgorde van de getallen 1, 2, · · · , n heet een permutatie
van deze getallen en we zullen deze noteren met bijvoorbeeld:

57
58 College 7, Determinanten

(1, 2, 3, 4) → (2, 1, 4, 3)
Een permutatie van de getallen 1, 2, . . . , n is op te vatten als een bijectieve functie

σ : {1, 2, . . . , n} → {1, 2, . . . , n}

Bijvoorbeeld, de permutatie (1, 2, 3, 4) → (2, 1, 4, 3) is de afbeelding σ : {1, 2, 3, 4} → {1, 2, 3, 4}


met σ(1) = 2, σ(2) = 1, σ(3) = 4 en σ(4) = 3.

STELLING 7.1. De getallen (1, 2, . . . , n) hebben n! = 1.2.3. . . . .(n − 1)n permutaties.

Definitie: Pn is de verzameling van permutaties van de getallen (1, 2, . . . , n).

De verzameling Pn bevat dus n! elementen (permutaties).


Een permutatie σ ∈ Pn heet een verwisseling, als deze een verwisseling is van twee elementen.

Voorbeeld 7.2. De permutaties (1, 2, 3) → (1, 3, 2) resp. (1, 2, 3, 4) → (1, 3, 2, 4) zijn verwisselin-
gen. Inderdaad, bij de eerste permutatie worden 2 en 3 verwisseld, bij de tweede ook.
De permutatie (1, 2, 3) → (3, 1, 2) is geen verwisseling, maar is wel te verkrijgen door twee ver-
wisselingen achter elkaar uit te voeren. Bijvoorbeeld: (1, 2, 3) → (1, 3, 2) → (3, 1, 2) levert die
permuatie. Hetzelfde geldt voor de permuatie (1, 2, 3, 4) → (2, 1, 4, 3).

Definitie: Een permutatie σ ∈ Pn heet even als deze te verkrijgen is door een even aantal
verwisselingen achter elkaar uit te voeren. Anders heet de permuatie oneven.

We noteren signum(σ) = 0 (het teken (sign) van σ is 0) als σ een even permuatatie is. Anders
schrijven we signum(σ) = 1.
Merk op dat het teken van de permuatie (1, 2, 3) → (1, 2, 3) 0 is, want deze is te verkrijgen via 0
(=even) verwisselingen.
Tenslotte kunnen we de officiele definitie van de determinant van een matrix presenteren.
7.2. Berekening van Determinanten 59

 
a1,1 a1,2 . . . a1,n

 a2,1 a2,2 . . . a2,n 

Definitie: Laat A =  .. .. . . ..  een n×n matrix zijn. Dan is de determinant
 . . . . 
an,1 an,2 . . . an,n
van A gelijk aan het getal
X
(−1)sign(σ) a1,σ(1) a2,σ(2) . . . an,σ(n)
σ∈Pn

Opmerking:

1. De determinant van een 4 × 4 matrix wordt een sommatie van 4! = 24 producten van vier
getallen uit de matrix. Bij een 5 × 5 matrix een sommatie van 5! = 120 producten van vijf
getallen uit de matrix. Via de definitie is de berekening met de hand van de determinant van
een grote matrix bijna een onmogelijkheid.

2. Merk dat dat a1,σ(1) a2,σ(2) . . . an,σ(n) een product van getallen uit verschillende kolommen en
van verschillende rijen is.

7.2 Berekening van Determinanten


In deze paragraaf geven we een ietwat effectievere manier van de definitie van de determinant
van een matrix, effectiever wat betreft het berekenen ervan. Merkwaardi-gerwijs zal de definitie
recursief zijn. Dat wil zeggen, om te weten wat de determinant van een 6 × 6 matrix is, moeten
we eerst weten wat de determinant van een 5 × 5 matrix is. Maar daarvoor ........etc. We zullen
moeten beginnen met een 1 × 1 matrix.

Als A = [ a ] dan is de determinant van A het getal a.

Dus: A = [ a ] ⇒ det(A) = a.

Definitie: Laat A een n×n matrix zijn met n ≥ 2. De (n−1)×(n−1) matrix Ai,j verkregen
door de ide rij en de j de kolom van A te schrappen wordt de (i, j)de ondermatrix van A
genoemd. Het getal det(Ai,j ) wordt de (i, j)de minor van A genoemd.

 
1 −2 5 0
 2 0 4 −1 
Voorbeeld 7.3. Als A =   3
 dan is de (3, 2)-minor A3,2 van A de matrix
1 0 7 
0 4 −2 0
verkregen door de derde rij en de tweede kolom
 te schrappen, dus: 
1 5 0 1 −2 0
A3,2 =  2 4 −1 . Evenzo: A2,3 =  3 1 7 .
0 −2 0 0 4 0
60 College 7, Determinanten

Definitie: Laat A een n × n matrix zijn met n ≥ 2. Dan is de determinant van A, det(A),
gelijk aan het getal:

det(A) = a1,1 det(A1,1 ) − a1,2 det(A1,2 ) + · · · + (−1)1+n a1,n det(A1,n )

Dus:
n
X
det(A) = (−1)1+j a1,j det(A1,j )
j=1

Opmerking:

1. De kentallen a1,1 , a1,2 , . . . zijn precies de kentallen van de eerste rij van A. We zeggen wel
dat “det(A) wordt berekend via ontwikkeling naar de eerste rij van A”.

2. Merk op dat de +, −, +, − voor de kentallen elkaar afwiselen.


 
a1,1 a1,2
Voorbeeld 7.4. Als A = dan geldt volgens deze definitie dat det(A) = a1,1 det(A1,1 )−
a2,1 a2,2
a1,2 det(A1,2 ) = a1,1 a2,2 − a1,2 a2,1 en dit komt overeen met de oude formule uit paragraaf 8.1.

Notatie Als Aeen n × n matrix


is dan wordt de determinant van A genoteerd met det(A), |A| of
a1,1 . . . a1,n

zelfs:
.... ..

. . .
an,1 . . . an,n
   
1 2 1 3 1 2
Waarschuwing. Wees voorzichtig met bovenstaande notatie, 6= , maar
=
3 4 2 4 3 4
1 3 1 2 1 3
2 4 . Inderdaad, de determinanten 3 4 en 2 4 zijn allebei gelijk aan het getal −2,

   
1 2 1 3
de matrices en zijn overduidelijk niet gelijk.
3 4 2 4
 
a1,1 a1,2 a1,3
Voorbeeld 7.5. Als A =  a2,1 a2,2 a2,3  dan is
a3,1 a3,2 a3,3

det(A) = a1,1 det(A1,1 ) − a1,2 det(A1,2 ) + a1,3 det(A1,3 ) =



a a2,3 a a2,3 a a2,2
= a1,1 2,2 − a1,2 2,1 + a1,3 2,1 =
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2
=a1,1 (a2,2 a3,3 − a2,3 a3,2 ) − a1,2 (a2,1 a3,3 − a2,3 a3,1 ) + a1,3 (a2,1 a3,2 − a2,2 a3,1 )


5 −3 −2
0 2
− (−3) 1 2 + (−2) 1 0

Voorbeeld 7.6. 1 0 2 = 5 = 5(0 − (−2)) +
2 −1 −1 3 2 3 2 −1
3
3(3 − 4) − 2(−1 − 0) = 5.2 + 3(−1) − 2(−1) = 10 − 3 + 2 = 9
7.2. Berekening van Determinanten 61

Herinner de formule:
n
X
det(A) = (−1)1+j a1,j det(A1,j )
j=1

Het is in sommige boeken gebruikelijk om de minor met de ± te combineren. Daartoe definieren


we de (i, j)-de cofactor Ci,j van A door:

Ci,j = (−1)i+j det(Ai,j )

Met deze notatie wordt de formule van de determinant:


n
X
det(A) = a1,j C1,j
j=1

Dit heet de berekening van de determinant van A via “cofactor expansie langs de eerste rij”.
Berekenen van det(A) via de Laplace Expansion via rijen of kolommen
Het is wellicht verbazingwekkend dat de determinant berekend kan worden via cofactor expansie
(ontwikkeling) langs een willekeurige rij (of zelfs via een willekeurige kolom). We geven geen bewijs
van de volgende stelling.

STELLING 7.7. Laplace cofactor expansie De determinant van een n × n matrix A =


{ai,j }, met n ≥ 2, kan berekend worden via “ontwikkeling naar de ide rij van A”

det(A) = (−1)i+1 ai,1 det(Ai,1 ) + (−1)i+2 ai,2 det(Ai,2 ) + · · · + (−1)i+n ai,n det(Ai,n ) =

= ai,1 Ci,1 + ai,2 Ci,2 + · · · + ai,n Ci,n .

De tweede formule heet “cofactorexpansie langs de ide rij van A”.


Ook geldt dat det(A) berekent kan worden via “ontwikkeling naar de j de kolom van A”

det(A) = (−1)1+j a1,j det(A1,j ) + (−1)2+j a2,j det(A2,j ) + · · · + (−1)n+j an,j det(An,j ) =

= a1,j C1,j + a2,j C2,j + · · · + an,j Cn,j

Dit laatste heet weer de “cofactor expansie langs de j de kolom van A”.

Opmerking:

1. Bij de formule van de ontwikkeling naar en/of de cofactor expansie langs de ide rij van A:
n
X n
X
det(A) = (−1)i+j ai,j det(Ai,j ) = ai,j Ci,j
j=1 j=1

geldt dat de kentallen ai,j uit de ide rij van A komen, tesamen met een ± structuur die te
onthouden is via het zogeheten “schaakbord patroon”:
 
+ − + ···
 − + − ··· 
 
det(A) =  + − + · · · 
 
.. .. .. . .
. . . .
62 College 7, Determinanten

2. Bij de formule van de ontwikkeling naar en/of de cofactor expansie langs de j de kolom van
A: n n
X X
det(A) = (−1)i+j ai,j det(Ai,j ) = ai,j Ci,j
i=1 i=1

geldt dat hier de kentallen ai,j uit de j de kolom van A komen, ook hier tesamen met het ±
schaakbord patroon.

Voorbeeld 7.8. Bepaal de determinant van de matrix


 
1 5 1
A= 2 4 −1 
0 −2 1
via cofactor expansie langs de tweede kolom en ook via expansie langs de derde rij.
Antwoord We berekenen det(A) via expansie langs de tweede kolom:

1 5 1
2 −1 1 1 1 1
det(A) = 2
4 −1 = −(5)
+ (4)
− (−2)
=
0 −2 0 1 0 1 2 −1
1
= −5(2 − 0) + 4(1 − 0) + 2(−1 − 2) = −10 + 4 − 6 = −12
We berekenen det(A) via expansie langs de derde rij:

1 5 1
5 1 1 1 1 5
det(A) = 2
4 −1 = +(0)
− (−2)
+ (1) =
0 −2 4 −1 2 −1 2 4
1
0 + 2(−1 − 2) + 1(4 − 10) = 0 − 6 − 6 = −12

Merk op dat in Voorbeeld 7.8 de tweede berekening iets korter is dan de eerste vanwege de nul in
de derde rij. We concluderen dat de Laplace cofactor expansie het meest zinvol is langs een rij of
een kolom met een maximaal aantal nullen.
Voorbeeld 7.9. Bepaal de determinant van de matrix
 
2 −3 0 1
 5 4 2 0 
A=  1 −1 0 3 

−2 1 0 0
Antwoord Kolom 3 bevat de meeste nullen, we gebruiken expansie langs de derde kolom.

2 −3 1 2 −3 1

det(A) = 0C1,3 − (2) 1 −1 3 + 0C3,3 − 0C4,3 = −2 1 −1 3
−2 1 0 −2 1 0
We gaan verder met expansie via expansie langs de derde rij.
 
−3 1 2 1
= −2 +(−2) − (1)
+ 0 = −2[−2(−8) − 5] = −22
−1 3 1 3

Het zal ook duidelijk zijn dat als er in een 4 × 4 matrix A het kental 0 niet voorkomt, de berekening
van de determinant op deze manier “een beestenwerk wordt”. Wat we dan doen om det(A) te
berekenen bespreken we zo. Eerst vermelden we dat Laplace cofactor expansie in het bijzonder
zinvol is bij een (onder- of ) boven driehoeksmatrix.
7.2. Berekening van Determinanten 63

Voorbeeld 7.10. Bepaal de determinant van de bovendriehoeks matrix


 
2 −3 1 1
 0 4 2 0 
A=  0

0 2 3 
0 0 0 −2

Antwoord Bij iedere stap wordt de Laplace cofactor expansie toegepast langs de eerste kolom.

2 −3 1 1
4 2 0
0 4 2 0
det(A) = = 2 0 2 3 =
0 0 2 3 0 0 −2
0 0 0 −2

2 3
2.4 = 2.4.2.(−2) = −32
0 −2

En dus:

STELLING 7.11. Laat A een n × n boven– of onderdriehoeksmatrix zijn. Dan geldt: de


determinant is het product van de kentallen op de diagonaal. Dus:

det(A) = a1,1 a2,2 . . . an,n

Aangezien we iedere vierkante matrix naar een bovendriehoeksmatrix kunnen vegen, roept dit de
vraag op hoe de determinantfunctie van een matrix zich gedraagt bij de elementaire rijbewerkingen!
Dit komt het volgend college aan de orde.
64 College 7, Determinanten
College 8, Determinanten(vervolg)
en afbeeldingen

8.1 Berekenen Determinanten via vegen

We herhalen de stelling:

STELLING 8.1. Laat A een n × n boven– of onderdriehoeksmatrix zijn. Dan geldt: de


determinant is het product van de kentallen op de diagonaal. Dus:

det(A) = a1,1 a2,2 . . . an,n

Aangezien we iedere vierkante matrix naar een bovendriehoeksmatrix kunnen vegen, roept dit de
vraag op hoe de determinant van een matrix zich gedraagt bij de elementaire rijbewerkingen (bij
het vegen).

Berekenen van det(A) via vegen naar echelonvorm.

De clou tot het berekenen van determinanten via vegen ligt besloten in de volgende stelling. Het
bewijs laten we achterwegen.

STELLING 8.2. (Determinanten en vegen.) Laat A een vierkante matrix zijn.


1. (Verwisseling) Als de matrix B uit A verkregen worden door verwisseling van twee rijen,
dan geldt: det(B) = − det(A).
2. (Scaling) Als de matrix B verkregen wordt door één rij van A met k te vermenigvuldigen,
dan geldt: det(B) = k det(A).
3. (Substitutie) Als de matrix B uit A verkregen door een veelvoud van de ene rij bij een
andere rij op te tellen, dan geldt: det(B) = det(A).

Het volgende voorbeeld laat zien hoe deze stelling te gebruiken om det(A) te gebruiken.

65
66 College 8, Determinanten (vervolg) en afbeeldingen

Voorbeeld 8.3. Bepaal de determinant van de matrix


 
2 −8 6 8
 3 −9 5 10 
A=  −3

0 1 −2 
1 −4 0 6
Antwoord We willen graag met een 1 vegen, daarom maken we linksboven het kental 1 door de
eerste rij door 2 te delen.

2 −8 6 8 1 −4 3 4

3 −9 5 10 3 −9 5 10
det(A) = = 2
−3 0 1 −2 −3 0 1 −2

1 −4 0 6 1 −4 0 6

En nu vegen met de eerste rij.



1 −4 3 4
0 3 −4 −2
= 2
0 −12 10 10
0 0 −3 2
We vegen met rij 2

1 −4 3 4
0 3 −4 −2
= 2
0 0 −6 2
0 0 −3 2
We scailen rij 3 en gaan daarna vegen met deze rij.

1 −4 3 4 1 −4 3 4

0 3 −4 −2 0 3 −4 −2
= 4 = 4 = 4.1.3.(−3).1 = −36
0 0 −3 1 0 0 −3 1

0 0 −3 2 0 0 0 1
Bij dit laatste is Stelling 7.11 gebruikt.

De volgende stelling zal nu duidelijk zijn.

STELLING 8.4. Laat A een vierkante matrix zijn die met behulp van vervanging en r
verwisselingen (maar zonder scaling) naar een bovendriehoeks matrix U wordt geveegd. Dan
geldt:
det(A) = (−1)r u1,1 u2,2 . . . un,n

8.2 Algebraı̈sche eigenschappen van Determinanten


Een direct maar interessant gevolg van Stelling 8.4 is de volgende stelling.

STELLING 8.5. Voor een vierkante matrix A geldt: A is inverteerbaar als en slechts als

det(A) 6= 0.
8.2. Algebraı̈sche eigenschappen van Determinanten 67

Bewijs: A is inverteerbaar als en slechts als (zie Stelling 6.12) in iedere kolom een pivotpositie is
als en slechts als iedere ui,i 6= 0 als en slechts als (−1)r u1,1 u2,2 . . . un,n = det(A) 6= 0.

Omdat Stelling 8.2 over veegstappen gaat is deze te herformulieren in termen van elementaire
matrices E. Deze herformulering luidt als volgt:
Als A een n × n matrix is en E een elementaire n × n matrix, dan geldt:

det(EA) = det(E) det(A)



 −1 als E een verwisselings matrix
want det(E) = +1 als E een vervangings matrix

k als E een scalings matrix met k

STELLING 8.6. Als A en B n × n matrices zijn, dan geldt:

det(AB) = det(A) det(B)

Bewijs: Als of A of B niet inverteerbaar is, dan geldt: AB niet inverteerbaar en dus geeft Stel-
ling 8.5 het gewenste resultaat.
Stel nu dat zowel A als B inverteerbaar zijn. Dan is volgens Stelling 6.12 A te schrijven als een
product van elementaire matrices, zeg

A = Ep Ep−1 . . . E1 = Ep Ep−1 . . . E1 In

Een herhaald toepassen hierop van de formule det(EX) = det(E) det(X) levert:

det(A) = det(Ep ) det(Ep−1 ) . . . det(E1 ) det(In ) = det(Ep ) det(Ep−1 ) . . . det(E1 )

(want det(In ) = 1.)


Een herhaald toepassen op AB = Ep Ep−1 . . . E1 B van dezelfde formule levert:

det(AB) = det(Ep ) det(Ep−1 ) . . . det(E1 ) det(B) = det(A) det(B)

Pas op, er geldt NIET: det(A + B) = det(A) + det(B).


Het bewijs van de volgende stelling is een opgave.

GEVOLG 8.7. Als A een inverteerbare n × n matrix, dan geldt:


1
det(A−1 ) = = (det(A))−1
det(A)

Van de volgende stelling laten we het bewijs achterwege.


68 College 8, Determinanten (vervolg) en afbeeldingen

STELLING 8.8. Voor iedere n × n matrix geldt:

det(AT ) = det(A).

Nu nog een stelling met handigheidjes om te weten.

STELLING 8.9. Laat A een n × n matrix zijn.


1. Als A een rij (kolom) met nullen heeft, dan: det(A) = 0.
2. Als A twee gelijke rijen (kolommen) heeft dan geldt: det(A) = 0.
3. det(kA) = k n det(A).

Bewijs: De uitspraken 1. en 2. geven A niet inverteerbaar, en dus det(A) = 0.


Uitspraak 3. wordt verkregen door onderdeel 2 van Stelling 8.2 n maal toe te passen, door n maal
een rij met k te vermenigvuldigen.

Tenslotte nog een stelling met een lineaire eigenschap van de determinant. Daartoe introduceren
we de volgende notatie.
Notatie Laat A een n × n matrix zijn. Als x ∈ Rn , dan staat Ai (x) voor de matrix verkregen uit
A door de ide rij van A te vervangen door xT . Evenzo staat Aj (x) voor de matrix verkregen uit
A door de k de kolom van A te vervangen door x.

STELLING 8.10. Laat A een n × n matrix zijn en fixeer i en/of j. Dan geldt:
1. det(Ai (c1 x + c2 x2 )) = c1 det(Ai (x1 )) + c2 det(Ai (x2 )).
2. det(Aj (c1 x + c2 x2 )) = c1 det(AJ (x1 )) + c2 det(AJ (x2 )).

Bewijs: Als men de determinant van de matrix Ai (c1 x + c2 x2 ) bepaald door te ontwikkelen naar
de ide rij en de distributieve wet toepast verschijnt deze identiteit. De tweede identiteit is te
verkrijgen door te ontwikkelen naar de j de kolom.

8.3 Aanvullende eigenschappen van Determinanten


Deze sectie bevat enige aanvullende kennis over determinanten, met name enige meetkundige
eigenschappen wat betreft de determinanten.

De regel van Cramer


De regel van Cramer betreft een oude stelling die de formule levert voor één onbekende xi bij een
lineair stelsel van n vergelijkingen met n onbekenden.
8.3. Aanvullende eigenschappen van Determinanten 69

Herinner de notatie van de vorige paragraaf: als A = [ a1 . . . ai . . . an ] een n× n matrix is (aj ∈ Rn )


en een vector b ∈ Rn is gegeven, dan staat Ai (b) voor de matrix

Ai (b) = [ a1 . . . b . . . an ].

Dus de ide kolom ai van A is vervangen door b.

STELLING 8.11. De regel van Cramer Laat A een inverteerbare n × n matrix zijn en
b ∈ Rn . Als x de unieke oplossing is van het stelsel Ax = b, dan geldt:

det(Ai (b))
xi = , i = 1, . . . , n
det(A)

Bewijs: De kolommen van de eenheidsmatrix In zijn e1 , . . . , en , de standaard eenheidsvectoren.


Als Ax = b, dan:

A(In )i (x) = A[ e1 . . . x . . . en ] = [ Ae1 . . . Ax . . . Aen ] = [ a1 . . . b . . . an ] = Ai (b).

Dus geeft Stelling 8.6 dat

det(A) det((In )i (x)) = det(A(In )i (x)) = det(Ai (b))

Maar ontwikkeling van  


(In )i (x) langs de i de rij geeft: 1 0 ··· x1 · · · 0
det((In )i (x)) = xi en dus

 0 1 ··· x2 · · · 0 

 .. .. . . .. .. 
 . . . . . 
(det(A))xi = det(Ai (b)) (In )i (x) =  

 0 0 ··· xi · · · 0 

 .. .. .. . . .. 
 . . . . . 
0 0 ··· xn · · · 1
en de conclusie volgt.

Opmerking: De regel van Cramer is tegenwoordig alleen nog maar van theoretisch belang. Eén
onbekende xi oplossen met Cramer is meer rekenwerk dan via vegen alle onbekenden tegelijk
oplossen.
Voorbeeld 8.12. Beschouw het volgende stelsel lineaire vergelijkingen met parameter s.

3sx1 − 2x2 = 4
−6x1 + sx2 = 1
Bepaal voor welke s er een unieke oplossing is en bepaal deze met de regel van Cramer.
Antwoord Beschouw het systeem als Ax = b met
     
3s −2 4 −2 3s 4
A= , A1 (b) = , A2 (b) =
−6 s 1 s −6 1

Omdat det(A) = 3s2 −12 =3(s + 2)(s − 2) heeft dit systeem een unieke oplossing als s 6= ±2. Als
x1
s 6= ±2 dan is de x = de unieke oplossing waarbij
x2

det(A1 (b)) 4s + 2
x1 = =
det(A) 3(s − 2)(s + 2)
70 College 8, Determinanten (vervolg) en afbeeldingen

det(A2 (b)) 3s + 24 s+8


x2 = = =
det(A) 3(s − 2)(s + 2) (s − 2)(s + 2)

De klassieke adjoint van een matrix en een formule voor A−1


Herinner dat de (i, j) cofactor Ci,j van een n × n matrix A gelijk is aan

Ci,j = (−1)i+j det(Ai,j )

met Ai,j de (i, j) minor van A.


De matrix [Ci,j ]i=1..n,j=1..n heet de cofactorenmatrix van A. De getransponeerde hiervan heet
de (klassieke) adjoint van A en wordt genoteerd met adj(A). Dus:
 
C1,1 · · · Cn,1

adj(A) =  .. . . .. 
. . . 
C1,n ··· Cn,n

De volgende stelling geeft de basiseigenschap van de adjoint van een matrix.

STELLING 8.13. Als A een n × n matrix is, dan geldt:


 
det(A) 0 ··· 0

 0 det(A) · · · 0 

A adj(A) =  .. .. . . .. 
 . . . . 
0 0 ··· det(A)

Bewijs: Het (i, i)de kental van A adj(A) is ide rij A maal ide kolom adj(A), wordt:

ai,1 Ci,1 + ai,2 Ci,2 + · · · + ai,n Ci,n = det(A)

(Want hier staat de cofactor expansie van A naar de ide rij van A.)
Het (i, j)de kental van A adj(A) (met i 6= j) is ide rij A maal j de kolom adj(A), wordt:

ai,1 Cj,1 + ai,2 Cj,2 + · · · + ai,n Cj,n

Dit kan beschouwd worden als de cofactor expansie naar de j de rij van de matrix A′ . Hierbij wordt
A′ verkregen uit A door de j de rij van A te vervangen door de ide rij van A. Dit levert dus de
waarde van det(A′ ) = 0 op (want A′ heeft twee gelijke rijen).

Deze stelling levert de volgende formule voor A−1 op.

STELLING 8.14. Als de n × n matrix A inverteerbaar is, dan


1
A−1 = adj(A)
det(A)
8.3. Aanvullende eigenschappen van Determinanten 71

Opmerking: bovenstaande formule is puur van theoretisch belang. Om hiermee de inverse te


bepalen wordt een soap van rekenwerk.

Determinanten als oppervlakte en als volume


Merk op dat de oppervlakte van een parallellogram
op de vectoren a en b gelijk is aan:
oppervlakte b
lengte basis ×hoogte = kak × h
Dit levert de volgende interpertatie van de abso-
lute waarde van de determinant van een 2 × 2 ma- hoogte
trix als oppervlakte. a

STELLING 8.15. Als A een 2×2 matrix is dan geldt dat | det(A)| gelijk is aan de oppervlakte
van het parallellogram opgespannen door de kolommen van A.

 
a1 a2
Bewijs: Stel A = . Dan geldt: | det(A)| = |a1 b2 − a2 b1 |.
b1 b2
Aan de andere kantkunnen we de oppervlakte van het parallellogram opgespannen door de ko-
a1 a2
lommen a1 = en a2 = bepalen.
b1 b2
Om de hoogte te bepalen projecteren we a2 op de
n=normaal
normaal van a1 en de hoogte wordt
a2
ka2 k | cos(ϕ)|

waarbij ϕ de ϕ
 hoek tussen a2 en de normaal is.
−b1 ka2 k cos(ϕ)
Neem n = als normaal van a1 (dan is a1
a1
knk = ka1 k).
Dan geldt:

det(A) = a1 b2 − a2 b1 = n · a2 = knk ka2 k cos(ϕ) =

ka1 k ka2 k cos(ϕ) = basis × ±hoogte

en de conclusie volgt.

Opmerking. Omdat det(A) = det(AT ) geldt ook dat | det(A)| gelijk is aan de oppervlakte van
het parallellogram opgespannen door de rijen van A!
72 College 8, Determinanten (vervolg) en afbeeldingen

In de ruimte kunnen we spreken over het paral-


lellepipidum opgespannen door drie vectoren.
volume=
oppervlakte basis parallellogram × hoogte
Dit levert de volgende interpertatie van de abso-
lute waarde van de determinant van een 3 × 3 ma-
hoogte
trix als volume.

STELLING 8.16. Als A een 3 × 3 matrix is dan geldt dat | det(A)| gelijk is aan het volume
van het parallellepipidum opgespannen door de drie kolommen van A.

       
a1 b 1 c1 a1 b1 c1
Bewijs: Beschouw A =  a2 b2 c2  met kolommen a =  a2 , b =  b2  en c =  c2 .
a3 b 3 c3 a3 b3 c3
Ontwikkeling naar de eerste kolom van A geeft:

det(A) = a1 (b2 c3 − b3 c2 ) − a2 (b1 c3 − b3 c1 ) + a3 (b1 c2 − c1 b2 ) = a · (b × c)

Hierbij staat 
b × c voor het  uitwendig product van de vectoren b en c, zoals ons wel bekend is (?).
b 2 c3 − b 3 c2
Dus b × c =  b3 c1 − b1 c3 .
b 1 c2 − c1 b 2
De vector b × c is dus de normaal van de basis
parallellogram opgespannen door b en c en als ϕ
de hoek is tussen de normaal b × c en a dan: b×c

det(A) = a · (b × c) = kb × ck kak cos(ϕ) = a


kak cos(ϕ) ϕ
= oppervlakte basis parallellogram × ±hoogte = c

= volume parallellopipidum b

Opmerking.

1. Omdat det(A) = det(AT ) geldt dat | det(A)| ook gelijk is aan het volume van het parallelle-
pipidum opgespannen door de drie rijen van A.

2. In eerste instantie bestaat er geen interpretatie in Rn van de determinant van een n×n matrix
als een ”n-dimensionaal volume”, want we weten niet wat dit is. Echter, determinanten
kunnen gebruikt worden om het begrip ”n-dimensionaal volume in Rn ” te definiëren. We
zullen niet verder in detail treden.
8.4. Afbeeldingen van Rn naar Rm 73

8.4 Afbeeldingen van Rn naar Rm


We gaan er van uit dat de student bekend is met het functiebegrip, dus “een functie f : A → B”.
Een functie wordt bepaald door een domein A, een zogeheten codomein B en een functievoor-
schrift f (a), een voorschrift die aan iedere a ∈ A een element f (a) ∈ B toevoegt. We schrijven
“de functie f : A → B met functievoorschrift f (a)”. In het algemeen: f is de naam van de functie,
f (x) het functievoorschrift.
Zoals in de Analyse functies f : R → R bestudeerd worden (bijvoorbeeld met voorschrift f (x) =
sin(2 ln(x2 + 1))), worden in de lineaire algebra functies (of ook transformaties) T : Rn → Rm
bekeken, functies dus met domein Rn en codomein Rm . Maar welke functies?
Laten we ons eerst maar eens realiseren dat iedere m × n matrix A een afbeelding TA : Rn → Rm
oplevert via het functievoorschrift:
TA (x) = Ax.

Dit soort afbeeldingen worden ook wel matrixtransformaties genoemd en dit blijken precies die
functies te zijn (tussen Rn en Rm ) waarin de lineaire algebraı̈cus geı̈nteresseerd is.
 
1 2 −3
Voorbeeld 8.17. De matrix A = geeft een matrixtransformatie TA : R3 → R2 .
2 2 −1
Deze heeft als functievoorschrift:
 
x1  
x1 + 2x2 − 3x3
TA  x2  =
2x1 + 2x2 − x3
x3

Aan het functievoorschrift van een functie is vaak in één opslag te zien of de betreffende functie
een matrixtransformatie is.
 
  2x1 − 5x2
x1
Voorbeeld 8.18. Bekijk de functie T : R2 → R3 met functievoorschrift T =  3x1 + 4x2 .
x2
−x1 + x2
Aan dit functievoorschrift is inderdaad
 meteen
 te zien dat dit een matrixtransformatie betreft en
2 −5
dat de bijbehorende matrix A =  3 4  is.
−1 1
   2 
2 2 x1 x1 − 5x32
Daarentegen, de functie T : R → R met functievoorschrift T = is
x2 3x1 + x22
gevoelsmatig toch geen matrixtransformatie. Is dat voldoende bewijs?

Als geen functievoorschrift gegeven is, maar een


meetkundige beschrijving van de afbeelding wordt
het nog lastiger.
Beschouw de afbeelding R : R2 → R2 die iedere
R(x)
vector x over dezelfde hoek θ (linksom) in het vlak
draait naar R(x). x
θ
Is deze afbeelding een matrixtransformatie?
We zoeken een criterium om aan een afbeelding te
kunnen zien of deze afbeelding een matrixtrans-
formatie is of niet.
74 College 8, Determinanten (vervolg) en afbeeldingen

Definitie: Een afbeelding T : Rn → Rm heet een lineaire afbeelding als:


1. T (u + v) = T (u) + T (v), voor alle u, v ∈ Rn .
2. T (cu) = cT (u), voor alle u ∈ Rn en alle c ∈ R.

STELLING 8.19. (i) Iedere matrixtransformatie T : Rn → Rm is een lineaire afbeelding.


(ii) Stel dat T : Rn → Rm een lineaire afbeelding is. Dan is er een unieke m × n matrix A
zodat
T (x) = Ax, voor alle x ∈ Rn .
We noteren A = [T ] en er geldt:

A = [T ] = [ T (e1) . . . T (en ) ].

Bewijs: Beschouw de standaardbasis ( e1 , . . . , en ) van Rn . Als x ∈ Rn dan

x = x1 e1 + x2 e2 + · · · + xn en

en dus

T (x) = T (x1 e1 + x2 e2 + · · · + xn en ) = x1 T (e1 ) + · · · + xn T (en ) = [ T (e1 ) . . . T (en ) ]x

De uniciteit: stel dat C een m × n matrix is zodat T (x) = Cx voor alle x ∈ Rn . Dan geldt:

de ide kolom van C = Cei = T (ei ) = de ide kolom van [T ]

voor i = 1 . . . n en dus C = [T ].

De matrix A = [T ] in Stelling 9.1 heet de standaardmatrix van T en de basiseigenschap van de


standaardmatrix [T ] is:

T (x) = [T ]x.

Deze stelling levert ook het antwoord op de vraag gesteld aan het begin van deze paragraaf. De
functies T : Rn → Rm waar wij in geı̈nteresseerd zijn zien er uit als T (x) = Ax.
We kunnen nu de vragen beantwoorden uit Voorbeeld 8.9.
   2 
x1 x1 − 5x32
Antwoord 1. De functie T : R2 → R2 met functievoorschrift T = is geen
x2 3x1 + x22
matrixtransformatie, want het is geen  lineaire
 afbeelding. Enig simpel rekenwerk laat zien dat
1
T (2x) 6= 2T (x) als bijvoorbeeld x = .
1
8.4. Afbeeldingen van Rn naar Rm 75

Antwoord 2. De afbeelding R : R2 → R2 draait


iedere vector over dezelfde hoek θ (linksom) in het
vlak. Om in te zien dat R lineair is moeten we
een meetkundig argument gebruiken. Neem twee
vectoren x en y en we laten zien dat R(x)
x
R(x + y) = R(x) + R(y). θ

Beschouw in de schets de vectoren x en y en hun


beelden R(x) en R(y) verkregen door over dezelfde
hoek θ te draaien. Maar dan geldt: als men het x+y
parallellogram opgespannen door x en y draait
R(x) + R(y)
over de hoek θ (linksom) dan gaat dit over in het y
parallellogram opgespannen door R(x) en R(y). R(x)
Dus draait het hoekpunt x + y naar het hoekpunt x
R(x) + R(y). Dus:
R(y)
R(x + y) = R(x) + R(y).

Evenzo laat men zien dat R(cx) = cR(x).


We concluderen dat de roteren een matrix trans-
formatie is. De standaardmatrix wordt:
e2
[R] = [ R(e1 ) R(e2 )] R(e1 )
 
cos(θ)
Omdat R(e1 ) = en R(e2 ) = R(e2 )
sin(θ)

− sin(θ)
 θ
geldt: θ e1
cos(θ)
 
cos(θ) − sin(θ)
[R] =
sin(θ) cos(θ)
      
x cos(θ) − sin(θ) x x cos(θ) − y sin(θ)
En dus: R = = .
y sin(θ) cos(θ) y x sin(θ) + y cos(θ)
 
cos(θ) − sin(θ)
Een matrix van de vorm heet een rotatie-matrix. We hebben een expliciete
sin(θ) cos(θ)
formule gevonden voor de rotatie linksom van een vector over een gegeven hoek, en dus kunnen we
nu iedere vector roteren over welke hoekdanook. Dit is de kracht van de standaardmatrix.
1
Bijvoorbeeld: willen we de vector x = over een hoek van 60 graden linksom roteren dan
2
wordt het resultaat:
    1 1
√    1 √ 
cos(60) − sin(60) 1 − 3 1 − 3
R(x) = = 1√ 2 2
1 = 12√ .
sin(60) cos(60) 2 2 3 2
2 2 3+1

Hetzelfde verhaal kan men ophouden over functies T : Cn → Cm . Om precies te zijn:

• Een (complexe) m×n matrix A geeft een afbeelding (matrixtransformatie) TA : Cn → Cm met


het functievoorschrift:
TA (x) = Ax.
76 College 8, Determinanten (vervolg) en afbeeldingen

• Een afbeelding T : Cn → Cm heet een lineaire afbeelding als:


1. T (u + v) = T (u) + T (v), voor alle u, v ∈ Cn .
2. T (cu) = cT (u), voor alle u ∈ Cn en alle c ∈ C.
• Stelling. De matrixtransformaties T : Cn → Cm zijn precies de lineaire afbeeldingen
L : Cn → Cm . Ook hier heet de unieke m × n matrix A zodat

T (x) = Ax, voor alle x ∈ Cn .

de standaardmatrix van T en wordt genoteerd met [T ]. Er geldt weer: A = [T ] = [ T (e1 ) . . . T (en ) ]


en het bewijs hiervan is hetzelfde als in het reële geval.
College 9, Lineaire afbeeldingen en
deelruimten

9.1 Lineaire afbeeldingen L : Rn → Rm


We herinneren ons:

• Iedere m × n matrix A een afbeelding TA : Rn → Rm oplevert via het functievoorschrift:


TA (x) = Ax. Dit zijn de zogeheten matrixtransformaties.

• Een afbeelding T : Rn → Rm heet een lineaire afbeelding als:

1. T (u + v) = T (u) + T (v), voor alle u, v ∈ Rn .


2. T (cu) = cT (u), voor alle u ∈ Rn en alle c ∈ R.

• Iedere lineaire afbeelding T : Rn → Rm met de standaardmatrix [T ] = [ T (e1 ) . . . T (en ) ].


Dus: T (x) = [T ]x.

De volgende eigenschap van lineaire afbeeldingen hebben we nog niet genoemd.

STELLING 9.1. Laat T : Rn → Rm een lineaire afbeelding zijn. Dan geldt:

T (0) = 0.

Bewijs: Dit volgt uit: T (0) = [T ]0 = 0.

Operaties op lineaire afbeeldingen


Als T : Rn → Rm en S : Rn → Rm lineaire afbeeldingen zijn, dan kunnen we een nieuwe afbeelding
S + T : Rn → Rm maken via

(S + T )(x) = S(x) + T (x), voor iedere x ∈ Rn .

Evenzo, als c ∈ R en T : Rn → Rm een lineaire afbeelding is dan kan een nieuwe afbeelding
cT : Rn → Rm gemaakt worden via

(cT )(x) = c(T (x)), voor iedere x ∈ Rn .

77
78 College 9, Lineaire afbeeldingen en deelruimten

STELLING 9.2. Laat T : Rn → Rm en S : Rn → Rm lineaire afbeeldingen zijn en c ∈ R.


Dan geldt:
1. S + T : Rn → Rm is een lineaire afbeelding met standaardmatrix [S + T ] = [S] + [T ].
2. cT : Rn → Rm is een lineaire afbeelding met standaardmatrix [cT ] = c[T ]

Bewijs: 1. Omdat T, S lineaire afbeeldingen zijn geldt: T (x) = [T ]x en S(x) = [S]x en dus:

(S + T )(x) = S(x) + T (x) = [S]x + [T ]x = ([S] + [T ])x.

Hier staat dat S + T een matrixtransformatie is (en dus een lineaire afbeelding) met standaard-
matrix [S + T ] gelijk aan [S] + [T ].
2. Omdat T een lineaire afbeelding is geldt: T (x) = [T ]x en dus:

(cT )(x) = c(T (x)) = c([T ]x) = (c[T ])x.

Hier staat dat cT een matrixtransformatie is (en dus een lineaire afbeelding) met standaardmatrix
[cT ] gelijk aan c[T ].

Stelling 9.2 in woorden: “de standaardmatrix van de som van twee afbeeldingen is de som van de
twee standaardmatrices”.

Voorbeeld 9.3. Beschouw de lineaire afbeeldingen: T1 : R2 → R2 , T2 : R2 → R3 en S : R2 → R2


gedefiniëerd via:  
      2x + y    
x x + 2y x x x − 2y
T1 = , T2 =  2x − y  en S = .
y 2x + y y y −x − 2y
2x + 4y
Dan geldt: T1 + T2 is NIET gedefiniëerd, T1 + S is wel gedefiniëerd, via:
           
x x x x + 2y x − 2y 2x
(T1 + S) = T1 +S = + =
y y y 2x + y −x − 2y x−y
 
2 0
Uit deze formule zien we dat [T1 + S] = . Uit bovenstaande formules zien we dat
1 −1
   
1 2 1 −2
[T1 ] = en [S] = en inderdaad er geldt: [T1 + S] = [T1 ] + [S].
2 1 −1 −2

Als T : Rn → Rk en S : Rk → Rm afbeeldingen zijn, dan kan op een natuurlijke manier een


afbeelding van Rn → Rm gedefiniëerd worden. Kijk maar.

x ∈ Rn T (x) ∈ Rk S(T (x)) ∈ Rm

Deze afbeelding wordt genoteerd met S ◦ T : Rn → Rm en wordt dus gedefiniëerd door:

(S ◦ T )(x) = S(T (x)), voor alle x ∈ Rn .

Deze afbeelding heet de compositie van S en T , ook wel de productafbeelding of ook: “S na


T ” genoemd.
9.1. Lineaire afbeeldingen L : Rn → Rm 79

STELLING 9.4. Stel dat T : Rn → Rk en S : Rk → Rm lineaire afbeeldingen zijn. Dan


geldt: S ◦ T : Rn → Rm is ook een lineaire afbeelding en heeft dus een een standaardmatrix.
Er geldt:
[S ◦ T ] = [S][T ].

Bewijs: Er geldt:

(S ◦ T )(x) = S(T (x)) = [S](T (x)) = [S]([T ]x) = ([S][T ])x.

en hier staat dat S ◦ T een matrixtransformatie is (en dus een lineaire afbeelding) met standaard-
matrix [S ◦ T ] gelijk aan [S][T ].

Inverteerbare afbeeldingen
Beschouw de afbeelding I : Rn → Rn gedefiniëerd door:

I(x) = x voor alle x ∈ Rn .

Deze afbeelding is duidelijk lineair en heet de Identiteit afbeelding.

LEMMA 9.5. Laat T : Rn → Rm een lineaire afbeelding zijn en beschouw de twee identiteits
afbeeldingen: I1 : Rn → Rn en I2 : Rm → Rm . Dan geldt:
1. [I1 ] is de n × n eenheidsmatrix In .
2. T ◦ I1 = T en I2 ◦ T = T .

Bewijs: Mag U zelf verzinnen.

Definitie: Een lineaire afbeelding T : Rn → Rm heet inverteerbaar als er een lineaire afbeel-
ding S : Rm → Rn zodat T ◦ S = I2 en S ◦ T = I1 (met I1 : Rn → Rn de identiteit afbeelding,
evanals I2 : Rm → Rm .)

We claimen dat als T : Rn → Rm inverteerbaar is dat dan n = m. Bovendien zal gelden dat de
lineaire afbeelding S : Rn → Rn met T ◦ S = I en S ◦ T = I uniek door deze eigenschap bepaald
is.
Inderdaad, er zal moeten gelden:

I2 = T ◦ S ⇒ Im = [I2 ] = [T ◦ S] = [T ][S] en I1 = S ◦ T ⇒ In = [I1 ] = [S ◦ T ] = [S][T ]

Stelling 6.1 vertelt ons dat als n 6= m er geen matrices A, B bestaan met AB = Im en BA = In . Dus
er moet gelden n = m. Maar dan zal ook moeten gelden: [S] = [T ]−1 . Kortom, de standaardmatrix
van S ligt vast en daarmee is S uniek bepaald.
80 College 9, Lineaire afbeeldingen en deelruimten

Als de afbeelding T : Rn → Rn inverteerbaar is dan heet de unieke S : Rn → Rn met T ◦ S = I en


S ◦ T = I de inverse afbeelding van T en wordt genoteerd met:

T −1 : Rn → Rn .

We hebben bewezen dat [T ][T −1] = In en [T −1 ][T ] = In en dus concluderen we:

STELLING 9.6. De lineaire afbeelding T : Rn → Rm is inverteerbaar als en slechts als


n = m en de matrix [T ] inverteerbaar is (als matrix). Als de afbeelding T inverteerbaar is dan
geldt:
[T −1 ] = [T ]−1

Opmerking De formule in Stelling 9.6 zegt in woorden:


“de standaardmatrix van de inverse afbeelding is de inverse van de standaardmatrix”.
   
2 2 x 2x + 3y
Voorbeeld 9.7. Laat zien dat de afbeelding T : R → R met T =
y 3x + 4y
−1
inverteerbaar is en bepaal
 een expliciete
  formule voor
 T
 .  
x 2x + 3y 2 3 x
Antwoord. Omdat T = = zien we dat geldt: [T ] =
y 3x + 4y 3 4 y
 
2 3
. We zien dat de matrix [T ] inverteerbaar is en dus is de afbeelding T ook inverteerbaar.
3 4
Bovendien geldt:  
−1 −1 −4 3
[T ] = [T ] = ga na =
3 −2
        
x x −4 3 x −4x + 3y
en dus T −1 = [T −1 ] = = .
y y 3 −2 y 3x − 2y

9.2 Determinanten en lineaire afbeeldingen


We weten dat iedere lineaire afbeelding T : Rn → Rn een standaardmatrix [T ] heeft. We vragen ons
af waar de determinant van de standaardmatrix [T ] voor staat in termen van de lineaire afbeelding.
De volgende stellingen zeggen dat dit de vergrotingsfactor is wat betreft oppervlakte (volume) S
en T (S).

STELLING 9.8. Laat T : R2 → R2 een lineaire afbeelding zijn met standaardmatrix [T ].


Als S een parallellgram is in R2 , dan

oppervlakte van T (S) = | det([T ])| (oppervlakte van S)

Hetzelfde geldt voor iedere S ⊂ R2 met eindige oppervlakte.

Bewijs: Beschouw de standaard matrix [T ] = [ T (e1 ) T (e2 ) ]. (Dus T (x) = [T ]x, voor alle x ∈ R2 .)
Laat S een parallellogram zijn met de oorsprong als hoekpunt, opgebouwd via b1 , b2 , d.w.z.

S = {s1 b1 + s2 b2 : 0 ≤ s1 ≤ 1, 0 ≤ s2 ≤ 1}
9.3. Lineaire afbeeldingen in de analyse 81

Dan bestaat het beeld T (S) van S uit alle vectoren van de vorm

T (S) = T (s1 b1 + s2 b2 ) = s1 T (b1 ) + s2 T (b2 )

met 0 ≤ s1 ≤ 1 en 0 ≤ s2 ≤ 1. We concluderen dat T (S) het parallellogram is met de oorsprong


als hoekpunt en opgebouwd via T (b1 ), T (b2 ).

T (b2 ) T(S)
b2 T
S
b1 T (b1 )

Dus oppervlakte van T (S) wordt:

opp(T (S)) = | det([ T (b1 ) T (b2 ) ])| = | det([ [T ]b1 [T ]b2 ])| =

| det([T ] [ b1 b2 ])| = | det(T )| | det([ b1 b2 ])| = | det([T ])| {opp(S)}


Een parallellogram op hoekpunt punt ziet er uit als p + S, met S een parallellogram met de
oorsprong als hoekpunt, opgebouwd via b1 , b2 , d.w.z.

p + S = {p + s1 b1 + s2 b2 : 0 ≤ s1 ≤ 1, 0 ≤ s2 ≤ 1}

Dan bestaat het beeld T (p + S) uit alle vectoren van de vorm

T (p + s1 b1 + s2 b2 ) = T (p) + s1 T (b1 ) + s2 T (b2 )

met 0 ≤ s1 ≤ 1 en 0 ≤ s2 ≤ 1. We concluderen dat T (p + S) het parallellogram T (p) + T (S) is.


Daarom:
oppT (p + S) = opp(T (p) + T (S)) = oppT (S) =
= | det([T ])| {oppS} = | det([T ])| {opp(p + S)}
Tenslotte: Als de uitspraak waar is voor alle parallellogrammen dan doen partities via parallell-
grammen inzien dat de uitspraak waar is voor willekeurige S met eindige oppervlakte.

STELLING 9.9. Laat T : R3 → R3 een lineaire afbeelding zijn met standaardmatrix [T ].


Als S een parallellopipidum is in R3 , dan:

volume van T (S) = | det([T ])| (volume van S)


Hetzelfde geldt voor iedere S ⊂ R3 met eindige volume.

9.3 Lineaire afbeeldingen in de analyse


Het begrip lineaire afbeelding in de analyse is vaak iets anders als het begrip lineaire afbeelding in
de lineaire algebra. Dit kennen wij al van de middelbare school, daar was de functie f (x) = ax + b
lineair. Maar dan f (0) = b 6= 0 (als b 6= 0) en dit kan dus geen lineaire afbeelding zijn (in de zin
82 College 9, Lineaire afbeeldingen en deelruimten

van de lineaire algebra). Voor ons is de “matrixtransformatie” f (x) = ax een lineaire afbeelding
f : R → R.
Kortom, in de analyse heeft men “lineaire afbeeldingen” nodig die 0 naar een punt 6= 0 kunnen
sturen. We praten over “verschoven lineaire afbeeldingen”.
 
1 2
Voorbeeld 9.10. Beschouw de matrix A = . Die geeft de lineaire afbeelding
−1 3
   
x1 x1 + 2x2
T = Ax =
x2 −x1 + 3x2
In de analyse wordt de verschoven afbeelding
     
x1 2 x1 + 2x2
L = +
x2 4 −x1 + 3x2
ook lineair genoemd (deze stuurt 0 naar b 6= 0). Laten we duidelijk zijn: wij noemen dit GEEN
lineaire afbeelding als we lineaire algebra doen. Wij mogen die naam wel gebruiken als we analyse
doen.

Ook het volgende is gebruikelijk in de analyse.


Als een vector a in de ruimte gegeven is, dan wor-
den de vectoren (punten) x in de buurt van a aan-
geduidt met
x=a+h
(met h in de buurt van 0). In de analyse zeggen
we dat er in a een “lokaal coördinatenstelsel”) ge-
kozen is.
Op deze manier kan een verschoven lineaire afbeel-
ding verkregen worden waarbij a naar een voorge-
schreven vector b verzonden moet worden, door

zowel bij a als bij b een lokaal coördinatenstelsel te kiezen en te schrijven:


L(a + h) = b + Ah (1)
(Hierbij is A een geschikt gekozen matrix die de lineaire afbeelding bepaald.) Men kan ook schrij-
ven:
L(x) = b + A(x − a). (2)
Voorbeeld 9.11. Beschouw de lineaire afbeelding T : R3 → R2 met:
   
x1     x1
2x1 + x2 − x3 2 1 −1
T  x2  = =  x2 
−x1 + 2x2 + x3 −1 2 1
x3 x3
 
  1  
2 1 −1 1
Kennelijk is de standaardmatrix [T ] = . Merk ook op dat T   2   = .
−1 2 1 6
3
Stel
we willen
 deze lineaire afbeelding verschuiven tot afbeelding met naam L zodanig dat
1  
2
L  2  = . Hoe doen we dat?
2
3
De twee formules worden hier boven beschreven. Er zijn dus twee manieren van aanpak. Of:
     
1 h1     h1
2 2 1 −1
L  2  +  h2  = +  h2 
2 −1 2 1
3 h3 h3
9.3. Lineaire afbeeldingen in de analyse 83

of te wel:    
1 h1  
2 + 2h1 + h2 − h3
L  2 + h2
   =
2 − h1 + 2h2 + h3
3 h3
De tweede schrijfwijze levert:
   
x1     x1 − 1
2 2 1 −1
L   x2   = +  x2 − 2 
2 −1 2 1
x3 x3 − 3

en dus  
x1  
1 + 2x1 + x2 − x3
L  x2  = .
−4 − x1 + 2x2 + x3
x3

Een constructie die in de analyse veel voor komt is een gegeven functie, zeg van F : R2 → R3
te lineariseren in een punt P , de zogeheten beste lineaire benadering van F in P . Wat beste
betekend leert u bij analyse, we beschrijven hier alleen dat dit alles standaardkennis betreft uit de
lineaire algebra.

Voorbeeld 9.12. We beschouwen de functie:


 
  x1 2 − 3x2  
x1 x2  1
F =  4x2 − e in het punt P = (1, 0) of liever P = .
x2 0
ln(x1 ) + x2 2 + 1
 
  1
1
Omdat F =  3  zal de linearisering een verschoven lineaire afbeelding L worden
0
1
 
  1
1
met de eigenschap: L =  3 . Het enige probleem dat rest is de standaardmatrix te
0
1
verzinnen
 van de lineaire
 afbeelding. Dit blijkt de Jacobiaan
 J in het punt P te zijn. Omdat
2x1 −3 2 −3
J = 4 −ex2  is de gezochte standaardmatrix:  4 −1 . Daarom: de linearisering van
1/x1 2x2 1 0
de functie F in het punt P wordt in schrijfwijze (1):
     
    1 2 −3   1 + 2h1 − 3h2
1 h1 h1
L + =  3  +  4 −1  =  3 + 4h1 − h2 
0 h2 h2
1 1 0 1 + h1

Schrijfwijze (2) levert:


    
  1 2 −3   −1 + 2x1 − 3x2
x1 x1 − 1
L =  3  +  4 −1  =  −1 + 4x1 − x2 
x2 x2
1 1 0 1 + x1

Voor verdere informatie over “verschoven lineaire afbeeldingen” en “lineariseringen” verwijzen we


naar de colleges analyse 2,3 en differentiaalvergelijkingen.
84 College 9, Lineaire afbeeldingen en deelruimten

9.4 Lineaire deelruimten van Rn


We zijn in de voorafgaande colleges het begrip “Span van een stel vectoren v1 . . . vk ” tegengekomen
en we stellen de vraag: “Hoe zijn deelverzamelingen van Rn die van de vorm Span{v1 . . . vk } te
herkennen?”, d.w.z. wat zijn de algebraı̈sch kenmerkende eigenschappen van deze deelverzamelin-
gen.

STELLING 9.13. Laat v1 , . . . , vk een stelsel vectoren zijn in Rn . Dan geldt dat:

W = Span{v1 , . . . , vk }

de volgende eigenschappen heeft:


1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 ∈ W (voor alle w1 , w2 ∈ W )
3. Als w ∈ W en c ∈ R dan ook cw ∈ W (voor iedere w ∈ W en c ∈ R).

Bewijs: Om eigenschap 1. te controleren, zeggen we eenvoudig dat


0 = 0v1 + · · · + 0vk
en dus is 0 een lineaire combinatie van v1 , . . . , vk , d.w.z. 0 ∈ Span{v1 , . . . , vk } = W .
Om eigenschap 2 te controleren, kiezen we twee vectoren w1 , w2 uit W , zeg:
w1 = c1 v1 + · · · + ck vk en w2 = d1 v1 + · · · + dk vk .
Dan:
w1 + w2 = (c1 v1 + · · · + ck vk ) + (d1 v1 + · · · + dk vk ) =
= (c1 + d1 )v1 + · · · + (ck + dk )vk
Hier staat dat w1 +w2 een lineaire combinatie is van v1 , . . . , vk , d.w.z. w1 +w2 ∈ Span{v1 , . . . , vk } =
W en aan eigenschap 2. is dus voldaan.
Tenslotte eigenschap 3. Kies daartoe w ∈ W , zeg w = c1 v1 + · · · + ck vk en kies c ∈ R Dan:
cw = c(c1 v1 + · · · + ck vk ) = (cc1 )v1 + · · · + (cck )vk
en ook hier staat dat cw een lineaire combinatie is van v1 , . . . , vk , d.w.z. cw ∈ Span{v1 , . . . , vk } =
W en aan eigenschap 3 is dus voldaan.

Zouden deze drie eigenschappen op zich voldoende zijn om de deelverzamelingen van type “Span
van een stel vectoren”te karakteriseren? We definieren:

Definitie: Een deelverzameling W van Rn heet een lineaire deelruimte van Rn , indien:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 ∈ W (voor alle w1 , w2 ∈ W )
3. Als w ∈ W en c ∈ R dan ook cw ∈ W (voor iedere w ∈ W en c ∈ R).
9.4. Lineaire deelruimten van Rn 85

We zeggen dat de lineaire deelruimte W gesloten is onder optelling en scalaire vermenigvuldiging.


Daarmee is W ook gesloten onder het nemen van lineaire combinaties, d.w.z. als w1 , . . . , wn ∈ W
en c1 . . . cn ∈ R, dan ook:
c 1 w1 + · · · + c n wn ∈ W
Tenslotte, lineaire deelruimten worden ook wel kortweg deelruimten genoemd.

Voorbeeld 9.14. Rn bevat zeker lineaire deelruimten. Twee, wellicht flauwe, voorbeelden zijn:

1. W = {0} ⊂ Rn , het deel van Rn dat alleen de nulvector bevat. Het is makkelijk na te gaan
dat dit inderdaad aan de eisen van “lineaire deelruimte van Rn zijn” voldoet. Dit is kennelijk
de kleinste lineaire deelruimte van Rn .

2. W = Rn ⊂ Rn , het deel van Rn dat alle vectoren bevat van Rn . Ook hier is het makkelijk
na te gaan dat dit inderdaad aan de eisen van lineaire deelruimte van Rn zijn voldoet. Dit
is kennelijk de grootste lineaire deelruimte van Rn .

Deze twee lineaire deelruimten worden ook wel de “triviale deelruimten” van Rn genoemd. Merk
op dat deze beide deelruimte ook van het type ”Span” zijn. Inderdaad: W = {0} = Span{0} en
W = Rn = Span{e1 , . . . , en }.

De volgende stelling zegt dat we ons doel bereikt hebben.

STELLING 9.15. De lineaire deelruimten van Rn zijn precies de deelverzamelingen van de


vorm W = Span{v1 , . . . , vk }.

Bewijs: Stelling 9.13 laat zien dat iedere verzameling van de vorm W = Span{v1 , . . . , vk } een
lineaire deelruimte is.
Omgekeerd is lastiger. Stel dat W een lineaire deelruimte is van Rn . Als W = {0} dan W =
Span{0} en zijn we klaar. Zo niet, kies vector v1 ∈ W met v1 6= 0.
Nu geldt zeker Span{v1 } ⊂ W . Als W = Span{v1 } dan zijn we klaar, zo niet kies v2 ∈ W met
v2 ∈/ Span{v1 }.
Nu geldt zeker Span{v1 , v2 } ⊂ W . Als W = Span{v1 , v2 } dan zijn we klaar, zo niet kies v3 ∈ W
met v3 ∈ / Span{v1 , v2 }.
Dit proces stopt als op een bepaald moment geldt: W = Span{v1 , . . . , vk } (en dan zijn we klaar).
De vraag is echter: zal dit proces stoppen? Zo niet, dan zijn de vectoren v1 , . . . , vk , . . . zo gekozen
dat v1 6= 0 en zo dat vk+1 ∈ / Span{v1 , . . . , vk }, voor alle k.
Wij claimen dat de eerste n + 1 vectoren v1 , . . . , vn+1 lineair onafhankelijk zijn. Om dit aan te
tonen stel dat
c1 v1 + · · · + cn+1 vn+1 = 0
Er moet gelden dat cn+1 = 0, want zo niet, dan
c1 cn
vn+1 = − v1 − · · · − − vn
cn+1 cn+1

en dus vn+1 ∈ Span{v1 , . . . , vn }. Maar dat was dus niet het geval.
Als cn+1 = 0 dan geldt:
c1 v1 + · · · + cn vn = 0
en hetzelfde argument als net laat zien dat cn = 0. We gaan zo door totdat cn+1 = cn = cn−1 =
· · · = c2 = 0 en we concluderen dat c1 v1 = 0. Maar dan ook c1 = 0 want v1 6= 0.
86 College 9, Lineaire afbeeldingen en deelruimten

We hebben de claim bewezen: v1 , . . . , vn+1 zijn lineair onafhankelijk. Maar ook dat kan weer niet
want Rn bevat niet n + 1 lineair onafhankelijke vectoren. Dus ergens zit een foute veronderstelling,
en dat kan alleen nog maar zijn dat het proces boven beschreven niet zou stoppen. Als deze
veronderstelling fout is, dan moet dit ptoces dus wel stoppen. En als dit proces na stap k stopt,
dan weten we W = Span{v1 , . . . , vk }
College 10, Deelruimten(vervolg)

10.1 Basis van een deelruimten


Herinner dat we in het vorige college het begrip lineaire deelruimte van Rn hebben ingevoerd. Om
precies te zijn:

Definitie: Een deelverzameling W van Rn heet een lineaire deelruimte van Rn , indien:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 ∈ W (voor alle w1 , w2 ∈ W )
3. Als w ∈ W en c ∈ R dan ook cw ∈ W (voor iedere w ∈ W en c ∈ R).

We hebben ingezien dat de lineaire deelruimten precies de deelverzamelingen van Rn zijn van
de vorm Span{v1 , . . . , vk }. Dan ligt het voor de hand om een gegeven deelruimte W met zo
min mogelijk vectoren op te spannen. We zoeken een manier om deze “zo goedkoop mogelijke
opspanning” te beschrijven.

Definitie: Laat W een lineaire deelruimte van Rn zijn. Het stelsel

B = ( b1 , . . . , bk )

vectoren in W heet een basis voor W, als


1. Span B = Span( b1 , . . . , bk ) = W (B spant W op),
2. Het stelsel ( b1 , . . . , bk ) is lineair onafhankelijk.

(Merk op dat de notatie B = ( b1 , . . . , bk ) impliceert dat de volgorde van de basisvectoren van


belang kan zijn.)
Omdat Rn zelf een lineaire deelruimte van Rn is, kunnen we spreken van een basis van Rn . Het
zal een ieder duidelijk zijn dat
( e1 , . . . , en )
een basis van Rn is. Dit wordt de standaardbasis van Rn genoemd.

87
88 College 10, Deelruimten(vervolg)

LEMMA 10.1. Laat W een lineaire deelruimte zijn van Rn en stel dat W = Span{b1 , . . . , bk }.
Dan geldt: als {v1 , . . . , vℓ } een onafhankelijke verzameling vectoren in W is, dan ℓ ≤ k.

Bewijs: Omdat de verzameling {b1 , . . . , bk } de deelruimte W opspannen (het hoeft geen basis te
zijn) geldt: iedere vector ci is te schrijven als ci = a1,i b1 + · · · , ak,i bk (i = 1, . . . , ℓ.)
Kennelijk: als B = [ b1 . . . bk ], A = [aj,i ] en C = [ c1 . . . cℓ ], dan geldt:

BA = C

Merk op dat A een k × ℓ matrix is.


Bovendien geldt: Als Ax = 0 dan geldt: Cx = BAx = B0 = 0 en omdat de kolommen van C
onafhankelijk zijn, volgt x = 0.
De eigenschap Ax = 0 ⇒ x = 0 impliceert dat de kolommem van de k × ℓ matrix A ook onafhan-
kelijk zijn, en dus: ℓ ≤ k.

Als belangwekkend gevolg van dit lemma verkrijgen we:

STELLING 10.2. Laat W een lineaire deelruimte zijn van Rn en laat B = ( b1 , . . . , bk ) een
basis zijn van W, evenals C = ( v1 , . . . , vℓ ). Dan geldt: k = ℓ.

Bewijs: Uit het vorig lemma volgt dat ℓ ≤ k. Als we de rol van de vectoren bi en cj verwisselen
in het vorig lemma volgt: k ≤ ℓ. Dus ℓ = k.

Omdat ieder tweetal bases van een lineaire deelruimte W evenveel vectoren bevat, kunnen we aan
dit aantal een naam toekennen.

Definitie: Laat W een lineaire deelruimte zijn van Rn . Het aantal vectoren in een basis
van W heet de dimensie van W en wordt genoteerd met dim(W ). De dimensie van de
deelruimte {0} wordt 0 gedefinieerd.

De triviale deelruimte {0} heeft officieel geen basis (waarom niet?) en daarom wordt, in boven-
staande definitie van dimensie, de dimensie van deze ruimte apart gegeven.

STELLING 10.3. dim(Rn ) = n


10.1. Basis van een deelruimten 89

STELLING 10.4. (De uitdunningsstelling)


Zij W een lineaire deelruimte van Rn . Dan geldt: iedere W opspannende verzameling kan
worden uitgedund tot een basis van W .

Bewijs: Stel dat W = Span{a1 , . . . , ak }. Mocht vector ai bestaan zodat W = Span{a1 , . . . , ai−1 , ai+1 , . . . , ak },
dan gooien we ai uit de opspannende verzameling. We gaan door met vectoren uit de opspannende
verzameling te gooien totdat dit niet meer kan. Dus dan

W = Span{ai1 , . . . , aiℓ }

en stelling 3.7 impliceert dat geen van vectoren aij een lineaire combinatie is van de overigen
vectoren in de opspannende verzameling. Maar dan zijn de vectoren {ai1 , . . . , aiℓ } onafhankelijk,
en dus is
B = {ai1 , . . . , aiℓ }
een basis van W die een uitdunning is van verzameling {a1 , . . . , ak }.

STELLING 10.5. (De uitbreidingsstelling)


Zij W een lineaire deelruimte van Rn . Stel dat {a1 , · · · , aℓ } een verzameling lineair onafhan-
kelijke vectoren in W is. Dan is deze verzameling vectoren uit te breiden tot een basis van
W.

Bewijs: Als W = Span{a1 , · · · , aℓ } dan zijn we klaar en is {a1 , · · · , aℓ } de gezochte basis.


Zo niet, kies vector aℓ+1 ∈ W met

aℓ+1 ∈
/ Span{a1 , · · · , aℓ }

Dan geldt zeker:


Span{a1 , · · · , aℓ , aℓ+1 } ⊂ W.
Als W = Span{a1 , · · · , aℓ , aℓ+1 }, dan zijn we klaar, zo niet dan kiezen we een vector aℓ+2 ∈ W
met
aℓ+2 ∈
/ Span{a1 , · · · , aℓ , aℓ+1 }.
En zo gaan we maar door. Dit is dezelfde constructie als in Stelling 9.15 en hetzelfde bewijs als in
die stelling laat zien dat de vectoren

{a1 , · · · , aℓ , aℓ+1 , aℓ+2 , . . .}

onafhankelijk zullen zijn. Maar dan kunnen dit niet meer dan n vectoren zijn, d.w.z dit proces zal
stoppen. Het proces stopt alleen als

W = Span{a1 , · · · , aℓ , . . . , aℓ+k }

en dan is de basis {a1 , · · · , aℓ , . . . , aℓ+k } gevonden.(Dit is een basis want de vectoren spannen op
en zijn onafhankelijk.)
90 College 10, Deelruimten(vervolg)

GEVOLG 10.6. (De dimensiestelling) Laat W een lineaire deelruimte zijn van Rn met
dim(W ) = k. Dan geldt:
1. Ieder k-tal vectoren in W die W opspannen zijn ook lineair onafhankelijk (en vormen
dus een basis).
2. Ieder k-tal vectoren in W die lineair onafhankelijk zijn spannen W ook op (en vormen
dus een basis)

Bewijs:
1. Stel {a1 , . . . , ak } is een k-tal vectoren in W die W opspannen. Volgens de uitdunningsstelling
kan dit stelsel vectoren worden uitgedund tot een basis (bestaande dus uit k vectoren, want
dim(W ) = k). Maar we beginnen al met k vectoren en dus kan er geen vector worden
weggehaald. Dat kan dus alleen als we al met een basis starten.
2. Stel {a1 , . . . , ak } is een k-tal vectoren in W die onafhankelijk zijn. Volgens de uitbreidingsstel-
ling kan dit stelsel vectoren worden uitgebreid tot een basis (bestaande dus uit k vectoren,
want dim(W ) = k). Maar we beginnen al met k vectoren en dus kan er geen vector aan
worden toegevoegd. Dat kan dus alleen als we al met een basis starten.

Opmerking: Bovenstaand gevolg zegt dat het aangenaam is de dimensie van een deelruimte te
kennen. Dan hoeft minder werk worden verricht om te laten zien dat een bepaalde verzameling
vectoren inderdaad een basis is.

10.2 Deelruimten geassocieerd met een matrix


Met een matrix kunnen verschillende deelruimten geassocieerd worden.

 
A1

Definitie: Laat A een m × n matrix zijn, zeg A = [ a1 . . . an ] =  .. .
. 
Am

1. De kolomruimte van A, notatie Col(A), is de deelruimte van Rm opgespan- nen door


al de kolommen van A. Dus Col(A) = Span{a1 , . . . , an }.
2. De rijruimte van A, notatie Row(A), is de deelruimte van Rn opgespannen door de
rijen van A. Dus Row(A) = Span{A1 , . . . , Am }.

Opmerking: Omdat de rijen van een matrix eigenlijk geen vectoren zijn, wordt met Row(A)
eigenlijk de opspanning van de getransponeerde van de rijen van A bedoeld. Soms is het toch
handig om er als rijen tegenaan te kijken (zie bijvoorbeeld Stelling 10.11). Het zal nu duidelijk
zijn dat:
Row(A) = Col(AT )
10.2. Deelruimten geassocieerd met een matrix 91

Welke vectoren zitten in de kolomruimte van A? Stelling 3.7 geeft ons de volgende stelling.

STELLING 10.7. Laat A = [ a1 . . . an ] een m × n matrix zijn met kolommen ai ∈ Rm . Als


b ∈ Rm , dan zijn equivalent:
1. b ∈ Col(A)
2. b ∈ Span{a1 , . . . , an },
3. Het lineaire stelsel [ a1 . . . an | b ] is consistent,
4. De matrix vergelijking Ax = b heeft een oplossing.

Hoe gedragen de kolomruimte en de rijruimte zich bij het veeg proces? Van college 5 weten we
dat de afhankelijkheids relaties tussen de kolommen blijven bestaan, maar eenvoudige voorbeelden
laten al zien dat de kolomruimte wel verandert tijdens het veeg proces.
   
1 1 1 1
Voorbeeld 10.8. Als A = en B = , dan zijn A en B rijequivalent, maar
1 1 0 0
Col(A) 6= Col(B). Merk op dat Row(A) = Row(B). Dit is geen toeval zoals de volgende stelling
laat zien.

Echter, de rijruimte gedraagt zich mooier bij het vegen. (Dit is nu een stelling die veel moeilijker
te begrijpen is als men Row(A) niet als de opspanning van de rijen van A ziet, maar als Col(AT ).)

STELLING 10.9. Als A en B rijequivalente matrices zijn. Dan geldt: Row(A) = Row(B).

Bewijs: B wordt uit A verkregen via operaties met de rijen, operaties die rijen oplevert binnen
Row(A) en de uiteindelijk verkregen rijen van B zullen lineaire combinaties van de rijen van A
zijn. Dus Row(B) ⊂ Row(A).
Omdat B terug te vegen is naar A geeft dezelfde redenering dat Row(A) ⊂ Row(B). Beide inclusies
tezamen geven de identiteit: Row(A) = Row(B).

Er is nog een belangrijke deelruimte geassociëerd met de matrix A. Daartoe eerst:

STELLING 10.10. Laat A een m × n matrix zijn. Dan geldt dat de verzameling

N = {x ∈ Rn : Ax = 0}

een lineaire deelruimte is van Rn .

Bewijs: We controleren dat N aan de drie eisen voldoet.


Omdat A0 = 0 geldt: 0 ∈ N .
Stel dat w1 ∈ N en w2 ∈ N . Dus Aw1 = 0 en Aw2 = 0 en er volgt:
A(w1 + w2 ) = Aw1 + Aw2 = 0 + 0 = 0
92 College 10, Deelruimten(vervolg)

en dus w1 + w2 ∈ N . Evenzo volgt als c ∈ R:


A(cw1 ) = cAw1 = c0 = 0
en dus zit ook cw1 ∈ N . We concluderen dat N een lineaire deelruimte van Rn is.

Definitie: Laat A een m × n matrix zijn. De nulruimte van A, notatie Nul(A), is de


lineaire deelruimte van Rn bestaande uit al de oplossingen van het homogene stelsel Ax = 0.

Met een m×n matrix A associëren we vier lineaire deelruimten, de deelruimten Col(A) en Nul(AT )
in Rm en de deelruimten Col(AT ) en Nul(A) in Rn . Dit worden de vier “elementaire deelruimten
geassociëerd met A” genoemd.
De ruimte Nul(AT ) wordt ook wel de “linker nulruimte van A” genoemd. Omdat x ∈ Nul(AT ) als
en slechts als AT x = 0 als en slechts als (AT x)T = 0T als en slechts als xT A = 0T .

STELLING 10.11. Als A en B rijequivalente matrices zijn. Dan geldt: Nul(A) = Nul(B).

Bewijs: Dit is een direct gevolg van Stelling 1.15

Zonder bewijs vermelden we de volgende stelling.

STELLING 10.12. Laat W een lineaire deelruimte van Rn zijn. Dan:


1. Er bestaat een n × k matrix A zodat W = Col(A).
2. Er bestaat een ℓ × n matrix B zodat W = Nul(B).

Dus als we “alles van kolomruimten zouden weten” dan weten we ook “alles van lineaire deelruim-
ten”. Evenzo: als we “alles van nulruimten zouden weten”, dan weten we ook “alles van lineaire
deelruimten”.
Tenslotte zullen we aangeven hoe een basis voor een lineaire deelruimte te construeren is. Dit
hangt natuurlijk af van hoe de lineaire deelruimte W in kwestie ons voorgeschoteld is. Beschouw
het volgende voorbeeld.
         
1 1 2 0 0
 1 
, a2 =  1 , a3 =  2 , a4 =  0  en a5 =  0 .
       
Voorbeeld 10.13. Beschouw a1 =   1   1   1   1   1 
1 2 1 2 1
Merk op dat geldt Span{a1 , a2 , a3 , a4 , a5 } = Col(A) met:
 
1 1 2 0 0
 1 1 2 0 0 
A=  1 1 1 1 1 

1 2 1 2 1
10.2. Deelruimten geassocieerd met een matrix 93

Vraag: Bepaal bases voor zowel Col(A), Row(A) als Nul(A).


Antwoord Vegen leert ons dat:
   
1 1 2 0 0 1 0 0 1 2
 1 1 2 0 0   0 1 0 1 0 
A=  1 1
∼ =B
1 1 1   0 0 1 −1 −1 
1 2 1 2 1 0 0 0 0 0
Stelling 4.5, leert ons dat de pivotkolommen van de oorspronkelijke matrix een minimaal stelsel is
met dezelfde opspanning en Stelling 4.8 leert ons dat die pivotkolommen onafhankelijk zijn.
Kortom ( a1 , a2 , a3 ) vormt een basis voor Col(A).
We leren hieruit dat de pivotkolommen van de oorspronkelijke matrix A een basis vormen voor
de kolomruimte van A.
(De pivotkolommen van de geveegde matrix B zitten i.h.a. niet in Col(A) en zullen dus zeker geen
basis vormen voor Col(A)!)
Wat betreft Row(A) het volgende. In de eerste plaats geldt Row(A) = Row(B). Omdat het
duidelijk zal zijn dat het stelsel van pivotrijen van een matrix B in echelonvorm lineair onafhankelijk
zijn, geldt dat dit stelsel een basis voor Row(B) is. We concluderen dat ( B1 , B2 , B3 ) een basis voor
Row(A) is. We leren hieruit dat de pivotrijen van de geveegde matrix (mits naar echelonvorm)
een basis vormen voor de rijruimte van A.
(Merk op: in dit voorbeeld vormen de pivotrijen van de oorspronkelijke matrix A geen basis voor
Row(A). Ze zijn niet onafhankelijk, want A1 = A2 .)
Merk ook op dat de basis die gevonden is voor Row(A) geen uitdunning is van de rijen van A tot
een basis. Wil men dat bereiken dan zit er niets anders op dan Row(A) = Col(AT ) gebruiken en
AT naar echelonvorm te vegen.
Tenslotte, om een basis voor Nul(A) te bepalen, lossen we het stelsel Ax = 0 op. Dit is equivalent
met Bx = 0. Dit levert:
     
−x4 − 2x5 −1 −2

 −x4 
 −1 
 
 −1 
 
x=  x4 + x5  = x4  1  + x5 
  
 1 

 x4   1   0 
x5 0 1
   
−1 −2
 −1   −1 
   
 1  ,  1  van de oplossing Nul(A)
Dit betekent dat het stelsel “richtingsvectoren” S =     
 1   0 
0 1
opspant en omdat S een onafhankelijke verzameling is, is het stelsel S een basis voor Nul(A).

Conclusie Een effectieve procedure om een basis te bepalen voor Col(A),


Row(A) = Col(AT ) en Nul(A):
1. Veeg A naar een matrix B in echelonvorm.
2. De pivotkolommen van de oorspronkelijke matrix A vormen een basis voor Col(A).
3. De pivotrijen (of liever, de getransponeerde van de pivotrijen) van de geveegde matrix
B vormen een basis voor Row(A).
4. De richtingsvectoren van de oplossing Ax = 0 vormen een basis voor Nul(A).
94 College 10, Deelruimten(vervolg)
College 11, Rang van een matrix.
Eigenwaarden matrix.

11.1 De rang van een matrix


Herinner dat we in het vorige college het begrip basis en dimensie van lineaire deelruimte van Rn
hebben ingevoerd. Ook is uitgelegd hoe bij een gegeven matrix A een basis voor de kolomruimte
Col(A) (en ook de rijruimte Row(A)) te bepalen is, en dit levert direct de volgende stelling op:

STELLING 11.1. Laat A een m × n matrix zijn. Dan geldt:


1. dim(Col(A))=aantal pivotposities van A (=aantal gebonden variabelen van stelsel Ax =
0).
2. dim(Row(A))=aantal pivotposities van A.
3. dim(Col(A)) = dim(Row(A)).

Bewijs: We volgen de constructie van een basis voor Col(A) en Row(A). Veeg A naar een matrix
B in echelonvorm. De pivotkolommen van A vormen een basis van Col(A) en hieruit volgt de
eerste claim. De pivotrijen (of liever, de getransponeerde van de pivotrijen) van B vormen een
basis van Row(A) en hieruit volgt de tweede claim. Hiermee is de derde claim triviaal.

De constructie van een basis voor de nulruimte een matrix A levert direct de volgende stelling op:

STELLING 11.2. Laat A een m × n matrix zijn. Dan geldt:


dim(Nul(A))=aantal vrije variabelen van het stelsel Ax = 0.

Definitie: Laat A een m × n matrix zijn.


De rang van A is de dimensie van de kolomruimte van A. Notatie: rang(A).
De nullity van A is de dimensie van de nulruimte van A. Notatie: nullity(A)

95
96 College 11, Rang en eigenwaarde van een matrix

En dus leveren Stelling 11.1 en Stelling 11.2 de volgende stellingen.

STELLING 11.3. Laat A een m × n matrix zijn. Dan geldt:

1. rang(A) = rang(AT )
2. rang(A) ≤ n en rang(A) ≤ m
3. rang(A) + nullity(A) = n.

Pas op: als A een m × n matrix is dan geldt:


rang(AT ) + nullity(AT ) = m.
Een reden waarom de rang van een matrix veel gebruikt wordt, zit onder andere in de volgende
resultaten.

STELLING 11.4. Laat A = [ a1 . . . an ] een m × n matrix zijn. Dan geldt:


1. De kolommen van A zijn lineair onafhankelijk als en slechts als rang(A) = n.
2. De kolommen van A spannen Rm op als en slechts als rang(A) = m.

Bewijs:
1. Als de kolommen van A lineair onafhankelijk is, dan is ( a1 . . . an ) een basis van Col(A) =
Span{a1 . . . an } en dus is rang(A) = dim(Col(A)) = n.
Omgekeerd, stel rang(A) = dim(Col(A)) = n. Omdat {a1 . . . an } opspannen is deze ver-
zameling vectoren uit te dunnen tot een basis. Maar omdat dim(Col(A)) = n kan geen
enkele vector weggegooid worden, d.w.z. {a1 . . . an } is al een basis en dus zijn de kolommen
onafhankelijk.
2. Dit is een opgave.

De volgende stelling wil vaak handig zijn.

STELLING 11.5. Laat A een m × n en B een n × k matrix zijn. Dan geldt:


1. rang(AB) ≤ rang(A).
2. rang(AB) ≤ rang(B).

Bewijs:
1. Volgens de kolomvisie van het product is iedere kolom van AB een lineaire combinatie van
kolommen van A, en dus Col(AB) ⊂ Col(A). Maar dan volgt: rang(AB) ≤ rang(A).
11.2. Eigenwaarden, Eigenvectoren en Eigenruimten 97

2. Volgens de rijvisie van het product is iedere rij van AB een lineaire combinatie van de rijen
van B, en dus Row(AB) ⊂ Row(B). Maar dan volgt: rang(AB) ≤ rang(B).

GEVOLG 11.6. Laat A een m × n matrix zijn met m 6= n. Dan bestaat er geen n × m
matrix B zodat AB = Im en BA = In .

Bewijs: Neem een m × n matrix A en een n × m matrix B. Omdat m 6= n mogen we stellen:


m > n. Merk op dat rang(Im ) = m en rang(AB) ≤ rang(A) ≤ n < m, en dus AB 6= Im , want
de matrices AB en Im hebben een verschillende rang. (Als n > m dan AB = In is niet mogelijk.)
Hiermee is de claim bewezen.

11.2 Eigenwaarden, Eigenvectoren en Eigenruimten

Definitie: Stel dat A een n × n matrix is.


Een vector x ∈ Rn heet een eigenvector van A als x 6= 0 en als een λ ∈ R bestaat zodat

Ax = λx.

Een getal λ ∈ R heet een eigenwaarde van A als er een x 6= 0 in Rn bestaat met Ax = λx.
(Die vector x heet dan een eigenvector bij de eigenwaarde λ.)
De verzameling van alle eigenwaarden van A heet het spectrum van A.

Het is historisch bepaald om voor eigenwaarden de letter λ te gebruiken.


Om na te gaan of een gegeven vector x bij een gegeven matrix A een eigenvector is, ja of nee,
hoeven we slechts naar de definitie te kijken.
 
3 1
Voorbeeld 11.7. Beschouw de matrix A = . Ga van ieder van de volgende vectoren
3 1
       
2 1 1 0
x0 = , x1 = , x2 = en x3 =
1 1 −3 0

na of ze een eigenvector zijn van A.


1. De vector x0 is geen eigenvector van A, want
      
3 1 2 7 2
Ax0 = = 6= λ , voor elke λ ∈ R.
3 1 1 7 1
      
3 1 1 4 1
2. Omdat Ax1 = = =4 = 4x1 , is de vector x1 wel een eigenvector
3 1 1 4 1
van A en wel bij de
 eigenwaarde
 λ= 4.
     
3 1 1 0 1 1
3. Omdat Ax2 = = =0 = 0x2 , is de vector x2 = ook een
3 1 −3 0 −3 −3
eigenvector van A en wel bij de eigenwaarde λ = 0.
98 College 11, Rang en eigenwaarde van een matrix

 
0
4. Tenslotte, de vector x3 = is geen eigenvector van A (ondanks dat A0 = 10), want bij de
0
definitie van het begrip eigenvector is de nulvector uitgesloten.
Merk op: we hebben inmiddels aangetoond dat λ = 2 en λ = 0 eigenwaarden van de matrix A
zijn. Op dit moment is niet duidelijk of A nog meer eigenwaarden heeft.

Opmerking: Een eigenvector van een matrix mag dus niet de nulvector zijn. Echter, het getal
nul kan wel een eigenwaarde van een matrix zijn!

Het is iets lastiger na te gaan of een gegeven getal een eigenwaarde is van een geven matrix.
 
1 2
Voorbeeld 11.8. Beschouw de matrix A = . Ga na of de getallen λ = 5 en λ = 1
4 3
eigenwaarden zijn van de matrix A.
1. Het getal
 λ=  5 is een eigenwaarde van A als er een x 6= 0 bestaat, zodat Ax = 5x. Uitschrijven
x1
met x = geeft ons het stelsel:
x2
 
x1 + 2x2 = 5x1 −4x1 + 2x2 = 0
equivalent:
4x1 + 3x2 = 5x2 4x1 − 2x2 = 0

en de vraag is of dit tweede homogene stelsel een niet-triviale oplossing heeft. Dit worden
  we
1
inmiddels geacht te kunnen beantwoorden, los het stelsel op en zie bijvoorbeeld dat x = een
2
niet triviale oplossing is. Dus λ = 5 is een eigenwaarde van A. Merk ook op dat de niet triviale
oplossingen
  van dit stelsel precies al de eigenvectoren van A bij λ = 5 zijn, i.h.b. is de vector
1
x= een eigenvector van A bij de eigenwaarde λ = 5.
2
2. Het getal λ = 1 is een eigenwaarde van A als er een x 6= 0 bestaat, zodat Ax = x. Uitschrijven
levert:
 
x1 + 2x2 = x1 2x2 = 0
equivalent:
4x1 + 3x2 = x2 4x1 + 2x2 = 0

en het zal een ieder duidelijk zijn dat er geen niet-triviale oplossing is van dit stelsel, m.a.w. λ = 1
is geen eigenwaarde van A.

Algemeen geldt voor een n × n matrix A:

λ ∈ R is eigenwaarde van A als en slechts als Ax = λx een niet


triviale oplossing heeft.

Het stelsel Ax = λx is te herschrijven (via λx = λIx) tot het lineaire stelsel:

(A − λI)x = 0

en we concluderen:
11.2. Eigenwaarden, Eigenvectoren en Eigenruimten 99

LEMMA 11.9. Stel dat A een n × n matrix is. Dan:

1. λ ∈ R is eigenwaarde A als en slechts als het stelsel (A − λI)x = 0 een niet triviale
oplossing heeft.
2. Als λ0 ∈ R een eigenwaarde van A is, dan zijn de eigenvectoren van A bij de eigenwaarde
λ0 precies de niet triviale oplossingen van het stelsel: (A − λ0 I)x = 0.

Definitie: Laat A een n × n matrix zijn en laat λ0 een eigenwaarde zijn van A. De verza-
meling
{x : Ax = λ0 x}
heet de eigenruimte van λ0 (bij A) en wordt genoteerd met Eλ0 .

Dus: de eigenruimte van de eigenwaarde λ0 is de verzameling eigenvectoren bij λ0 tezamen met de


nulvector. Met deze observatie en Lemma 11.9 verkrijgen we het volgende lemma.

LEMMA 11.10. Laat A een n × n matrix zijn en laat λ0 een eigenwaarde zijn van A. Dan
geldt:
Eλ0 = Nul(A − λ0 I).
I.h.b. geldt dat Eλ0 een lineaire deelruimte van Rn is.

Definitie: Laat A een n × n matrix zijn en laat λ0 een eigenwaarde zijn van A. Dan:
de dimensie van de eigenruimte Eλ0 heet: de meetkundige multipliciteit van λ0 . Als
dim(Eλ0 ) = k schrijven we:
“m.m.(λ = λ0 ) = k”

 
7 1 −2
Voorbeeld 11.11. Laat zien dat λ = 6 een eigenwaarde is van de matrix A =  −3 3 6 ,
2 2 2
bepaal een basis voor de eigenruimte E6 en bepaal de meetkundige multipliciteit van de eigenwaarde
λ = 6.

Antwoord.

Volgens Lemma 11.9 is λ = 6 een eigenwaarde als en slechts als het stelsel (A − 6I)x = 0 een niet
100 College 11, Rang en eigenwaarde van een matrix

 
1 1 −2 0
triviale oplossing heeft. Dit komt overeen met het stelsel  −3 −3 6 0 . Omdat
2 2 −4 0
   
1 1 −2 0 1 1 −2 0
 −3 −3 6 0 ∼ 0 0 0 0 
2 2 4 0 0 0 0 0
zijn er vele niet triviale oplossingen, dus λ = 6 is inderdaad een eigenwaarde van A.
Volgens Lemma 11.10 is E6 = Nul(A − 6I), en kennelijk is de oplossingsverzameling van het stelsel
(A − 6I)x = 0 gelijk aan
          
 −x2 + 2x3   −1 2   −1 2 
E6 =  x2  = x2  1  + x3  0  = Span  1  ,  0 
     
x3 0 1 0 1
   
 −1 2 
Kennelijk is  1  ,  0  een basis van E6 en dus m.m.(λ = 6) = 2.
 
0 1

Een fundamentele eigenschap van eigenvectoren.

STELLING 11.12. Laat A een n × n matrix zijn.


Als v1 , . . . , vp eigenvectoren zijn van A bij de verschillende eigenwaarden λ1 , . . . , λp , dan
zijn de vectoren v1 , . . . , vp lineair onafhankelijk.

Bewijs: We bewijzen dit uit het ongerijmde. Stel de uitspraak is onjuist. Dan is één van de
vectoren een lineaire combinatie van de overigen vectoren. Bovendien kunnen we die overigen
vectoren uitdunnen tot een lineair onafhankelijk stelsel met dezelfde opspanning. We verkrijgen zo
een stel eigenvectoren, zeg: u1 , . . . , uk , uk+1 , bij de verschillende eigenwaarden λ1 , . . . , λk+1 met:
1. u1 , . . . , uk is een onafhankelijk stel vectoren,
2. uk+1 ∈ Span{u1 , . . . , uk }.
3. Aui = λi ui (voor i = 1, . . . , k + 1) met λi 6= λj (voor i 6= j).
Omdat uk+1 ∈ Span{u1 , . . . , uk } bestaan er c1 , . . . , ck zodat:

uk+1 = c1 u1 + · · · + ck uk (11.1)
Vermenigvuldig beiden zijden van vergelijking 11.1 met A, dan verkrijgen we Auk+1 = A(c1 u1 +
· · · + ck uk ) = c1 Au1 + · · · + ck Auk en via 3. verkrijgen we:
λk+1 uk+1 = c1 λ1 u1 + · · · + ck λk uk (11.2)

Vermenigvuldig nu beide zijden van de vergelijking 11.1 met λk+1 en trek daar vergelijking 11.2
van af, dan verkrijgen we:
0 = c1 (λk+1 − λ1 )u1 + · · · + ck (λk+1 − λk )uk (11.3)

en omdat de vectoren u1 , . . . , uk onafhankelijk zijn, volgt


ci (λk+1 − λi ) = 0 voor i = 1, . . . , k
11.2. Eigenwaarden, Eigenvectoren en Eigenruimten 101

en omdat λk+1 − λi 6= 0, voor i = 1, . . . , k, volgt: ci = 0, voor i = 1, . . . , k.


Maar dan zegt vergelijking 11.1 dat uk+1 = 0, en dat is een tegenspraak, want uk+1 is een
eigenvector van A.

GEVOLG 11.13. Een n × n matrix A heeft nooit meer dan n eigenwaarden.

Bewijs: Als er meer dan n eigenwaarden zouden zijn dan zou het kiezen van
bijbehorende eigenvectoren volgens Stelling 11.12 meer dan n lineair onafhankelijke vectoren in Rn
opleveren, hetgeen onmogelijk is.

Enige eigenschappen van eigenvectoren en eigenwaarden.


Uit Lemma 11.9 volgt dat λ = 0 een eigenwaarde van A als en slechts als A − 0I|0 een niet trivial
oplossing heeft. We concluderen met behulp van de inverse matrix stelling:

STELLING 11.14. Laat A een n × n matrix zijn. Dan geldt:


λ = 0 is een eigenwaarde van A als en slechts als de matrix A niet inverteerbaar is.

Enig rekenwerk laat zien:

STELLING 11.15. Laat A een n × n matrix zijn en stel dat x een eigenvector (van A) is
bij de eigenwaarde λ. Dan geldt:
1. Als n ∈ N dan is x een eigenvector van An bij de eigenwaarde λn .
2. Als A inverteerbaar, dan is x een eigenvector van A−1 bij de eigenwaarde λ−1 .

Bewijs: 1. Als Ax = λx, dan:


A2 x = A(Ax) = A(λx) = λAx = λ(λx) = λ2 x
en dus is x een eigenvector van A2 bij de eigenwaarde λ2 . Vervolgens:A3 x = A(A2 x) = . . . . . . = λ3 x
etc. Officiëel zou het bewijs met inductie moeten worden geleverd.
2. Als Ax = λx, dan A−1 (Ax) = A−1 (λx) = λA−1 x. Daarom:
x = λA−1 x en omdat λ 6= 0 volgt: A−1 x = λ−1 x.
102 College 11, Rang en eigenwaarde van een matrix
College 12, De karakteristieke
vergelijking.

12.1 De karakteristieke vergelijking van een matrix


We weten nu hoe we bij een gegeven eigenwaarde λ van A alle eigenvectoren bij λ van A te
bepalen. (Dat is het tweede onderdeel van Lemma 11.9.) Hoe we echter alle eigenwaarden van een
matrix kunnen vinden hebben we nog niet ontdekt. We zullen een methode vinden, echter, via
deze methode lukt het alleen de eigenwaarden van kleine matrices te vinden. Voor grote matrices
kunnen de eigenwaarden slechts benaderd worden via numerieke methoden.
Het eerste onderdeel van Lemma 11.9 levert ons dat λ een eigenwaarde is van A als en slechts
als het stelsel A − λI|0 een niet triviale oplossing heeft, equivalent, als de matrix A − λI niet
inverteerbaar is, en dus:

STELLING 12.1. Laat A een n × n matrix zijn. Dan: de eigenwaarden van A zijn precies
de (reële) oplossingen van de vergelijking

det(A − λI) = 0

De vergelijking: det(A − λI) = 0 heet de de karakteristieke vergelijking van A. Hoe ziet deze
vergelijking eruit?
 
a b
Voorbeeld 12.2. Als A een 2 × 2 matrix, zeg A = dan wordt
c d
a−λ b
det(A − λI) = = (a − λ)(d − λ) − bc = λ2 − (a + d)λ + ad − bc
c d−λ
een kwadratisch polynoom dus. Daarom is de vergelijking det(A − λI) = 0 een kwadratische
vergelijking
λ2 − (a + d)λ + ad − bc = 0
in de variabele λ (althans, bij een 2 × 2 matrix).

Algemeen geldt bij een n×n matrix A dat det(A−λI) een polynoom van de graad n in de variabele
λ wordt, en dit wordt het karakteristieke polynoom van A genoemd. Het karakteristieke
polynoom wordt soms genoteerd met pA (λ). Dus:

pA (λ) = det(A − λI)

En hiermee wordt het bepalen van de eigenwaarden van A het bepalen van de nulpunten van een
polynoom van de graad n.

103
104 College 12, De karakteristieke vergelijking

Voorbeeld 12.3. Als A een 6 × 6 matrix is met gegeven karakteristiek polynoom


pA (λ) = λ6 − 12λ5 + 57λ4 + 138λ3 + 180λ2 − 120λ + 32
dan kunnen knappe mensen dit polynoom ontbinden tot:
pA (λ) = (2 − λ)3 (1 − λ)2 (4 − λ)
en de karakteristieke vergelijking van A wordt:
(2 − λ)3 (1 − λ)2 (4 − λ) = 0
die nu simpel is op te lossen; we zien:
1. λ = 2 is een 3-voudig nulpunt van pA (λ), en dus een eigenwaarde van A.
2. λ = 1 is een 2-voudig nulpunt van pA (λ), en dus een eigenwaarde van A.
3. λ = 4 is een enkelvoudig nulpunt van pA (λ), en dus een eigenwaarde van A.
en hiermee zijn alle eigenwaarden van A gevonden.

STELLING 12.4. De matrices A en AT hebben hetzelfde karakteristiek polynoom en dus


dezelfde eigenwaarden.

Bewijs: Dit volgt uit de eigenschap det(B) = det(B T ) van determinanten. Inderdaad:
pA (λ) = det(A − λI) = det((A − λI)T ) = det(AT − λI) = pAT (λ)
en de conclusie volgt.

Definitie: Als λ = λ0 een k-voudig nulpunt is van pA (λ), dan zeggen we dat λ = λ0 een
eigenwaarde is met algebraı̈sche multipliciteit k. We schrijven:

a.m.(λ = λ0 ) = k.

In Voorbeeld 12.3 krijgen we: λ = 2 is een eigenwaarde van A met algebraı̈sche multipliciteit 3;
evenzo: a.m.(λ = 1) = 2 en a.m.(λ = 4) = 1. Merk op dat de sommatie van al de algebraı̈sche
multipliciteiten van de eigenwaarden van een n × n matrix, n oplevert. Merk ook op dat de
algebraı̈sche multipliciteiten geen enkele informatie over de meetkundige multipiliciteiten van de
eigenwaarden levert, behalve dan die informatie die de volgende stelling geeft. Het bewijs van deze
stelling zullen we niet geven.

STELLING 12.5. Laat A een n × n matrix zijn met eigenwaarde λ = λ0 . Dan geldt:

1 ≤ m.m.(λ = λ0 ) ≤ a.m.(λ = λ0 )
12.1. De karakteristieke vergelijking van een matrix 105

Definitie: Laat A een n × n matrix zijn. Als er een eigenwaarde λ = λ0 bestaat van A met
de eigenschap: m.m.(λ = λ0 ) <a.m.(λ = λ0 ), dan heet A defect(in de eigenwaarde λ0 ).

 
2 4 3
Voorbeeld 12.6. Bepaal van de volgende matrix A =  −4 −6 −3  alle eigenwaarden met
3 3 1
al hun multipliciteiten.
Antwoord.
De karakteristieke vergelijking wordt:

2−λ 4 3


−4 −6 − λ −3 = 0
3 3 1−λ

De variabele λ maakt het vegen lastig. We tellen de eerste rij op bij de tweede rij en ontwikkelen
naar de derde kolom.

2−λ 4 3 2 − λ 4 3


−4 −6 − λ −3 = −2 − λ −2 − λ 0 =
3 3 1−λ 3 3 1−λ

−2 − λ −2 − λ
+ (1 − λ) 2 − λ 4

= +3 =
3 3 −2 − λ −2 − λ

= 3[−6 − 3λ − (−6 − 3λ)] + (1 − λ)[(2 − λ)(−2 − λ) − 4(−2 − λ)] =

= 0 + (1 − λ)(2 + λ)[−(2 − λ) + 4] = (1 − λ)(2 + λ)2


De karakteristieke vergelijking is (1 − λ)(2 + λ)2 = 0 en we zien dat λ = 1, −2 de eigenwaarden
van A zijn met a.m.(λ = 1) = 1 en a.m.(λ = −2) = 2.
Om de meetkundige multipliciteit
 van λ = 1te bepalen, bepalen we eenbasis 
voor E1= Nul(A−I).

1 4 3 0 1  1 
Dus bekijk het stelsel  −4 −7 −3 0 ; oplossen levert: x = x3  −1 , dus  −1  is
 
3 3 0 0 1 1
een basis van E1 , dus m.m.(λ = 1) = 1.
Merk op dat we dit al uit Stelling 12.5 hadden kunnen concluderen, want deze stelling zegt:
1 ≤ m.m.(λ = 1) ≤ a.m.(λ = 1) = 1.
Dezelfde stelling zegt voor λ = −2: 1 ≤ m.m.(λ = −2) ≤ a.m.(λ = −2) = 2. Daarom: om
de meetkundige multipliciteit van λ = −2 te bepalen moeten  we de dimensie van  de eigenruimte
4 4 3 0
E−2 = Nul(A + 2I) echt wel bepalen. Dus bekijk het stelsel  −4 −4 −3 0 ; oplossen levert:
 3 3 3 0
  
1  1 
x = x3  −1 , dus  −1  is een basis van E−2 , dus m.m.(λ = −2) = 1. (Merk op dat voor
 
0 0
het bepalen van de meetkundige multipliciteit het voldoende was het aantal vrije variabelen van
dit stelsel te bepalen.)

Er is een klasse van matrices waarvan de eigenwaarden makkelijk te bepalen is.


106 College 12, De karakteristieke vergelijking

 
1 0 1 1
 0 1 1 1 
 0 0 2 1  met hun multi-
Voorbeeld 12.7. Bepaal de eigenwaarden van de matrix A =  

0 0 0 2
pliciteiten.
Antwoord.
De karakteristieke vergelijking wordt:

1−λ 0 1 1

0 1−λ 1 1
0 = pA (λ) = det(A − λI) = = (1 − λ)2 (2 − λ)2 .
0 0 2−λ 1
0 0 0 2−λ

We concluderen dat λ = 1, 2 de eigenwaarden van A zijn met a.m.(λ = 1) = 2 en a.m.(λ = 2) = 2.


We bepalen ook de meetkundige multipliciteiten.
Voor λ = 1 bekijken we de eigenruimte E1 = Nul(A − 1I). Dit levert het stelsel:
   
0 0 1 1 0 0 0 1 0 0
 0 0 1 1 0   0 0 0 1 0 
 0 0 1 1 0 ∼ 0 0 0 0 0 
   

0 0 0 1 0 0 0 0 0 0

Er zijn twee vrije variabelen, dus m.m.(λ = 1) = 2.


Evenzo bekijken we voor λ = 2 de eigenruimte E2 = Nul(A − 2I). Dit levert het stelsel:
   
−1 0 1 1 0 1 0 −1 0 0
 0 −1 1 1 0   0 1 −1 0 0 
 ∼ 
 0 0 0 1 0   0 0 0 1 0 
0 0 0 0 0 0 0 0 0 0

Er is één vrije variabelen, dus m.m.(λ = 2) = 1.

Dit voorbeeld is een illustratie van de volgende stelling.

STELLING 12.8. Laat A een n × n bovendriehoeks (of onderdriehoeks) matrix zijn. Dan
zijn de kentallen op de diagonaal precies de eigenwaarden van A. Bovendien geldt dat als het
getal λ0
k maal op de diagonaal staat, dan:
a.m.(λ = λ0 ) = k.
Over de meetkundige multipliciteit is niets te zeggen, behalve dat het iedere waarde tussen 1
en k kan aannemen.

Tenlotte nog een opmerking over hoe de nulpunten te bepalen van een derde graads (of hoger)
polynoom. Bekijk de vergelijking:

−λ3 + 9λ2 − 23λ + 15 = 0 (12.4)

Hoe de nulpunten te vinden?


De opgaven die wij maken hebben redelijke eigenwaarden (nulpunten), dus:
12.1. De karakteristieke vergelijking van een matrix 107

stap 1. Probeer de waarden λ = −4, −3, −2, −1, 0, 1, 2, 3, 4.


In dit geval levert proberen λ = 1 op. Dat betekent dat het polynoom in vergelijking 12.4 te
schrijven is als:
(λ − 1)(kwadratisch polynoom)
stap 2. (Uitdelen) Dit kwadratische polynoom is te verkrijgen door het polynoom −λ3 + 9λ2 −
23λ + 15 te delen door λ − 1 via een ouderwetse staartdeling!

λ − 1/ −λ3 + 9λ2 − 23λ + 15 \ − λ2 + 8λ − 15


−λ3 + λ2 −
8λ2 − 23λ + 15
8λ2 − 8λ −
−15λ + 15
−15λ + 15−
0
En dus:
−λ3 + 9λ2 − 23λ + 15 = (λ − 1)(−λ2 + 8λ − 15) (12.5)
2 2
Stap 3. Aangezien −λ + 8λ − 15 = −(λ − 8λ + 15) = −(λ − 3)(λ − 5) verkrijgen we:

−λ3 + 9λ2 − 23λ + 15 = −(λ − 1)(λ − 3)(λ − 5) = 0 (12.6)

en daarmee zijn drie nulpunten λ = 1, 3, 5 gevonden.


108 College 12, De karakteristieke vergelijking
College 13, Gelijkvormigheid en
diagonaliseerbaarheid.

13.1 Gelijkvormigheid van matrices


Aangezien van een bovendriehoeksmatrix de eigenwaarden zo zijn af te lezen, zou het plezierig zijn
een transformatie te hebben die een gegeven matrix A omzet in een matrix B, met behoud van
eigenwaarden, en dan bij voorkeur in een bovendriehoeksmatrix.
We concentreren ons eerst op de transformatie. Dit zal niet het vegen zijn van de matrix, want
vegen bewaart de eigenwaarden niet , zoals een eenvoudig voorbeeld al laat zien.
     
1 1 1 1 ×1 1 1
Voorbeeld 13.1. Als A = en B = = , dan is het eenvoudig na
0 2 0 2 ↓+ 1 3
te gaan dat A en B verschillende eigenwaarden hebben.

Definitie: Stel dat A, B n × n matrices zijn.


De matrices A, B heten gelijkvormig (Engels: similar) als er een inverteerbare matrix P
bestaat zodat
A = P BP −1
Als de matrices A en B gelijkvormig zijn noteren we dit met: A ∼sim B.

LEMMA 13.2. Stel dat A, B en C n × n matrices zijn.


1. A ∼sim A,
2. als A ∼sim B dan B ∼sim A,
3. als A ∼sim B en B ∼sim C dan A ∼sim C.

De volgende stelling laat zien dat we in ons eerste doel geslaagd zijn, de transformatie die A omzet
in P −1 AP (= B) behoudt eigenwaarden.

109
110 College 13, Gelijkvormigheid en diagonaliseerbaarheid.

STELLING 13.3. Gelijkvormige matrices hebben hetzelfde karakteristiek polynoom en daarom


dezelfde determinant en dezelfde eigenwaarden.

Bewijs: Stel dat A ∼sim B, zeg A = P BP −1 , voor zekere P . Dan geldt:

pA (λ) = det(A − λI) = det(P BP −1 − λI) = det(P BP −1 − P λIP −1 ) =

det P (B − λI)P −1 = det P det(B − λI) det(P −1 ) =


det P det(B − λI)(det P )−1 = det(A − λI) = pB (λ).
Inderdaad, A en B hebben hetzelfde karakteristiek polynoom en dus de zelfde eigenwaarden, want
dat zijn de nulpunten van het karakteristiek polynoom. Maar ook: det(A) = pA (0) = pB (0) =
det(B).

De gezochte transformatie is de afbeelding die aan een vierkante matrix A de matrix P AP −1


toevoegd. Die transformatie behoudt eigenwaarden. We vermelden hier dat op deze manier ie-
dere matrix A gelijkvormig is met (getransformeerd kan worden naar) een (misschien complexe)
bovendriehoeksmatrix.

13.2 Diagonaliseerbaarheid van matrices


In deze paragraaf zoeken we naar matrices gelijkvormig met een diagonaalmatrix.

Definitie: Stel dat A een n × n matrix is.


De matrix A heet diagonaliseerbaar als A gelijkvormig is met een diagonaal-
matrix, i.e. er is een diagonaalmatrix D en een matrix P bestaat zodat

A = P DP −1

De factorisering A = P DP −1 van A heet een diagonalisering van A.

Het volgende lemma geeft aan hoe de matrices P en D bij A in bovenstaande definitie er uit zullen
zien.

LEMMA 13.4. Stel dat A een n × n matrix is.


Als P = [ p1 . . . pn ] een (niet noodzakelijk inverteerbare) n×n matrix is en D = diag(d1 , . . . , dn )
een diagonaalmatrix, dan zijn de volgende uitspraken equivalent:
1. AP = P D,
2. Ieder diagonaalkental di van de matrix D heeft de eigenschap: Api = di pi (voor i =
1, . . . , n) (en als pi 6= 0 dan is di dus een eigenwaarde van A).

Bewijs: Merk op dat AP = A[ p1 . . . pn ] = [ Ap1 . . . Apn ].


13.2. Diagonaliseerbaarheid van matrices 111

Ook geldt dat P D = [ p1 . . . pn ]diag(d1 , . . . , dn ) = [ d1 p1 . . . dn pn ] en nu is het duidelijk dat


AP = P D is equivalent met Api = di pi (i = 1, . . . , n). Als we aannemen dat iedere pi 6= 0, is
dit weer equivalent met: iedere di is een eigenwaarde van A en pi is een eigenvector van A bij de
eigenwaarde di .

Als direct gevolg van Lemma 13.4 verkrijgen we de volgende twee stellingen.

STELLING 13.5. Stel dat A een n × n matrix is. Equivalent zijn:


1. De matrix A is diagonaliseerbaar.
2. Er bestaat een basis van Rn geheel bestaande uit eigenvectoren van A.

Bewijs: Stel dat A diagonaliseerbaar is, zeg dat A = P DP −1 met D = diag(d1 , . . . , dn ). Dan
geldt kennelijk dat AP = P D en omdat de matrix P = [ p1 . . . pn ] inverteerbaar is, geldt dat
iedere kolom pi van P ongelijk is aan 0. Omdat P inverteerbaar is, volgt dat B = {p1 , . . . , pn }
een basis van Rn is. Lemma 13.4 geeft ons dat dit een basis van eigenvectoren van A is.
Omgekeerd, zeg dat B = {b1 , . . . , bn } een basis van Rn bestaande uit eigenvectoren van A. Zeg
dat Abi = λ1 bi . We definiëren P = [ b1 . . . bn ] (merk op dat bi 6= 0) en D = diag(λ1 , . . . , λn ) dan
zegt Lemma 13.4 ons dat AP = P D. Maar de matrix P is inverteerbaar, omdat zijn kolommen
onafhankelijk zijn, en dus A = P DP −1 , i.e. A is diagonaliseerbaar.

STELLING 13.6. Stel dat A een n × n matrix is.


Als A n verschillende eigenwaarden heeft, dan is de matrix A diagonaliseerbaar.

Bewijs: Stel dat λ1 , . . . , λn n verschillende eigenwaarden van A zijn. Kies bij iedere eigenwaarde
λi een eigenvector pi , (i = 1, . . . , n). Dan pi 6= 0 en als we schrijven: P = [ p1 . . . pn ] en
D = diag(λ1 , . . . , λn ) dan zegt Lemma 13.4 ons dat AP = P D. Bovendien garandeert Stelling 11.12
dat het stelsel vectoren {p1 , . . . , pn } lineair onafhankelijk is, en dus is de matrix P inverteerbaar.
Maar dan: A = P DP −1 , i.e. A is diagonaliseerbaar.

De voorafgaande Stelling 13.6 geeft al vele voorbeelden van matrices die diagonaliseerbaar zijn.
 
1 1
Voorbeeld 13.7. Beschouw de 2 × 2 matrix A = . Ga na of A diagonaliseerbaar is; zo
0 2
ja, bepaal een diagonalisering.
Antwoord.
Volgens Stelling 12.8 zijn λ = 1, 2 de eigenwaarden van A en dus zegt Stelling 13.6 dat A
diagonaliseerbaar is. Het bewijs van deze stelling geeft tevens aan hoe we een diagonalisering van
A kunnen vinden.  
0 1 0
We bepalen een basis van E1 = Nul(A − I). Dit levert het stelsel met als oplossing
0 1 0
     
x1 1 1
x= = x1 . Dus: is basis E1 .
0 0 0
112 College 13, Gelijkvormigheid en diagonaliseerbaarheid.

 
−1 1 0
Evenzo: een basis van E2 = Nul(A − 2I) verkrijgen we via het stelsel , met als
      0 0 0
x2 1 1
oplossing x = = x2 . Dus: is basis E2 .
x2 1 1
   
1 1 1 0
Als we schrijven P = en D = dan geldt volgens Lemma 13.4 dat AP = P D en
0 1 0 2
omdat P inverteerbaar is geldt: A = P DP −1 . Hiermee is een diagonalisering van A gevonden.

Met behulp van Lemma 13.4 kunnen we ook al matrices construeren die niet diagonaliseerbaar
zijn. We geven twee voorbeelden.
 
1 1
Voorbeeld 13.8. Beschouw de 2 × 2 matrix A = . Ga na of A diagonaliseerbaar is; zo
0 1
ja, bepaal een diagonalisering.
Antwoord.
Volgens Stelling 12.8 is λ = 1 de enige eigenwaarde van A (met a.m.(λ  = 1) = 2).
0 1 0
We bepalen een basis van E1 = Nul(A − I). Dit levert het stelsel met als oplossing
0 0 0
     
x1 1 1
x= = x1 . Dus: is basis E1 . (Dus m.m.(λ = 1) = 1.) Lemma 13.4 vertelt
0 0 0  
1 0
ons nu hoe matrices P, D te maken met AP = P D. Er zal gelden D = en de twee
0 1
 
1
kolommen van P moeten eigenvectoren bij λ = 1 zijn, dus scalaire veelvouden van . Dus
0
kunnen die kolommen niet onafhankelijk gekozen worden, dus P kan niet inverteerbaar gekozen
worden. M.a.w. de matrix A is niet diagonaliseerbaar.
 
2 2 3
Voorbeeld 13.9. Beschouw de 3 × 3 matrix uit Voorbeeld 12.6, A =  −4 −6 −3 . Ga na
3 3 1
of A diagonaliseerbaar is; zo ja, bepaal een diagonalisering.
Antwoord.
In Voorbeeld 12.6 hebben we gezien dat λ = 1, −2 de eigenwaarden van A zijn, en a.m.(λ = 1) = 1
en a.m.(λ = −2) = 2.   
 1   1 
Tevens zagen we dat  −1  een basis is voor E1 ,  −1  is een basis voor E−2 .
   
1 0
Als we een diagonalisering proberen te maken, dan zal P uit eigenvectoren bestaan. Omdat er
drie kolommen en slechts twee eigenruimten zijn, zullen er tenminste twee kolommen uit dezelfde
eigenruimten komen, en dus zullen twee kolommen scalaire veelvouden van elkaar zijn (want beide
eigenruimten hebben dimensie 1). Maar dan zal P niet inverteerbaar zijn. Daarom is A niet
diagonaliseerbaar zijn.
 
1 3 3
Voorbeeld 13.10. Beschouw de 3 × 3 matrix uit Voorbeeld 12.6, A =  −3 −5 −3 . Ga na
3 3 1
of A diagonaliseerbaar is; zo ja, bepaal een diagonalisering.
Antwoord.
Stap 1.
Omdat het niet duidelijk is wat de eigenwaarden van A zijn, bepalen we eerst die eigenwaarden.
1−λ 3 3
−5 − λ −3 −3 −3
pA (λ) = det(A−λI) = −3 −5 − λ −3 = (1−λ)
−3
+
3 1−λ 3 1−λ
3 3 1−λ
13.2. Diagonaliseerbaarheid van matrices 113


−3 −5 − λ
+3 = (1 − λ)[(−5 − λ)(1 − λ) + 9] − 3[−3(1 − λ) + 9] + 3[−9 − 3(−5 − λ)] =
3 3
(1 − λ)(λ2 + 4λ + 4) − 3(3λ + 6) + 3(3λ + 6) = (1 − λ)(λ2 + 4λ + 4) = (1 − λ)(λ + 2)2

Daarom λ = 1, −2 zijn de eigenwaarden van A met a.m.(λ = 1) = 1 en a.m.(λ = −2) = 2.

Stap 2.
Bepaal een basis voor iedere eigenruimte.
 
0 3 3 0
Om een basis voor E1 = Nul(A − I) te bepalen moeten we het stelsel  −3 −6 −3 0 
    3 3 0 0
1  1 
oplossen. Dit levert x = x3  −1  en dit geeft  −1  = {p1 } als basis voor E1 .
 
1 1
 
3 3 3 0
Evenzo bepalen we een basis voor E−2 = Nul(A + 2I) door het stelsel  −3 −3 −3 0  op te
      3 3 3 0
−1 −1  −1 −1 
lossen. Dit levert x = x2  1  + x3  0  en dit geeft  1  ,  0  = {p2 , p3 } als
 
0 1 0 1
basis voor E−2 .

Het is eenvoudig na te gaan dat de drie vectoren p1 , p2 , p3 lineair onafhankelijk zijn. (Men kan
ook een beroep doen op Stelling 13.11.)

Stap 3.    
1 −1 −1 1 0 0
Als P = [ p1 p2 p3 ] =  −1 1 0 , dan is P inverteerbaar en als D =  0 −2 0  dan
1 0 1 0 0 −2
geldt volgens Lemma 13.4 dat A = P DP −1 , i.e. A is diagonaliseerbaar.

De volgende stelling is een (niet al te makkelijke) opgave.

STELLING 13.11. Laat A een n×n matrix zijn met (verschillende) eigenwaarden λ1 , . . . , λk .
Als Bi een basis is van de eigenruimte Eλi (i = 1, . . . , k), dan is

B1 ∪ . . . ∪ Bk

een onafhankelijke verzameling vectoren in Rn .

Deze stelling levert:


114 College 13, Gelijkvormigheid en diagonaliseerbaarheid.

STELLING 13.12. Stel dat A een n × n matrix is. Equivalent zijn:

1. De matrix A is diagonaliseerbaar.
2. (a) Al de nulpunten van het karakteristiek polynoom pA (λ) zijn reëel,
(b) voor iedere eigenwaarde λ = λ0 van A geldt: m.m.(λ = λ0 ) =a.m.(λ = λ0 ).
3. De sommatie van de meetkundige multipliciteiten van de eigenwaarden is n.

Als dit laatste het geval is, dan kunnen de matrices P, D verkregen worden door alle vectoren
uit gekozen bases van de eigenruimten bij elkaar te stoppen in één matrix P en in D de
eigenwaarden overeenkomstig op de diagonaal te zetten.

13.3 Toepassingen van diagonalisering.


Bepaling An , voor een diagonaliseerbare matrix A
Merk op dat voor een diagonaalmatrix D, de matrix Dn makkelijk te bepalen is. Men kan veri-
fieëren dat:
(diag(d1 , . . . , dk ))n = diag(dn1 , . . . , dnk )
Maar als A = P DP −1 dan:
An = (P DP −1 )n = (P DP −1 )(P DP −1 ) . . . (P DP −1 ) = P D(P −1 P )D . . . D(P −1 P )DP −1 = P Dn P −1
dus:
(P DP −1 )n = P Dn P −1

Conclusie: Voor een diagonaliseerbare matrix A is de matrix An simpel te bepalen.


 
n 1 1
Voorbeeld 13.13. Bepaal A voor de matrix A = uit Voorbeeld 13.7. Volgens dit
0 2
voorbeeld geldt:
   −1
1 1 1 0 1 1
A = P DP −1 =
0 1 0 2 0 1
Daarom:
     
n n −1 1 1 1n 0 1 −1 1 −1 + 2n
A = PD P = = .
0 1 0 2n 0 1 0 2n

Discrete lineaire dynamische systemen


Een andere toepassing van eigenwaarden en eigenvectoren is te vinden bij een zo-
geheten dynamisch systeem.
Hierbij is een vaste n × n matrix A gegeven en een startvector x0 . Vervolgens wordt de volgende
rij vectoren gebouwd: x1 = Ax0 , x2 = Ax1 , x3 = Ax2 , . . . Kortom via de formule:

xn+1 = Axn

wordt de rij vectoren {xn }n≥0 recursief gedefinieëerd bij gegeven startvector x0 . Het doel is een
expliciete formule voor de vector xn te vinden.
13.3. Toepassingen van diagonalisering. 115

Als x0 een eigenvector van A is, zeg bij de eigenwaarde λ0 dan is dit niet moeilijk. Inderdaad,
x1 = Ax0 = λ0 x0 , x2 = Ax1 = A(λ0 x0 ) = λ0 Ax0 = λ20 x0 . Etc. Kortom:

xn = λn0 x0

Als x0 een lineaire combinatie van eigenvectoren van A is, zeg

x0 = c1 v1 + · · · + ck vk

(met vi een eigenvector van A bij de eigenwaarde λi (i = 1 . . . k)), dan:

x1 = Ax0 = A(c1 v1 + · · · + ck vk ) = c1 Av1 + · · · + ck Avk = c1 λ1 v1 + · · · + ck λk vk .

x2 = Ax1 = A(c1 λ1 v1 + · · · + ck λk vk ) = c1 λ1 A(v1 ) + · · · + ck λk A(vk ) = c1 λ21 v1 + · · · + ck λ2k vk


Kortom:
xn = c1 λn1 v1 + · · · + ck λnk vk

Merk op dat als A diagonaliseerbaar is, dat dan zeker x0 een lineaire combinatie van eigenvectoren
van A is. (Waarom?)
   
1 1/2 4
Voorbeeld 13.14. Beschouw de matrix A = en de startvector x0 = .
0 1/2 3
Vraag: Bepaal een formule voor de recursieve rij {xn }n≥0 met xn+1 = Axn en zo mogelijk lim xn .
  n→∞
1
Antwoord: Ga zelf na dat λ = 1 een eigenwaarde is van A en dat een basis van E1
  0
1
is; λ = 1/2 een eigenwaarde is van A en dat een basis van E1/2 is. We schrijven
−1
     
4 1 1
de startvector als lineaire combinatie van de eigenvectoren: = c1 + c2 levert
3 0 −1
c1 = 7 en c2 = −3. Daarom:
     
1 1 7 − 3(1/2)n
xn = 7(1)n + (−3)(1/2)n =
0 −1 3(1/2)n

en dus:  
7
lim xn =
n→∞ 0

4. Lineaire recurrentie relaties


De welbekende Fibonacci1 getallen vormen een rij 0, 1, 1, 2, 3, 5, 8, 13, . . . die verkregen wordt door
f0 = 0, f1 = 1 te kiezen en de rest van de rij te berekenen via de formule

fn+1 = fn + fn−1

en hiermee ligt de hele rij vast. Dit is een voorbeeld van een lineaire recurrentie relatie hier van
de orde 2. Het is de bedoeling een expliciete formule voor, in dit geval het Fibonacci getal fn , te
bepalen.
1 Fibonacci (1170-1250) is de bijnaam van Leonardo of Pisa. Hij schreef verschillende belangrijke boeken die

overleefde, waarvan in één het voortplanting-probleem van een rat werd beschreven, die aanleiding gaf tot deze
rij. De Franse wiskundige Edouard Lucas gaf deze rij de naam “de rij van Fibonacci” en sprak van “Fibannacci
getallen”.
116 College 13, Gelijkvormigheid en diagonaliseerbaarheid.

Definitie: Stel dat {pn }n≥0 = {p0 , p1 , p2 , . . .} een rij is, met:
1. p0 , . . . , pk−1 liggen vast,
2. Als n ≥ k dan kan pn berekend worden via de relatie:

pn = c1 pn−1 + c2 pn−2 + · · · + ck pn−k , met ck 6= 0

dan zeggen we dat de rij {pn }n≥0 gegeven wordt door een lineaire recurrentie relatie van de
orde k.

Een expliciete formule voor


 pn kan
 op de volgende manier verkregen
 worden.
p0 pn

Stap 1. Definiëer x0 =  .. 
∈ R k
en x =
 ..  ∈ Rk .
.  n  . 
pk−1 pn+k−1
Stap 2. Dan geldt:    
pn+1 pn+1
xn+1 =
 ..  =  ..  =
.   . 
pn+k c1 pn+k−1 + · · · + ck pn
  
0 1 0 ... pn

 0 0 1 ...  
 pn+1  
 .. .. .. ..   ..  = Axn
 . . . .   . 
ck ck−1 ck−2 . . . pn+k−1
Stap 3. We hebben een discreet
 lineair dynamisch systeem
 verkregen met startvector x0 en matrix
0 1 0 ...
 0 0 1 ... 
 
A= . . .. ..  met xn+1 = Axn .
 .. .. . . 
ck ck−1 ck−2 . . .
Stap 4. Als we hiervan een expliciete formule voor xn kunnen verkrijgen, dan levert het eerste
kental van xn een expliciete formule voor pn .

Voorbeeld 13.15. We bepalen een  expliciete


  formule voorfn uit de
 rij van Fibonacci. Dus:
f0 0 fn
x0 = = en xn = .
f1 1 f
       n+1 
fn+1 fn+1 0 1 fn
Dan geldt: xn+1 = = = = Axn .
fn+2 fn+1 + fn 1 1 fn+1
We proberen x0 als lineaire combinatie van eigenvectoren van A te schrijven. Hiertoe bepalen we
eerst de eigenwaarden van A.
−λ 1 2
1 1−λ =λ −λ−1=0

en dus √ √
λ1 = 12 + 21 5 en λ2 = 12 − 21 5.
Nogal “vervelende” eigenwaarden, die we voor het gemak maar λ1 , λ2 blijven noemen.
 Eλ1 komt uit stelsel:
Basis voor de eigenruimte  +   
−λ1 1 0 ↑ 0 0 0

1 1 − λ1 0 ×λ1 1 1 − λ1 0
13.3. Toepassingen van diagonalisering. 117

 
λ1 − 1
en dit levert als basis voor Eλ1 .
1
 
λ2 − 1
Evenzo is een basis voor de eigenruimte Eλ2 .
1
Schrijven we x0 als lineaire combinatie van de eigenvectoren, zeg:
     
0 λ1 − 1 λ2 − 1
= c1 + c2 ,
1 1 1

dan levert dit het stelsel op:



√ c1 +√c2 = 1
c1 (− 12 + 1
2 5) + c2 (− 12 − 21 5) = 0

1 1√ 1 1√ 1 1√ 1
Merk op: c1 (− + 5) + c2 (− − 5) = 0 ⇒ − (c1 + c2 ) + 5(c1 − c2 ) = 0 ⇒ c1 − c2 = √ .
2 2 2 2 2 2 5
We krijgen zo het nieuwe stelsel 
c1 + c2 = 1
c1 − c2 = √15
1 1 λ1 1 1 λ2
Dit levert c1 = (1 + √ ) = √ en c2 = (1 − √ ) = − √ . Dus:
2 5 5  2 5  5 
λ1 λ1 − 1 λ2 λ2 − 1
x0 = √ −√
5 1 5 1
daarom:    
λ1 λ1 − 1 λ2 λ2 − 1
xn = √ (λ1 )n − √ (λ2 )n .
5 1 5 1
Omdat λ1 (λ1 − 1) = 1 = λ2 (λ2 − 1) volgt de zogeheten formule van Binet2 voor fn :
 n  n
1 1 1√ 1 1 1√
fn = √ + 5 −√ − 5 .
5 2 2 5 2 2

Gekoppelde lineaire differentiaal vergelijkingen


We beginnen met de opmerking dat alle functies in deze subsecties, functies zijn van de variabele
t. Dus als we praten over de functie x of y, dan bedoelen we een functie met functievoorschrift,
zeg x(t) = t2 of y(t) = et of wat dan ook.
Als we de differentiaal vergelijking
x′ = 2x
dx
opschrijven, dan zijn we op zoek naar alle functies x(t) met de eigenschap = 2x(t). Als het
dt
goed is weten we van de middelbare school dat dit precies de functies x(t) = Ce2t (C constant)
zijn. Algemeen: y ′ = ay (a een vaste constante) heeft als oplossing: y(t) = Ceat .
Stel nu dat we n functies x1 , x2 , . . . , xn hebben zo dat de afgeleiden aan de volgende relatie voldoen.
 ′

 x1 = a1,1 x1 + a1,2 x2 + . . . + a1,n xn
 x′2 = a2,1 x1 + a2,2 x2 + . . . + a2,n xn

.. .. ..


 . . .
 ′
xn = an,1 x1 + an,2 x2 + . . . + an,n xn
2 Jacques Binet (1786-1856) vond deze formule in 1843, nadat Euler deze al in 1765 had gevonden (maar verloren

was gegaan). J. Binet had veel resultaten in de matrix theorie, getal theorie en fysica.
118 College 13, Gelijkvormigheid en diagonaliseerbaarheid.

We zullen zo’n systeem van “gekoppelde lineaire differentiaal vergelijkingen” schrijven als x′ = Ax,
waarbij:
   ′   
x1 (t) x1 (t) a1,1 a1,2 . . . a1,n
 x2 (t)   x′2 (t)   a2,1 a2,2 . . . a2,n 
  ′    
x= ..  , x =  ..  , en A =  .. .. .. .. 
 .   .   . . . . 

xn (t) xn (t) an,1 an,2 . . . an,n
Als de matrix A een diagonaalmatrix is, dan is dit systeem simpel op te lossen. Inderdaad, dan
ziet dit stelsel eruit als:  ′

 x1 = a1 x1
 x′2 =

a2 x2
.. .. ..


 . . .
 ′
xn = an xn
oftewel, we kunnen dit beschouwen als n afzonderlijke differentiaal vergelijkingen x′i = ai xi (i =
1 . . . n). Hiervan kennen we de oplossing: n.l xi (t) = Ci eai t . (Pas op, zet een index i bij de
constante C, de ene constante hoeft niet de andere  constante  te zijn.) We spreken wel af het
C1 ea1 t
 C2 ea2 t 
 
antwoord als een vector te schrijven, dus: x(t) =  ..  is de oplossing.
 . 
an t
Cn e
Als bij een gekoppelde lineaire differentiaal vergelijking x′ = Ax de matrix A diagonaliseerbaar
is, zeg A = P DP −1 (met D een diagonaalmatrix), dan is differentiaal vergelijking x′ = Ax op de
volgende manier op te lossen.
Schrijf x′ = Ax ⇒ x′ = P DP −1 x ⇒ P −1 x′ = DP −1 x ⇒ (P −1 x)′ = D(P −1 x).
Als we schrijven y = P −1 x dan krijgen we differentiaal vergelijking y′ = Dy, en deze kunnen we
oplossen. (We zeggen dat de differentiaal vergelijking x′ = Ax ”ontkoppeld” is.) Tenslotte kunnen
we via x(t) = P y(t) de oplossing van het oorspronkelijke stelsel vinden.
Als de matrix A niet diagonaliseerbaar zullen we geen oplosmethode introduceren. Deze bestaat
echter wel.
Voorbeeld 13.16. Beschouw de volgende gekoppelde lineaire differentiaal vergelijking:
 ′
x1 = x1 + 2x2
x′2 = 3x1 + 2x2

Vraag: Geef de algemene oplossing van dit stelsel. Geef ook een oplossing van dit stelsel dat
voldoet aan aan: x1 (0) = 1 en x2 (0) = 4. (Dit laatste het een “beginwaarde probleem”.)
 ′     
x1 1 2 x1 1 2
Antwoord: We herschrijven dit stelsel als = . De matrix A =
x2 3 2 x2 3 2
is diagonaliseerbaar,
  want men kan nagaan dat λ = 4, −1 de eigenwaarden
  zijn van A, en dat
2 −1
een basis is voor de eigenruimte E4 , respectivelijk, een basis is voor de
3 1
eigenruimte E−1 .    
2 −1 4 0
Daarom: als P = en D = dan geldt: A = P DP −1 .
3 1 0 −1
Dit levert: (P −1 x)′ = D(P
−1
x).
y1 (t)
Als we schrijven y(t) = = P −1 x dan krijgen we het ontkoppelde stelsel:
y2 (t)
 ′  
y1 = 4y1 C1 e4t
met de oplossing y(t) =
y2′ = −y2 C2 e−t
13.3. Toepassingen van diagonalisering. 119

Dus de oplossing van het oorspronkelijke systeem wordt:


      
x1 (t) 2 −1 C1 e4t 2C1 e4t − C2 e−t
x(t) = = P y(t) = = .
x2 (t) 3 1 C2 e−t 3C1 e4t + C2 e−t

Merk op dat ook de antwoorden x1 (t) en x2 (t) gekoppeld zijn via de constanten.
Tenslotte: als men een oplossing zoekt met x1 (0) = 1 en x2 (0) = 4 vult men dit in, in de algemene
oplossing en verkrijgt zo een lineair stelsel in C1 , C2 .
Hier verkrijgt men het stelsel 
2C1 − C2 = 1
3C1 + C2 = 4
dat geeft: C1 = C2 = 1. De (unieke) oplossing wordt:
   4t 
x1 (t) 2e − e−t
x(t) = = .
x2 (t) 3e4t + e−t
120 College 13, Gelijkvormigheid en diagonaliseerbaarheid.
College 14, Orthogonaliteit in Rn.

In dit hoofdstuk zullen we het begrip “orthogonaliteitüit R2 en R3 generaliseren naar Rn . We


zullen zien dat alles naar de hogere dimensies gegeneraliseerd kan worden en dit zal leiden tot
belangrijke toepassingen, zoals “de kleinste kwadraten oplossing”van een stelsel.

14.1 Het Standaard Inwendig Product in Rn


We beginnen met het standaard inwendige product op de ruimte Rn .
Het Standaard Inwendig Product

  
u1 v1
Definitie: Als u =  ...  en v =  ..  vectoren in Rn zijn, dan verstaan we onder het
  
. 
un vn
getal
uT v
het inwendig product van u en v. Dit getal wordt genoteerd met u · v en wordt ook wel het
“dotproduct”van u en v genoemd. 

n
X
Dus: u · v = u1 v1 + · · · + un vn = ui vi
i=1

en we verkrijgen de volgende rekenregels voor het standaard inwendig product.

STELLING 14.1. Laat u, v en w vectoren in Rn zijn en laat c ∈ R een scalar zijn. Dan
geldt:
1. u · v = v · u
2. u · (v + w) = u · v + u · w
3. (cu) · v = c(u · v) = u · (cv)
4. u · u ≥ 0 en u · u = 0 als en slechts als u = 0. 

121
122 College 14, Orthogonaliteit in Rn .

Lengte en Afstand
Met behulp van het standaard inwendige product kunnen we een lengtebegrip (of norm) in Rn
introduceren, zoals we dat in R2 en R3 deden.


u1
Definitie: Als u =  ...  een vector in Rn is , dan wordt het getal
 

un
√ q
u·u= u21 + · · · + u2n

de lengte van u (of norm) van u genoemd. De lengte wordt genoteerd met kuk. 

√ q
Dus: kuk = u·u= u21 + · · · + u2n

Opmerking: p Voor de praktische berekening van de lengte van een gegeven vector volstaat de
formule kuk = u21 + · · · + u2n . Echter, in een theoretische stelling waarin de lengte een rol speelt
zal men altijd de formule kuk2 = u · u gebruiken, zodat de rekenregels van het inwendigproduct
gebruikt kunnen worden.

En we krijgen als rekenregels voor het lengtebegrip:

STELLING 14.2. Laat u een vector in Rn zijn en laat c ∈ R een scalar zijn. Dan geldt:
1. kuk = 0 als en slechts als u = 0
2. kcuk = |c| kuk. 

Een vector met lengte 1 heet een eenheidsvector. Merk op dat als u ∈ Rn met u 6= 0, dan is de
vector
1
u
||u||
een eenheidsvector, en wel één als in dezelfde richting als u. Het overstappen van de vector u ∈ Rn
1
met u 6= 0 naar de vector: ||u|| u heet:

“het normeren van de vector u”.

De standaard eenheidsvectoren e1 , e2 , . . . , en in Rn zijn de vectoren


     
1 0 0
 0   1   0 
     
e1 =  .  , e2 =  .  , . . . , en =  . 
 ..   ..   .. 
0 0 1
14.1. Het Standaard Inwendig Product in Rn 123

Pas op: “e1 hoeft niet gelijk te zijn aan e1 ”want de e1 uit R2 is niet gelijk aan de e1 uit R4 .
Evenals in R2 en R3 kunnen we het begrip “de afstand d(P, Q) tussen punten P, Qën “de afstand
d(u, v) tussen vectoren u, vı̈n Rn invoeren. (N.B. d staat voor “distance”.)

Definitie: De afstand d(u, v) tussen de vectoren u, v in Rn is gelijk aan het getal

d(u, v) = ku − vk

−−→ −−→
Merk op dat de afstand tussen de twee vectoren u = OP en v = OQ gelijk is aan de afstand tussen
de eindpunten P en Q van deze vectoren.

Hoeken en Orthogonaliteit

Het is ons bekend dat in R2 en R3 geldt:

u · v = kuk kvk cos(θ),

waar θ gelijk is aan de door u en v ingesloten hoek. We zouden een soortgelijk formule ook graag
in Rn tot ons beschikking hebben. Echter, wat verstaan we in Rn onder de hoek tussen twee
vectoren, als n ≥ 4? Daarvoor eerst:

STELLING 14.3. (De Cauchy-Schwarz ongelijkheid3 ) Als u en v vectoren in Rn zijn,


dan geldt:
|u · v| ≤ kuk kvk.

Het bewijs van bovenstaande ongelijkheid zullen we hier niet presenteren.


In de eerste plaats levert de Cauchy-Schwarz ongelijkheid de welbekende driehoeks ongelijkheid.

STELLING 14.4. (De driehoeks ongelijkheid) Als u en v vectoren in Rn zijn, dan geldt:

ku + vk ≤ kuk + kvk.

Bewijs: Omdat: ku + vk2 = (u + v) · (u + v) = u · u + 2u · v + v · v =


kuk2 + 2u · v + kvk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2

Vervolgens gebruiken we de Cauchy-Schwarz ongelijkheid om een hoek te definiëren.


124 College 14, Orthogonaliteit in Rn .

Definitie: Als u en v vectoren in Rn zijn ongelijk aan de nulvector, dan verstaan we onder
de hoek tussen u en v dat getal θ ∈ [0, π] met
u·v
cos(θ) = .
kuk kvk

u·v
Merk op dat Cauchy-Schwarz impliceert dat −1 ≤ kuk kvk ≤ 1, dus zo’n θ zal zeker bestaan.

Definitie: Als u = 0 of als v = 0, dan heet iedere θ ∈ [0, π] een hoek tussen u en v. 

Vanwege de onbepaaldheid van de hoek als u = 0 of als v = 0 zullen we altijd spreken van een
hoek (en niet de hoek) tussen u en v, ook als zowel u 6= 0 en v 6= 0.

GEVOLG 14.5. Als u en v vectoren in Rn zijn en θ ∈ [0, π] is een hoek tussen u en v dan
geldt:
u · v = kuk kvk cos(θ).

Met de regel u·v = kuk kvk cos(θ) kan men ook in hogere Rn de hoek tussen twee vectoren bepalen.

Definitie: Als u en v vectoren in Rn zijn dan heten u en v orthogonaal (of ook loodrecht)
als θ = π2 een hoek tussen tussen u en v is.

Notatie. We noteren u⊥v om aan te geven dat u en v orthogonale vectoren zijn.

De volgende stelling geeft de methode hoe te verifiëren of gegeven vectoren u en v orthogonaal


zijn, ja of nee.

STELLING 14.6. Als u en v vectoren in Rn zijn dan geldt: u en v zijn orthogonaal als en
slechts als u · v = 0.

Bewijs: Triviaal
14.2. Orthogonale verzamelingen en orthogonale bases 125

STELLING 14.7. (De stelling van Pythagoras) Als u en v vectoren in Rn zijn, dan
geldt: u en v zijn orthogonaal als en slechts als ku + vk2 = kuk2 + kvk2 .

Bewijs: ku + vk2 = kuk2 + kvk2 als en slechts als (u + v) · (u + v) = kuk2 + kvk2 als en slechts
als u · u + 2u · v + v · v = kuk2 + kvk2 als en slechts als kuk2 + 2u · v + kvk2 = kuk2 + kvk2 als
en slechts als 2u · v = 0 als en slechts als u en v orthogonaal zijn.

14.2 Orthogonale verzamelingen en orthogonale bases

Definitie: Het stelsel vectoren (v1 , . . . , vk ) in Rn heet orthogonaal als ieder tweetal ver-
schillende vectoren in dit stelsel orthogonaal is, dus als:

vi · vj = 0 als i 6= j, als i, j = 1, . . . , k

We zeggen ook dat de verzameling {v1 , . . . , vk } orthogonaal is.


Het stelsel vectoren (v1 , . . . , vk ) in Rn heet orthonormaal als het stelsel
orthogonaal is en bestaat uit eenheidsvectoren.
We zeggen ook dat de verzameling {v1 , . . . , vk } orthonormaal is.

Opmerking: Als {v1 , . . . , vk } een orthogonale verzameling niet-nul vectoren is, dan kan men
door normeren tot de orthonormale verzameling
 
1 1
v1 , . . . , vk
kv1 k kvk k
komen.

Voorbeeld 14.8. Laat zien dat de verzameling vectoren {v1 , v2 , v3 } met:


     
3 −1 −1/6
v1 =  1  , v2 =  2  en v3 =  −2/3 
1 1 7/6
orthogonaal is en normeer deze verzameling tot een orthonormale verzameling.
Antwoord. Omdat
v1 · v2 = −3 + 2 + 1 = 0, v1 · v3 = −3/6 − 2/3 + 7/6 = 0
en ook v2 · v3 = 1/6 − 4/3 + 7/6 = 0
is het duidelijk dat de verzameling {v1 , v2 , v3 } orthogonaal
 is. 

√ 3/ √11
Omdat: kv1 k = 11 leidt normering van v1 tot w1 = 1/√11 .
1/ 11
 √ 
√ −1/√ 6
Evenzo: kv2 k = 6 geeft w2 =  2/√6 .
1/ 6
De lengte van v3 is “niet om aan te zien”:
p p p
kv3 k = 1/36 + 4/9 + 49/36 = 1/36 + 16/36 + 49/36 = 66/36
126 College 14, Orthogonaliteit in Rn .

en w3 “ziet er niet uit”. Daarom, een handigheidje!


Vermenigvuldig v3 eerst met een positieve scalair, zodat
 deze geheeltallig wordt (hier met 6),
−1 √
en ga die geheeltallige vector normeren. Dus: v3′ =  −4 , en omdat kv3′ k = 66 wordt
7
 √ 
−1/√66
w3 =  −4/√ 66 . Daarom is {w1 , w2 , w3 } de gezochte orthonormale verzameling. △
7/ 66

STELLING 14.9. Als {v1 , . . . , vk } een orthogonale verzameling niet-nulvectoren is in Rn ,


dan is de verzameling {v1 , . . . , vk } lineair onafhankelijk.

Bewijs: Stel dat:


c1 v1 + · · · + ck vk = 0
We tonen aan dat ci = 0 voor i = 1, . . . , k. Als volgt. Fixeer i en bekijk

0 = vi · 0 = vi · (c1 v1 + · · · + ci vi + · · · + ck vk ) =

= vi · (c1 v1 ) + · · · + vi · (ci vi ) + · · · + vi · (ck vk ) = 0 + · · · + ci kvi k2 + · · · + 0 = ci kvi k2


Omdat ci kvi k2 = 0 en vi 6= 0 volgt: ci = 0, voor i = 1, . . . , k. En dus is de verzameling vectoren
{v1 , . . . , vk } inderdaad lineair onafhankelijk.

GEVOLG 14.10. Als {v1 , . . . , vk } een orthogonale verzameling niet-nulvectoren is in Rn ,


dan is k ≤ n. 

Vervolgens:

Definitie: Stel dat W een lineaire deelruimte is van Rn . B = {b1 , . . . , bk } heet een or-
thogonale basis van W als B een basis is, en als verzameling orthogonaal is. B heet een
orthonormale basis van W als B een basis is, en als verzameling orthonormaal is.

Het is duidelijk dat een orthonormale basis voor W ook een orthogonale basis voor W is. Via
normeren kan vanuit een orthogonale basis een orthonormale basis worden geconstrueerd.
     
2 −2 −4
 3   1   −6 
Voorbeeld 14.11. De drie vectoren v1 =   −1 , v2 =  −1  en v3 =  2  zijn orthogo-
    

4 0 7
naal, want v1 · v2 = 0, v1 · v3 = 0 en v2 · v3 = 0. Daarom geldt dat de verzameling {v1 , v2 , v3 }
14.2. Orthogonale verzamelingen en orthogonale bases 127

lineair onafhankelijk is (zie Stelling 14.9). Als we W = Span{v1 , v2 , v3 } beschouwen, kunnen we


concluderen dat
√ B= {v1 , v2 , v3 } √eenorthogonale basis√is voor W . Na normeren verkrijgen we
  
2/√30 −2/√6 −4/√105
 3/ 30 
√ , w2 =  1/√6  en w3 =  −6/√105  en dus zal C = {w1 , w2 , w3 } een
   
w1 =   −1/ 30   −1/ 6   2/ 105 
√ √
4/ 30 0 7/ 105
orthonormale basis zijn voor W . △

We weten allen dat als B = {b1 , . . . , bk } een basis is voor W en b ∈ W is gegeven, dan bestaan er
unieke c1 , . . . , ck ∈ R zodat
b = c 1 b1 + · · · + c k bk
De scalairen c1 , . . . , ck zijn te bepalen door het stelsel [b1 . . . bk |b] op te lossen. Als de basis
orthogonaal is kan dit sneller.

STELLING 14.12. Stel dat W een lineaire deelruimte is van Rn met basis B = {b1 , . . . , bk }
en x ∈ W is gegeven.
1. Als B een orthogonale basis is voor W , dan geldt:
   
x · b1 x · bk
x= b1 + · · · + bk .
b1 · b1 bk · bk

2. Als B een orthonormale basis is voor W , dan geldt:

x = (x · b1 )b1 + · · · + (x · bk )bk .

Bewijs: 1. Er bestaan zeker (unieke) ci ∈ R zodat x = c1 b1 + · · · + ck bk . We tonen aan dat


x · bi
ci = voor i = 1, . . . , k.
bi · bi
Bekijk hiertoe x · bi = (c1 b1 + · · · + ck bk ) · bi = c1 b1 · bi + · · · + ci bi · bi + · · · + ck bk · bi = ci bi · bi .
De identiteit x · bi = ci bi · bi (i = 1, . . . , k) geeft het te bewijzen.
2. Is nu triviaal.

Opmerking: 1.Herkent u de formule in stelling 14.12? Die bent u in stelling 1.5 van college
1 tegen gekomen, maar dan in R3 . Als die formule ook waar is in Rn (en dat is die, zie college
15) dan zien we in deze stelling staan: “de componenten van een vector x in de richting van de
basisvectoren zijn te vinden door x loodrecht op iedere basisvector bi te projecteren, mits de basis
orthogonaal is”!
2. Stelling 14.12 laat het eerste voordeel zien dat we hebben als we voor een gegeven deelruimte W
een orthogonale basis B tot onze beschikking hebben. Er zijn nog andere voordelen die we zullen
tegenkomen. De volgende stelling zullen we in college 16 bewijzen.

STELLING 14.13. Stel dat W een lineaire deelruimte is van Rn . Dan bestaat er een ortho-
gonale basis B van W .
128 College 14, Orthogonaliteit in Rn .
College 15, Orthogonale matrices
en orthogonaal complement.

15.1 Orthogonale matrices

Definitie: Laat a1 · · · ak enkele vectoren uit Rn zijn en A = [ a1 · · · ak ]. De k × k matrix

AT A

heet de Grammatrix van de vectoren a1 · · · ak .

LEMMA 15.1. Voor de Grammatrix van a1 · · · ak geldt:


 
a1 · a1 a1 · a2 ··· a1 · ak
 a2 · a1 a2 · a2 ··· a2 · ak 
AT A =  
 . . ··· . 
ak · a1 ak · a2 ··· ak · ak

Bewijs: Het (i, j)de element van AT A is het matrixproduct van de ide rij van AT en de j de kolom
van A, is dus aTi aj = ai · aj .

GEVOLG 15.2. Gegeven zijn een stel vectoren a1 · · · ak in Rn .


1. a1 · · · ak zijn orthogonaal als en slechts als de Grammatrix een diagonaalmatrix is.
2. a1 · · · ak zijn orthonormaal als en slechts als de Grammatrix een eenheidsmatrix is.

Bewijs: Triviaal.

Matrices met orthonormale kolommen zijn belangrijk in toepassingen en ook in computer algorit-

129
130 College 15, Orthogonale matrices en orthogonaal complement.

mes met matrixberekeningen. We weten al van Gevolg 15.2:

STELLING 15.3. De kolommen van de m × n matrix U zijn orthonormaal als en slechts


U T U = In .

Definitie: Een matrix Q heet een orthogonale matrix als deze matrix Q vierkant is (zeg
n × n) en als de kolommen van Q een orthonormale verzameling vectoren in Rn is.

Opmerking: De term “orthogonale matrixı̈s een onhandige naamgeving, de term “orthonormale


matrix”zou duidelijk beter zijn. Echter, in de literatuur gebeurd dit niet en dus doen wij dit ook
niet. Ook bestaat er in de literatuur geen term voor een (niet vierkante) matrix met orthonormale
kolommen, noch voor een matrix met orthogonale kolommen.

Voorbeeld 15.4. Van de drie vectoren:

     
√3 −1
√ −1

11 6 66

w1 =  √1  
 , w2 =  √2  
 , w3 = 
−4
√ 

11 6 66
√1 √1 √7
11 6 66

hebben we in Voorbeeld 14.8 laten zien dat deze orthonormaal zijn. Dus is de matrix

 
√3 −1
√ −1

11 6 66

Q= √1 √2 −4
√ 

11 6 66
√1 √1 √7
11 6 66

een orthogonale matrix. Omdat volgens Stelling 15.3 geldt: QT Q = I3 en omdat Q vierkant is,
zal gelden:

 
√3 √1 √1
11 11 11
−1 √2 √1
Q−1 = QT = 
 

6 6 6 !!
−1
√ −4
√ √7
66 66 66

Verrasend, nietwaar? △
15.1. Orthogonale matrices 131

STELLING 15.5. Laat Q een vierkante matrix zijn. De volgende uitspraken zijn equivalent:

1. Q is een orthogonale matrix,


2. De kolommen van Q zijn orthonormaal,
3. QT Q is de eenheidsmatrix,
4. Q is inverteerbaar en Q−1 = QT ,
5. QQT is de eenheidsmatrix,
6. De rijen van Q zijn orthonormaal,
7. QT is orthogonaal.

Bewijs: 1.⇔2. Triviaal. Dit is de definitie (want gegeven is dat Q vierkant is).
2.⇔3. Triviaal. Dit is Stelling 15.3.
3.⇔4. Als QT Q = I en Q is vierkant, dan volgt QT = Q−1 en vice versa.
4.⇔5. Idem.
5.⇔6. QQT = I ⇔ (QT )T QT = I en volgens Stelling 15.3 is dit equivalent met de kolommen van
QT zijn orthogonaal. Equivalent, de rijen van Q zijn orthogonaal.
6.⇔7. Dit is de definitie (ook QT is vierkant).

Opmerking: Om na te gaan of een gegeven matrix orthogonaal is, is de definitie (de kolommen
zijn orthonormaal) redelijk bruikbaar. Echter in theoretische beschouwingen is de karakterisering
“Q is orthonormaal als en slechts als Q−1 = QT ”veel handiger. Hoe zou je kunnen nagaan dat het
product van twee orthogonale matrices weer orthogonaal is?

De lineaire afbeeldingen waarvan de standaardmatrix een orthogonale matrix is vertonen een heel
mooi gedrag, zoa;ls de volgende stelling laat zien.

STELLING 15.6. Stel T : Rn → Rn is een lineaire afbeelding met standaardmatrix A, d.w.z.


T (x) = Ax, voor alle x ∈ Rn . Equivalent zijn:
1. A is een orthogonale matrix.
2. kT (x)k = kxk, voor alle x ∈ Rn .
3. hT (x), T (y)i = hx, yi, voor alle x, y ∈ Rn .

Bewijs: 1.⇒3. Stel dat A orthogonaal is. Dan geldt AT A = I en dus: hT (x), T (y)i = hAx, Ayi =
(Ax)T (Ay) = xT AT Ay = xT y = hx, yi.
3.⇒2. Als geldt: hT (x), T (y)i = hx, yi, voor alle x, y ∈ Rn dan kunnen we deze uitspraak
beperken tot de situatie y = x. We verkrijgen zo: hT (x), T (x)i = hx, xi, voor alle x ∈ Rn en dus
kT (x)k2 = kxk2 , voor alle x ∈ Rn . De conclusie volgt.
2.⇒1. (Dit is het lastige deel van dit bewijs!) Stel dat kT (x)k = kxk, voor alle x ∈ Rn en bekijk
de standaardmatrix A = [a1 . . . an ] met ai =√T (ei ). Dan: kai k = kT (ei )k = kei k = 1 voor i√=
1, . . . , n. Fixeer nu i 6= j. Omdat kei + ej k = 2 geldt: kai + aj k = kT (ei + ej )k = kei + ej k = 2
132 College 15, Orthogonale matrices en orthogonaal complement.

en dus: 2 = kai + aj k2 = hai + aj , ai + aj i = kai k2 + kaj k2 + 2 hai , aj i = 2 + 2 hai , aj i. En dus:


hai , aj i = 0. Kortom, A is vierkant en de kolommen zijn orthonormaal, d.w.z. A is een orthogonale
matrix.

15.2 Het Orthogonaal Complement


Het begrip “normaal van een vlak in R3 ”generaliseren we tot het begrip “orthogonaal complement
van een deelruimte in Rn ”.

Definitie: Laat W een lineaire deelruimte van Rn zijn. We zeggen: de vector v ∈ Rn is


orthogonaal met W als:
v⊥w, voor iedere w ∈ W .
en we noteren dit met:
v⊥W .

Om na te gaan of een gegeven vector v orthogonaal is met W , moeten we nagaan of v · w = 0


voor oneindig veel vectoren w, namelijk voor alle w ∈ W . Het volgende lemma reduceert dit tot
een eindig aantal, namelijk tot die vectoren die uit een basis voor W komen.

LEMMA 15.7. Laat W = Span{w1 , . . . , wk } een lineaire deelruimte van Rn zijn en fixeer
v ∈ Rn . Equivalent zijn:
1. v⊥W .
2. v · wi = 0, voor i = 1, . . . , k.

Bewijs: 1.⇒2. Als v⊥W , dan v⊥w, voor alle w ∈ W . In het bijzonder: v⊥wi = 0, voor
i = 1, . . . , k.
2.⇒1. Stel dat v · wi = 0, voor i = 1, . . . , k. Als w ∈ W , zeg w = c1 w1 + · · · + wk , dan
v · w = v · (c1 w1 + · · · + wk ) = v · c1 w1 + · · · + v · ck wk = 0, dus v⊥w.

Definitie: Laat W een lineaire deelruimte van Rn zijn. De verzameling van alle vectoren
orthogonaal met W heet het orthogonaal complement van W en wordt genoteerd met
W ⊥.

Dus
W ⊥ = {v ∈ Rn : v · w = 0 voor alle w ∈ W }

We geven enkele eigenschappen van het orthogonaal complement.


15.2. Het Orthogonaal Complement 133

STELLING 15.8. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:

1. W ⊥ is een lineaire deelruimte van Rn .


2. W ∩ W ⊥ = {0}.
3. (W ⊥ )⊥ = W .

Bewijs: 1. Ga na.
2. Als w ∈ W ∩ W ⊥ , dan w⊥w en dus w · w = 0 ⇒ kwk2 = 0 ⇒ w = 0.
3. Dit is nog vrij lastig om te bewijzen. Het bewijs staat in de volgende paragraaf maar het
wordt niet op college getoond.

STELLING 15.9. Laat W een lineaire deelruimte van Rn zijn.


1. Als W = Col(A) dan W ⊥ = Nul(AT ).
2. Als W = Nul(A) dan W ⊥ = Col(AT ).

Bewijs: 1. Stel A = [a1 . . . ak ] en W = Col(A), d.w.z. W = Span{a1 , . . . , ak }. Dan: x ∈ W ⊥ als


en slechts als x⊥w (voor iedere w ∈ W ) als en slechts als x⊥ai (voor i = 1, . . . , k). Equivalent:
aTi x = 0 (voor i = 1, . . . , k). Tenslotte, dit laatste is equivalent met x ∈ Nul(AT ).
2. Stel W = Nul(A). Beschouw B = AT . Volgens 1. geldt: (Col(B))⊥ = Nul(B T ) = Nul(A).
Daarom:
(Nul(A))⊥ = Nul(B T )⊥ = ((Col(B))⊥ )⊥ = Col(B) = Col(AT ).

Met andere woorden:

(Col(A))⊥ = Nul(AT ) en (Nul(A))⊥ = Col(AT ) .

Dus ook het bepalen van een basis van W ⊥ komt neer op het bepalen van een basis van òf een
kolomruimte òf een nulruimte. En dit worden we geacht te beheersen.

GEVOLG 15.10. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:

dim(W ) + dim(W ⊥ ) = n

Bewijs: Stel dat W = Col(A), voor een n × k matrix A. Dan geldt: dim(W ) = dim(Col(A)) =
rang(A) = rang(AT ) = dim(Col(AT )). De uitspraak: dim(W ) + dim(W ⊥ ) = n is dus equivalent
met dim(Col(AT )) + dim(Nul(AT )) = n voor de k × n matrix AT . Deze uitspraak is de ons
bekende “rangstelling”voor de matrix AT . Tenslotte, de uitspraak dim(W ) + dim(W ⊥ ) = n is ook
equivalent met de uitspraak (W ⊥ )⊥ = W uit Stelling 15.8. We besparen u de details.
134 College 15, Orthogonale matrices en orthogonaal complement.

     
1 0 2
 1   1   3 
Voorbeeld 15.11. Beschouw de vectoren v1 =   2 , v2 =  −2  en v3 =  2  en bepaal
    

1 1 3
een basis van het orthogonaal complement van W = Span{v , v ,
 1 2 3  v }.
1 0 2
 1 1 3  ⊥ T
Antwoord: Het is duidelijk dat W = Col(A) met A =   2 −2 2 . Dus W = Nul(A ) en

1 1 3
T
daarom gaan we het stelsel [A |0] oplossen. Enig rekenwerk laat zien dat:
   
1 1 2 1 | 0 1 0 4 0 | 0
[AT |0] =  0 1 −2 1 | 0  ∼  0 1 −2 1 | 0 
2 3 2 3 | 0 0 0 0 0 | 0
         
−4x3 −4 0 
 −4 0 
 2x3 − x4   2   −1    −1 
2 
Daarom: x =    = x3 
  + x4   en dus zal B =    ,   een
x3  1  0  
 1   0  
 
x4 0 1 0 1
basis zijn van W ⊥ . (Merk op dat iedere basis vector orthogonaal is met iedere vi , voor i = 1, 2, 3.)

Opmerking: Bij het vorige voorbeeld kan het rekenwerk ietwat bepertkt worden. Omdat er
geldt: v3 = −2v1 + v2 , geldt dat: {v1 , v2 } ook W opspannen; {v1 , v2 } is een basis voor Col(A) =
W en als we schrijven: B = [v1 v2 ], dan geldt weer: W = Col(B). Daarom geldt: W ⊥ = Nul(B T )
en oplossen van het stelsel [B T |0] levert:
   
1 1 2 1 | 0 1 0 4 0 | 0
[B T |0] = ∼
0 1 −2 1 | 0 0 1 −2 1 | 0

en dit zal dezelfde basis voor W ⊥ opleveren.


De les die uit deze opmerking getrokken kan worden is, probeer W als span te zien van een minimaal
aantal vectoren (dus van een basis van W ), dat reduceert het rekenwerk van het stelsel [AT |0] tot
een minimum.
 
1 1 2 2
Voorbeeld 15.12. Beschouw de matrix A =  2 2 1 1  en de bijbehorende lineaire deel-
3 3 3 3
ruimte W = Nul(A) (van R4 ). Bepaal een basis voor het orthogonaal complement W ⊥ .
Antwoord: Omdat W ⊥ = Col(AT ), vegen we de matrix AT naar echelonvorm.
   
1 2 3 1 0 0
 1 2 3   0 1 0 
AT =  2 1 3  ∼  0 0 0 
  

2 1 3 0 0 0
   
1 2
 1   2 
We concluderen dat als v1 =   2  en v2 =  1 , dat dan {v1 , v2 } een basis vormen voor
  

2 1
Col(AT ) = W ⊥ . △
15.3. De orthogonale decompositiestelling 135

Beschrijving Lineaire Deelruimtes als Kolom- en Nulruimten


Zoals bekend worden de lineaire deelruimtes gerepresenteerd door òf de Kolomruimte van een
matrix òf de Nulruimte van een matrix. Maar we hebben er nog niet de nadruk opgelegd dat iedere
lineaire deelruimte te schrijven is als de Kolomruimte van een matrix maar ook als Nulruimte van
een (andere) matrix. Voor het ene type probleem is de Kolomruimte schrijfwijze handig, voor een
ander probleem de Nulruimte schrijfwijze.
We bepreken eerst hoe zo een representatie te verkrijgen is. Voor de kolomruimte is die ons bekend.
Kolomruimte representatie
Zij W een lineaire deelruimte van Rn . Als a1 , . . . , ak een stel vectoren is in Rn met W =
Span{a1 , . . . , ak } en we bekijken de matrix A = [a1 , . . . , ak ] dan geldt:
W = Col(A)
Zoekt men een matrix met zo klein mogelijke afmetingen, dan kan dat maar op één manier. Zorg
ervoor dat de vectoren die W opspannen zo klein mogelijk is, d.w.z. een basis voor W is.
Nulruimte representatie
Zij W een lineaire deelruimte van Rn . Beschouw W ⊥ . Als a1 , . . . , ak een stel vectoren is in Rn
met Span{a1 , . . . , ak } = W ⊥ en we bekijken de matrix A = [a1 , . . . , ak ] dan geldt: Col(A) = W ⊥ .
Maar dan
W = (W ⊥ )⊥ = (Col(A))⊥ = Nul(AT )
en de representatie van W als Nulruimte is verkregen. Zoekt men een matrix met zo klein mogelijke
afmetingen, dan kan dat maar op één manier. Zorg ervoor dat de vectoren die W ⊥ opspannen zo
klein mogelijk is, d.w.z. een basis voor W ⊥ is.

15.3 De orthogonale decompositiestelling


Doel: gegeven een lineaire deelruimte W in Rn en een vector v in Rn , de vector v te ontbinden in
een component in W en een component loodrecht op W (dus: een component in het orthogonaal
complement van W , i.e. W ⊥ ). De volgende stelling zegt dat deze ontbindibg inderdaad bestaat.

STELLING 15.13. (De Orthogonale Decompositie Stelling) Laat W een lineaire deel-
ruimte van Rn zijn en stel v ∈ Rn . Dan bestaan er unieke vectoren w ∈ W en w♯ ∈ W ⊥
met
v = w + w♯

Bewijs: We tonen eerst de uniciteit aan van w ∈ W en w♯ ∈ W ⊥ . Stel daartoe dat w1 , w2 ∈ W


en w1♯ , w2♯ ∈ W ⊥ bestaan met v = w1 + w1♯ en v = w2 + w2♯ . Dan:
w1 + w1♯ = w2 + w2♯ en dus w1 − w2 = w2♯ − w1♯
Omdat w1 − w2 ∈ W en w2♯ − w1♯ ∈ W ⊥ geldt w1 − w2 ∈ W ∩ W ⊥ ⇒ w1 − w2 = 0 ⇒ w1 = w2
en evenzo: w2♯ − w1♯ ∈ W ∩ W ⊥ ⇒ w2♯ − w1♯ = 0 ⇒ w1♯ = w2♯ .
Nu tonen we het bestaan aan van w ∈ W en w♯ ∈ W ⊥ met v = w + w♯ . Daarvoor hebben we een
orthogonale basis van W nodig. Stel dat B = {b1 , . . . , bk } zo een orthogonale basis is van W . (In
een volgend college zullen we aantonen dat er inderdaad een orthogonale basis voor W bestaat.)
Bekijk:    
b1 · v bk · v
w= b1 + · · · + bk ∈ W
b1 · b1 bk · bk
136 College 15, Orthogonale matrices en orthogonaal complement.

Als we kunnen aantonen dat v − w ∈ W ⊥ dan nemen we w♯ = v − w en is het bestaan van zulke
w en w♯ aangetoond.
Om aan te tonen dat v − w ∈ W ⊥ is het voldoende aan te tonen dat: v − w⊥bi , voor i = 1, . . . , k
(want W = Span{b1 , . . . , bk }). Aldus:
       
b1 · v bi · v bk · v
(v − w) · bi = v − b1 − · · · − bi − · · · − bk · bi =
b1 · b1 bi · bi bk · bk
     
b1 · v bi · v bk · v
v · bi − (b1 · bi ) · · · − (bi · bi ) · · · − (bk · bi ) =
b1 · b1 bi · bi bk · bk
= v · bi − 0 − · · · − v · bi − · · · − 0 = 0 voor i = 1, . . . , k.
De conclusie volgt. (Vraag: ziet u waar in het bewijs de orthogonaliteit van de basis wordt
gebruikt?)

Definitie: Laat W een lineaire deelruimte van Rn zijn en stel v ∈ Rn . Laat w ∈ W en


w♯ ∈ W ⊥ de ontbinding van v als v = w + w♯ .
Dan heet w de (orthogonale) projectie van v op W en deze wordt genoteerd met projW (v).
Evenzo wordt w − w♯ de spiegeling (of het spiegelbeeld) van v t.o.v. W genoemd. Deze wordt
genoteerd met SW (v).

Opmerking: We beschouwen de projectie op W als een afbeelding projW : Rn → Rn . Evenzo,


de spiegeling t.o.v. W beschouwen we als een afbeelding SW : Rn → Rn .
Het bewijs van de decompositiestelling levert ons de methode hoe de projectie projW (v) te bere-
kenen. Maar dan kunnen we ook SW (v) berekenen.

STELLING 15.14. Stel dat B = {b1 , . . . , bk } een orthogonale basis is van W . Dan geldt:
   
b1 · v bk · v
projW (v) = b1 + · · · + bk
b1 · b1 bk · bk

Ook geldt: SW (v) = 2 projW (v) − v.

Bewijs: De formule voor projW (v) is terug te vinden in het bewijs van de decompositiestelling.
Wat betreft de spiegeling: omdat v = w + w♯ volgt w♯ = v − projW (v). Dus SW (v) = w − w♯ =
projW (v) − (v − projW (v)) = 2 projW (v) − v.

Een direct gevolg van de decompositiestelling is de volgende stelling, een stelling die we al eerder
gezien hebben, maar het bewijs nog niet. Als u geı̈nteresseerd bent:

STELLING 15.15. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:

(W ⊥ )⊥ = W
15.3. De orthogonale decompositiestelling 137

Bewijs: We tonen eerst aan dat W ⊂ (W ⊥ )⊥ . Dit is niet moeilijk.


Fixeer daartoe w ∈ W . Omdat w⊥ŵ, voor iedere ŵ ∈ W ⊥ (per definitie van W ⊥ ) volgt dat
w ∈ (W ⊥ )⊥ . We concluderen dat inderdaad geldt: W ⊂ (W ⊥ )⊥ .
Vervolgens: kan het zijn dat W 6= (W ⊥ )⊥ ? Stel dat dit zo is. Dan bestaat er een w1 ∈ (W ⊥ )⊥
met w1 ∈/ W . Beschouw de orthogonale decompositie van w1 t.o.v. W en W ⊥ . Dus:

w1 = w + w ♯

met w ∈ W en w♯ ∈ W ⊥ . Merk op dat w1 6= w, want w1 ∈ / W . Maar dan hebben we twee


orthogonale decomposities van w1 t.o.v. W ⊥ en (W ⊥ )⊥ , namelijk:

w1 = w1 + 0 met w1 ∈ (W ⊥ )⊥ en 0 ∈ W ⊥

en
w1 = w♯ + w met w♯ ∈ W ⊥ en w ∈ W ⊂ (W ⊥ )⊥
Dit is een tegenspraak, en de oorzaak hiervan is de aanname dat W 6= (W ⊥ )⊥ .
Kortom: W = (W ⊥ )⊥ .

GEVOLG 15.16. Laat W een lineaire deelruimte van Rn zijn en stel v ∈ Rn . Als w ∈ W
en w♯ ∈ W ⊥ de unieke vectoren met v = w + w♯ , dan geldt:

projW ⊥ (v) = w♯
138 College 15, Orthogonale matrices en orthogonaal complement.
College 16, Projectie matrices, het
Gram–Schmidt proces.

16.1 Projectiematrices en spiegelingsmatrices


In het vorige college is de orthogonale projectie van een vector x op een deelruimte W ⊂ Rn
gedefiniëerd. Deze werd genoteerd met projW (x) en projW beschouwen we als een afbeelding
projW : Rn → Rn . De volgende formule was afgeleid voor deze projectie:

Stel W is een deelruimte Rn met orthogonale basis B = {b1 , . . . , bk }. Dan geldt:


   
b1 · x bk · x
projW (x) = b1 + · · · + bk
b1 · b1 bk · bk

Evenzo is de spiegeling van een vector x t.o.v een deelruimte W ⊂ Rn gedefiniëerd. Deze werd
genoteerd met SW (x) en SW beschouwen we als een afbeelding SW : Rn → Rn . We hebben
ingezien dat
SW (x) = 2 projW (x) − x

We verkrijgen dus de volgende formule voor deze spiegeling:

Stel W is een deelruimte Rn met orthogonale basis B = {b1 , . . . , bk }. Dan geldt:


   
b1 · x bk · x
S(x) = 2 b1 + · · · + 2 bk − x
b1 · b1 bk · bk

Een voor de hand liggende vraag wordt nu: de afbeeldingen projW : Rn → Rn en de spiegeling SW :
Rn → Rn zijn dat lineaire afbeeldingen? De formules geven in eerste instantie geen uitsluitesel.
Daarom eerst het volgende lemma, om de formule van de projectie te ontrafelen.

LEMMA 16.1. Als A = [a1 . . . ak ] dan AAT = a1 aT1 + · · · + ak aTk .

Bewijs: Hier staat kolom rijexpansie van het product AAT beschreven.

139
140 College 16, Projectie matrices, het Gram–Schmidt proces.

STELLING 16.2. Laat W een deelruimte zijn van Rn . Dan is de afbeeliding

projW : Rn → Rn

een lineaire afbeelding. De standaardmatrix [projW ] is alsvolgt te verkrijgen. Als B = {q1 , . . . , qk }


een orthonormale basis is van W en Q = [ q1 . . . qk ], dan geldt:

[projW ] = QQT .

Bewijs: We werken de formule van de projectie uit om een matrixtransformatie te verkrijgen. De


formule staat er: als B = {q1 , . . . , qk } een orthonormale basis is van W en Q = [ q1 . . . qk ], dan
de matrix QQT moeten voldoen aan de eigenschap: projW (x) = QQT x. Om dit in te zien: in de
eerste plaatszal zekergelden:  
q1 · x qk · x
projW (x) = q1 + · · · + qk = (q1 · x)q1 + · · · + (qk · x)qk
q1 · q1 qk · qk
Nu een gemene stap. We willen bovenstaand als een matrixproduct zien. De standaardnotatie cx
van het scalaire product staat niet als een matrixproduct zien. De notatie als matrix product is

xc

(een n × 1 matrix x maal een 1 × 1 matrix c(!))


We verkrijgen dan:

projW (x) = (q1 · x)q1 + · · · + (qk · x)qk = q1 (q1 · x) + · · · + qk (qk · x) =

= q1 (qT1 x) + · · · + qk (qTk x) = (q1 qT1 )x + · · · + (qk qTk )x = (q1 qT1 + · · · + qk qTk )x = (QQT )x
en dit wilde we aantonen. Projectie is kennelijk een matrixtransformatie en dus een lineaire
afbeelding.

Opmerking: De matrix [projW ] wordt een projectiematrix genoemd. Een gevolg van boven-
staande stelling is dat de uitkomst [projW ] = QQT onafhankelijk is van de gekozen orthonormale
basis!

Evenzo:

STELLING 16.3. Laat W een deelruimte zijn van Rn . Dan is de spiegeling SW : Rn → Rn


een lineaire afbeelding. Er geldt:

[SW ] = 2[projW ] − I.

Bewijs: Omdat SW (x) = 2 projW (x) − x volgt:


SW (x) = 2 projW (x) − x = 2[projW ]x − Ix = (2[projW ] − I)x.
De spiegeling is een matrixtransformatie en dus een lineaire afbeelding.

Opmerking: De matrix [SW ] wordt een spiegelingsmatrix genoemd.


16.2. Het Gram-Schmidt Proces 141

16.2 Het Gram-Schmidt Proces


In deze paragraaf bepalen we een methode om voor een gegeven lineaire deelruimte W van Rn een
orthogonale basis te construeren. Het idee is om vanuit een gegeven basis {b1 , . . . , bk } van W stap
voor stap de orthogonale verzameling {w1 , . . . , wk } te bouwen. Als W tweedimensionaal is, is dit
niet al te moeilijk.
   
1 −2
Voorbeeld 16.4. Stel dat W = Span{b1 , b2 } met b1 =  1  en b2 =  0 . Construeer een
0 1
orthogonale basis {w1 , w2 } voor W .
Antwoord:
Het is duidelijk dat {b1 , b2 } een basis is voor W , echter, deze basis is NIET orthogonaal.
Als w1 nemen we b1 .
Als w2 nemen we de component van b2 orthogonaal met b1 = w1 . Dus:
     
  −2 1 −1
w 1 · b2 −2
w2 = b2 − projw1 (b2 ) = b2 − w1 =  0  −  1 = 1 
w1 · w1 2
1 0 1

Tenslotte: {w1 , w2 } vormen inderdaad een orthogonale basis voor W . △

Als W driedimensionaal is, zal dit iets meer werk zijn.


     
1 2 2
 −1   1   2 
Voorbeeld 16.5. Stel dat W = Span{b1 , b2 , b3 } met b1 =   −1 , b2 =  0  en b3 =  1 .
    

1 1 2
Construeer een orthogonale basis {w1 , w2 , w3 } voor W .
Antwoord:
Het is eenvoudig na te gaan dat de verzameling {b1 , b2 , b3 } lineair onafhankelijk is, en dus is
{b1 , b2 , b3 } een basis voor W , echter, deze basis is NIET orthogonaal.
Als w1 nemen we weer b1 .
Als w2 nemen we de component van b2 orthogonaal met b1 = w1 . Handig als we zijn schrijven
we eerst w2′ , dus:
     
  2 1 3/2
w 1 · b2  1  2  −1   3/2 
w2′ = b2 − projw1 (b2 ) = b2 − w1 = 
 0  − 4  −1  =  1/2 
    
w1 · w1
1 1 1/2

Nu zien we waar het handigheidje voor was: om de breuken in w2′ weg te werken. Dus:
 
3
 3 
w2 = 2w2′ =  1 .

Merk op dat Span{b1 , b2 } = Span{w1 , w2 }. Ook is {w1 , w2 } een orthogonale basis voor Span{b1 , b2 }.
Als w3 nemen we de component van b3 orthogonaal met Span{b1 , b2 }. Deze kunnen we bere-
kenen, want we hebben een orthogonale basis voor Span{b1 , b2 } tot onze beschikking, namelijk
{w1 , w2 }! Handig als we zijn schrijven we eerst w3′ , dus:
   
w 1 · b3 w 2 · b3
w3′ = b3 − projSpan{b1 ,b2 } (b3 ) = b3 − w1 − w2 =
w1 · w1 w2 · w2
142 College 16, Projectie matrices, het Gram–Schmidt proces.

       
2 1 3 −1/2
 2  1  −1  15  3   0 
 1  − 4  −1  − 20 
     = 
1   1/2 
2 1 1 1

−1
 0 
Een schaling levert w3 = 
 1 . Nu is {w1 , w2 , w3 } een orthogonale basis voor W . (Indien

2
gewenst kan men deze normeren en een orthonormale basis verkrijgen.) △

Het hier boven beschreven proces om vanuit een gegeven basis {b1 , . . . , bk } van W stap voor stap
de orthogonale verzameling {w1 , . . . , wk } te bouwen heet: het Gram-Schmidt proces. Dit
proces gaat in Cn op dezelfde manier.
Het Gram-Schmidt proces verloopt op de volgende manier:

(1) Op stap 1 wordt w1 gebouwd zodat Span{w1 } = Span{b1 }.

(2) Op stap 2 wordt w2 gebouwd zodat w2 ⊥w1 en Span{w1 , w2 } = Span{b1 , b2 }.

(3) Op stap 3 wordt w3 gebouwd zodat:


w3 ⊥ Span{w1 , w2 } en Span{w1 , w2 , w3 } = Span{b1 , b2 , b3 }.
.. .. ..
. . .

(ℓ) Op stap ℓ wordt wℓ gebouwd zodat:


wℓ ⊥ Span{w1 , . . . , wℓ−1 } en Span{w1 , . . . , wℓ } = Span{b1 , . . . , bℓ }.

Wat zal de volgende stap worden om wℓ+1 te construeren?


Bekijk bℓ+1 . Voor de hand ligt te nemen:

wℓ+1 = bℓ+1 − projSpan{b1 ,...,bℓ } (bℓ+1 )

De projectie projSpan{b1 ,...,bℓ } (bℓ+1 ) is te bepalen, want bij de vorige stap is juist de orthogonale
basis {w1 , . . . , wℓ } voor Span{b1 , . . . , bℓ } geconstrueerd. Dus:
   
w1 · bℓ+1 wℓ · bℓ+1
wℓ+1 = bℓ+1 − w1 − · · · − wℓ
w1 · w1 wℓ · wℓ

Dit gaat voort totdat wk geconstrueerd is, en dan is de orthogonale basis {w1 , . . . , wk } van W
verkregen. U heeft het orthogonaliserings proces van Gram4 -Schmidt5 aanschouwd.

4 Jorgen Gram (1850-1916) gaf les aan de universiteit van Kopenhagen en was tevens managing director van een

verzekeringsmaatschappij. In 1874 publiceerde hij het artikel Sur quelques théorèmes fondamentaux de l’algèbre
moderne in Mathematische Annalen over lineaire algebra.
5 Erhard Schmidt (1876-1959) promoveerde onder leiding van Hilbert aan de universiteit van Göttingen. Hij

was één van de grondleggers van de huidige functionaalanalyse en heeft veel onderzoek gedaan aan zogeheten
Hilbertruimten. Zijn naam is verbonden aan het Gram-Schmidt orthogonaliseringsproces, ook al was dit proces al
eerder gebruikt door Cauchy in 1836.
16.2. Het Gram-Schmidt Proces 143

STELLING 16.6. Het Gram-Schmidt Process. Stel dat {v1 , . . . , vk } een basis is voor
de deelruimte W van Rn . Definieer:
w1 = v1 ,
w1 ·v2
w2 = v2 − w 1 ·w1
w1 ,
w1 ·v3 w2 ·v3
w3 = v3 − w1 ·w1 w1 − w 2 ·w2
w2 ,
..
.
wk = vk − ww1 ·vk
1 ·w1
w1 − . . . − ww k−1 ·vk
k−1 ·wk−1
wk−1 .
Dan geldt voor iedere ℓ = 1, . . . , k dat:
1. Span{v1 , . . . , vℓ } = Span{w1 , . . . , wℓ } = Wℓ ,
2. {w1 , . . . , wℓ } is orthogonale basis Wℓ ,
3. wℓ is de orthogonale projectie van vℓ op Wℓ−1 (ℓ ≥ 2).
In het bijzonder geldt: {w1 , . . . , wk } is een orthogonale basis voor Wk = W .
144 College 16, Projectie matrices, het Gram–Schmidt proces.
College 17, Kleinste kwadraten
benadering.

17.1 Karakterisering van de orthogonale projectie


De definitie van de orthogonale projectie van een vector x op een lineaire deelruimte is toch wel van
een redelijk abstract karakter. Dat deze definitie volledig overeenkomt met de driedimensionale
intuı̈tie is in eerste instantie verre van duidelijk. De volgende stelling zal dit duidelijk maken.

STELLING 17.1. Laat W een lineaire deelruimte van Rn zijn en stel x ∈ Rn . Dan geldt:
projW (x) is het (unieke) punt in W met de kleinste afstand d(projW (x), x) tot x.

Bewijs: Als x ∈ W , dan is x = x + 0 is de orthogonale decompositie t.o.v. W en W ⊥ , en dus


projW (x) = x. Dus voor x ∈ W is de uitspraak juist.
Neem nu x ∈ / W en stel dat x = w + w♯ met w ∈ W en w♯ ∈ W ⊥ . Merk op dat nu geldt:
projW (x) = w en dat x 6= w. We tonen aan dat voor w1 6= w (met w1 ∈ W ) geldt:
d(x, w) < d(x, w1 )

u=x−w x

w = projW (x)

w1
v = w1 − w
Bekijk daartoe u = x − w = w♯ ∈ W ⊥ en v = w1 − w ∈ W . Merk op:

u⊥v

want u = w♯ is orthogonaal met iedere w′ ∈ W .


Pythagoras levert:
ku − vk2 = kuk2 + kvk2
en dus:
kx − w1 k2 = kx − wk2 + kvk2
en omdat kvk 6= 0 geldt:
kx − w1 k2 > kx − wk2

145
146 College 17, Kleinste kwadraten benadering.

en hieruit volgt: d(x, w1 ) > d(x, w).

Als we stellen:

Definitie: De afstand van een vector x tot een deelruimte x wordt gedefinieerd door

d(x, W ) = {minimumkx − wk : w ∈ W }

dan zegt Stelling 17.1 kennelijk:

STELLING 17.2. Als W een deelruimte van Rn en x ∈ Rn dan d(x, W ) = kx−projW (x)k =
k projW ⊥ (x)k.

17.2 De Kleinste Kwadraat Oplossing van een Stelsel Ax = b


In deel 1 van deze cursus hebben we ons bezig gehouden met het oplossen van het stelsel
Ax = b.
We weten dat het stelsel Ax = b oplosbaar is als en slechts als b ∈ Col(A). En als het stelsel
inconsistent was, dan was dat het antwoord op de vraag.
Maar wat als er wel een oplossing zou moeten bestaan, maar dat, bijvoorbeeld door meetfouten in
de b, het stelsel inconsistent geworden is? Moeten we dan blijven meten totdat er consistentie is,
wat vrij lastig kan zijn omdat Col(A) slechts een klein gedeelte van de ruimte kan zijn, of . . . Nee,
we pakken het probleem anders aan.

Bepaal die x (of x-sen) zodat kAx − bk minimaal is.

Als x ∈ Rn alle waarden doorloopt, doorloopt Ax alle waarden in Col(A). En dus vertelt Stel-
ling 17.1 ons dat we eigenlijk de vergelijking
Ax = projCol(A) (b)
aan het oplossen zijn. Deze vergelijking is zeker consistent want projCol(A) (b) ∈ Col(A), d.w.z. er
bestaan zeker x ∈ Rn zodat kAx − bk minimaal is.
Tenslotte, omdat kAx − bk een (wortel van een) som van kwadraten is, heet de gevonden x de
kleinste kwadraten benadering van het stelsel Ax = b. Vaak wordt het zelfs de kleinste
kwadraten oplossing van het stelsel Ax = b genoemd. (En dat terwijl als Ax = b inconsistent is,
er helemaal geen oplossing zijn zal!) We merken hier ook op dat als Ax = b wel consistent is, dan
zal de kleinste kwadraten oplossing echt een oplossing zijn van het stelsel Ax = b.
Tenslotte, als x0 de kleinste kwadraten benadering van het stelsel Ax = b is, dan heet kAx0 − bk
de kleinste kwadratenfout van de benadering of het residue.
De Normaalvergelijkingen

Om de kleinste kwadraten oplossing van het stelsel Ax = b te bepalen lijkt de volgende methode
voor de hand te liggen: “bepaal eerst de projectie
projCol(A) (b)
17.2. De Kleinste Kwadraat Oplossing van een Stelsel Ax = b 147

en los dan het stelsel


Ax = projCol(A) (b)
op”. Dit kan zeker, maar wij zullen een andere methode volgen, een veel sluwere methode die
achteraf toch niet echt moeilijk is.

STELLING 17.3. Beschouw de vergelijking Ax = b. Dan geldt: als A een n × k matrix en


b ∈ Rn dan is x ∈ Rk een kleinste kwadraten oplossing van de vergelijking Ax = b als en
slechts als x ∈ Rk een oplossing is van de vergelijking AT Ax = AT b.

Bewijs: Merk op: x is de kleinste kwadratenoplossing van Ax = b als en slechts als Ax is de


orthogonale projectie van b op Col(A) ⇔ b − Ax ∈ Col(A)⊥ (= Nul(AT )) ⇔ AT (b − Ax) = 0
⇔ AT b − AT Ax = 0, waarmee het gevraagde bewezen is.

Het stelsel
AT Ax = AT b
heet de normaal vergelijking van het stelsel Ax = b. Ongeacht de consistentie van het stelsel
Ax = b zal het normale stelsel AT Ax = AT b consistent zijn!

Voorbeeld 17.4. Bepaal de kleinste kwadraten benadering van het inconsistente stelsel Ax = b
met:    
4 0 2
A =  0 2  en b =  0 .
1 1 11
Bepaal tevens de kleinste kwadratenfout.
Oplossing.  
  4 0  
T 4 0 1 17 1
A A=  0 2 =  .
0 2 1 1 5
1 1
 
  2  
4 0 1  19
AT b = 0 = .
0 2 1 11
11
De normaalvergelijking AT Ax = AT b wordt:
    
17 1 x1 19
=
1 5 x2 11

Dit stelsel is simpel op te lossen en levert de kleinste kwadraten benadering:


   
x1 1
x= =
x2 2

Omdat:          
4 0   2 4 2 2
1
Ax − b =  0 2  − 0 = 4 − 0 = 4 
2
1 1 11 3 11 −8
p √
wordt de kleinste kwadratenfout : kAx − bk = 22 + 42 + (−8)2 = 84.

Kleinste kwadraat benaderingen hoeven niet uniek te zijn.


148 College 17, Kleinste kwadraten benadering.

Voorbeeld 17.5. Bepaal de kleinste


 kwadraten benadering
 van Ax= b als:

1 1 0 0 −3
 1 1 0 0   −1 
   
 1 0 1 0   0 
A= 
 en b =  2 
  
 1 0 1 0   
 1 0 0 1   5 
1 0 0 1 1
Oplossing
We bepalen de normaalvergelijking.
 
  1 1 0 0  
1 1 1 1 1 1   1 1 0 0 
 6 2 2 2
 1 1 0 0 0 0  1 0 1 0   2 2 0 0 
AT A = 
 0 0 1 1 0 0  1 0 1 0  =  2 0 2 0 
   
 
0 0 0 0 1 1  1 0 0 1  2 0 0 2
1 0 0 1
en  
  −3  
1 1 1 1 1 1   −1 
 4
 1 1 0 0 0 0   0   −4 
AT b = 
 0 0 1 1 0 0  2  =  2 
   
 
0 0 0 0 1 1  5  6
1
De aangevulde matrix van de normaalvergelijking wordt:
   
6 2 2 2 | 4 1 0 0 1 | 3
 2 2 0 0 | −4  ∼  0 1 0 −1 | −5 
 

 2 0 2 0 | 2   0 0 1 −1 | −2 
2 0 0 2 | 6 0 0 0 0 | 0
En dit
 levert
 als kleinste kwadraten
  benadering:
  
x1 3 − x4 3 −1
 x2   −5 + x4   −5   1 
x=  x3  =  −2 + x4  =  −2  + x4  1
      .

x4 x4 0 1

Het residue is kAx − bk = 12. 

Waarschuwing Vegen van het stelsel Ax = b heeft geen invloed op de oplossingen van het stelsel.
Het heeft echter wel invloed op de kleinste kwadraten benadering! Conclusie: als een stelsel [ A | b ]
geveegd wordt tot de echelonvorm [ E | c] om te zien of dit stelsel consistent is, en dit stelsel blijkt
inconsistent te zijn, ga dan om de kleinste kwadraten benadering te vinden de normal vergelijkingen
AT Ax = AT b oplossen en niet E T Ex = E T c.
Uniciteit kleinste kwadraten oplossing

Wanneer is de kleinste kwadraten benadering van het stelsel Ax = b uniek? We weten dat
een consistent stelsel Cx = d een unieke oplossing heeft als en slechts als de kolommen van C
onafhankelijk zijn. Omdat de kleinste kwadraten benadering van het stelsel Ax = b eigenlijk de
oplossing is van het consistente stelsel:

Ax = projCol(A) (b)

is, kunnen we concluderen dat:


17.3. Een alternatieve formule voor de projectiematrix 149

LEMMA 17.6. Laat Ax = b een stelsel zijn. Equivalent zijn:

1. De kolommen van A zijn lineair onafhankelijk,


2. Er is een unieke kleinste kwadraten benadering van dit stelsel. 

Maar omdat de kleinste kwadraten benadering van het stelsel Ax = b ook de oplossing is van het
consistente stelsel:
AT Ax = AT b
is, kunnen we ook concluderen dat:

LEMMA 17.7. Laat Ax = b een stelsel zijn. Equivalent zijn:


1. De kolommen van AT A zijn lineair onafhankelijk,
2. Er is een unieke kleinste kwadraten benadering van dit stelsel. 

Kennelijk kunnen we concluderen:

GEVOLG 17.8. Laat Ax = b een stelsel zijn. Equivalent zijn:


1. De kolommen van A zijn lineair onafhankelijk,
2. De kolommen van AT A zijn lineair onafhankelijk.

En we verkrijgen:

STELLING 17.9. Laat A een matrix zijn met onafhankelijke kolommen en beschouw het
stelsel Ax = b. Dan is er een unieke kleinste kwadraten benadering van dit stelsel, gegeven
door:
x = (AT A)−1 AT b

Waarschuwing: Gebruik de formule x = (AT A)−1 AT b nooit. Het oplossen van de normaal
vergelijking AT Ax = AT b is minder werk dan het bepalen van (AT A)−1 !

17.3 Een alternatieve formule voor de projectiematrix


Merkwaardigerwijs kunnen we nu een nieuwe formule vinden voor de orthogonale projectie van een
vector b op de kolomruimte van een matrix A. Inderdaad, laat Ax = b een stelsel zijn, waarbij
de matrix A onafhankelijke kolommen heeft. We weten dat er een unieke kleinste kwadraten
150 College 17, Kleinste kwadraten benadering.

benadering van dit stelsel, gegeven door:

x = (AT A)−1 AT b

Omdat dit eigenlijk de oplossing is van het stelsel Ax = projCol(A) (b) kunnen we concluderen:

Ax = A(AT A)−1 AT b = projCol(A) b (!!!)

STELLING 17.10. Zij W een lineaire deelruimte van Rn . Stel dat {a1 , · · · , ak } een basis
is voor W en definiëer de n × k matrix A = [a1 , · · · , ak ]. Dan geldt: de standaardmatrix van
de orthogonale projectie op W gelijk is aan:

[projW ] = A(AT A)−1 AT .

Bewijs: Het is duidelijk dat W = Col(A). Volgens wat hierboven staat is:

A(AT A)−1 AT b = projCol(A) (b) = projW (b)

en wel voor iedere b ∈ Rn . Maar dan is de projectiematrix kennelijk: [projW ] = A(AT A)−1 AT .

Wat als de kolommen van A niet onafhankelijk zijn? Dan zijn er meerdere kleinste kwadraten
benaderingen, maar ieder van die benaderingen is een oplossing van het stelsel Ax = projCol(A) (b).
Dus al die kleinste kwadraat oplossingen zullen dezelfde Ax leveren, die gelijk is aan projCol(A) (b).
Controleer dit maar bij voorbeeld 17.5
Concluderend kunnen we nu zeggen dat we twee methoden hebben om de projectiematrix [projW ]
te bepalen, voor een gegeven deelruimte W . In beide gevallen is een basis B = {a1 , . . . , ak } van
W nodig (dus die moet U kunnen bepalen).
Methode 1. Via het Gram-Schmidt proces een orthogonale basis bepalen en deze normeren. Zo
is een orthonormale basis {q1 , . . . , qk } verkregen van W . Als Q = [q1 . . . qk ] dan geldt: [projW ] =
QQT .
Methode 2. Bekijk de matrix A = [a1 . . . ak ]. Dan geldt [projW ] = A(AT A)−1 AT .
Opgaven ter Lehring ende
Vermaeck

151
152 Opgaven ter Lehring ende Vermaeck
Opgaven ter Lehring ende Vermaeck 153

Opgaven bij college 1


−−→ −−→ −→
1. Beschouw een driehoek ABC en bepaal de vector AB + BC + CA.
   
6 1
2. Beschouw de vector x =  0  en de vector u =  1 .
3 2
(a) Bepaal de (orthogonale) projectie van x op u.
(b) Bepaal de component van x loodrecht op u.
(c) Bepaal oneindig veel vectoren y met de zelfde projectie op u als x. (Hint: maak gebruik van de
antwoorden van onderdeel a en b.)

3. (a) Schrijf het lineaire stelsel op dat bij de volgende aangevulde matrix hoort.
 
1 1 1 1 2
 2 −1 −1 −2 1 
1 3 −2 11 −4

(b) Geef de aangevulde matrix van het volgende lineaire stelsel in de variabelen x1 , x2 , x3 .

2x1 + x2 − x3 = 8
x1 + 8x2 + 5x3 = 0

(c) Geef de aangevulde matrix van het volgende lineaire stelsel in de variabelen x1 , x2 , x3 en x4 .

2x1 + x2 − x3 = 8
x1 + 8x2 + 5x3 = 0

(d) Vind u bovenstaande vraag flauw of kinderachtig? Bekijk dan het volgende voorbeeld.
(i) Wat is de vergelijking van het vlak (in de ruimte) door (1, 1, 0) en (0, 2, 0) loodrecht op
het x, y-vlak?
(ii) Wat is de vergelijking van het vlak door (4, 0, 0) en (2, 1, 0), loodrecht op het x, y-vlak?
(iii) Aan welk stelsel voldoen de punten (x, y, z) die op beide vlakken liggen?
(iv ) Wat is de overeenkomst van dit stelsel met het stelsel uit opgave 3c?
(e) Bovenstaande in beschouwing nemend, is het dan begrijpelijk dat de aangevulde matrix notatie
de voorkeur heeft boven die van het stelsel? Wat is die reden dan? (En niet “een kortere
notatie” noemen.)

4. Los de
 volgende stelsels op door de aangevulde matrix te vegen naar driehoeksvorm:
 x1 + x2 + 3x3 = 25
(a) 2x1 − x2 + 4x3 = 55

− x2 + x3 = 15

 1x − 3x3 = 8
(b) 2x1 + 2x2 + 9x3 = 7

x2 + 5x3 = −2

 x1 − 3x2 + 4x3 = −4
(c) 3x1 − 7x2 + 8x3 = −8

−4x1 + 6x2 − 2x3 = 6

 x1 − 3x2 = 10
(d) −x1 + x2 + 5x3 = 2

2x2 + x3 = 0
154 Opgaven ter Lehring ende Vermaeck

5. We weten: drie vergelijkingen met drie onbekenden oplossen is i.h.a. het bepalen van de gemeen-
schappelijke punten van de drie vlakken die bij de drie vergelijkingen horen.
(a) Teken drie vlakken in de ruimte zodat de oplossing van het overeenkomstige stelsel een lijn is.
(b) Teken drie vlakken in de ruimte zodat het overeenkomstige stelsel inconsistent is.
(c) Teken drie vlakken in de ruimte zodat het overeenkomstige stelsel één oplossing heeft.
(d) Bestaan er drie vlakken in de ruimte zodat het overeenkomstige stelsel een vlak tot oplossing
heeft?
     
1 1 2
6. Beschouw de drie vectoren v1 =  −1 , v2 =  1  en v3 =  0  in R3 .
2 −1 1
 
1
(a) Ga na of de vector b =  −3  een lineaire combinatie is van v1 , v2 , v3 .
5
(b) Ga na of de vector v1 een lineaire combinatie is van v1 , v2 , v3 .
(c) Ga na of de vector v1 een lineaire combinatie is van v2 , v3 .
(d) Bestaat er een vector u ∈ R3 die geen lineaire combinatie is van v1 , v2 , v3 ?

7. (a) De ongelijkheid van Cauchy–Schwarz is een bron voor vele ongelijkheden. Bijvoorbeeld:

(x2 + xy + y 2 )2 ≤ (2x2 + y 2 )(x2 + 2y 2 )


   
x x
Dit is in te zien door op de vectoren u =  x  en v =  y  de ongelijkheid van C.S. toe
y y
te passen en dan te kwadrateren. Ga dit na.

(b) Toon aan: Er geldt gelijkheid bij de ongelijkheid van Cauchy-Schwarz als en slechts als u en
v scalair veelvoud van elkaar zijn.
(c) Toon via geschikt gekozen u, v ∈ R2 en via Cauchy–Schwarz dat geldt voor a, b > 0:
√ a+b
ab ≤
2
(Hier staat: het meetkundig gemiddelde
 √  van a, b is kleiner of gelijk aan het rekenkundig
a
gemiddelde.) (Hint: neem u = √ .) Ga ook na onder welke voorwaarden er gelijkheid
b
geldt.
(d) Toon de volgende ongelijkheid aan en ga na wanneer er gelijkheid is:
√ p
|a + b + c| ≤ 3 a2 + b2 + c2 , (a, b, c ∈ R).

(e) Toon de volgende ongelijkheid aan en ga na wanneer er gelijkheid is:


1 1 1
(a + b + c)( + + ) ≥ 9, (a, b, c > 0).
a b c
Opgaven ter Lehring ende Vermaeck 155

Opgaven bij College 2


1. Welke van de volgende matrices
 zijn 
in echelonvorm? 
4 0 2 3 11 2 3 4
 0 1 1 0   0 10 1 0 
(a) A1 =  0 1 1 0  en A2 =  0 0 0 0
  

0 0 0 0 0 0 0 5
   
−1 1 −1 1 10 9 8 7
 0 0 0 0   0 1 1 0 
(b) B1 =  0 0 10 5  en B2 =  0 0 1
  
1 
0 0 0 0 0 0 0 1

2. Welke van de volgende matrices


 zijn 
in gereduceerde echelonvorm?
 En welke in echelonvorm?
1 0 1 0 1 0 0 0
 0 1 1 0 
 en A2 =  0 1 1 0 

(a) A1 =  0 0 0 0   0 0 0 −1 

0 0 0 0 0 0 0 0
   
1 1 0 1 1 1 0 0
 0 0 1 0   0 1 1 0 
(b) B1 =  0 0 0 0  en B2 =  0 0 1 1 
  

0 0 0 0 0 0 0 1

3. Laat A en B twee m × n matrices zijn. Gebruik de eigenschappen:

1. Een matrix heeft een unieke gereduceerde ecehelonvorm (Stelling 2.4)

2. Veegstappen zijn omkeerbaar

om aan te tonen: “de matrices A en B zijn rijequivalent (d.w.z. zijn naar elkaar te vegen) als en
slechts als A en B dezelfde gereduceerde echelonvorm hebben”.

4. Voor ieder
 van de volgende matrices
 A1 en
 A2 waarbij: 
1 3 1 3 1 3 −1 1
A1 =  −8 −24 −5 −21  en A2 =  −1 −3 2 0 :
3 9 1 7 0 0 −1 −1
(a) Veeg Ai naar gereduceerde echelon vorm
(b) Wijs de pivotkolommen en de pivotposities van Ai aan op de gebruikelijke manier.
(c) Ga na of de twee matrices rijequivalent zijn en zo ja, leg uit hoe deze naar elkaar te vegen zijn.

5. Ga na dat van de volgende stelsels de coëfficientenmatrix in gereduceerde echelonvorm is. Geef


aan wat de vrije variabelen en wat de gebonden variabelen zijn. Schrijf de oplossing in vectorpa-
rametervorm (vegen is dus niet meer nodig).

x1 + 2x2 − 4x4 = −4
(a)
x3 − 6x4 = −2

 x1 + 3x3 = 0
(b) x2 − 2x3 = −2

x4 = 1

6. Ga na
 welke van de volgende stelsels consistent zijn.
 x2 + 5x3 = −4
(a) x1 + 4x2 + 3x3 = −2

2x1 + 7x2 + x3 = −1
156 Opgaven ter Lehring ende Vermaeck


 3x1 + 2x2 + x3 = 1
(b) 5x1 + 3x2 + 3x3 = 2

x1 + x2 − x3 = 1

7. Ga na of de volgende stelsels consistent zijn. Zo ja, los de stelsels op en schrijf het antwoord in
vectorparametervorm.


 3x1 + 2x2 + x3 = 1

5x1 + 3x2 + 3x3 = 2
(a)

 7x1 + 4x2 + 5x3 = 3

x + x2 − x3 = 0
 1
 3x1 − 2x2 + 5x3 + x4 = 1
(b) x1 + x2 − 3x3 + 2x4 = 2

6x1 + x2 − 4x3 + 3x4 = 7

 x1 + x2 − 3x3 + x4 = 5
(c) 2x1 − x2 + x3 − 2x4 = 2

7x1 + x2 − 7x3 + 3x4 = 3

 x1 + x2 + 2x3 + 3x4 + 4x5 = 0
(d) 2x1 + 2x2 + 7x3 + 11x4 + 14x5 = 0

3x1 + 3x2 + 6x3 + 10x4 + 15x5 = 0


 x1 − 2x2 + x3 + 2x4 = −2

2x1 + 3x2 − x3 − 5x4 = 9
(e)

 4x1 − x2 + x3 − x4 = 5

5x1 − 3x2 + 2x3 + x4 = 3

 x1 − x2 = b1
8. Een stelsel wordt gegeven door −x1 + 3x2 − 2x3 = b2

x1 + 3x2 − 4x3 = b3
(a) Los het stelsel op als de termen bi respectievelijk 1, −1 en 1 zijn.
(b) Dezelfde vraag maar nu met 0, 0 en 0.
(c) Waar moeten b1 , b2 en b3 aan voldoen opdat het stelsel consistent is?

9. Gegeven is een stelsel met parameters α en β in R en aangevulde matrix


 
3 1 −2 4
 0 α−2 α2 − α − 2 β 
0 0 (α − 2)(α + 1) 0

(a) Geef alle waarden van α en β waarvoor dit stelsel geen oplossingen heeft.
(b) Geef alle waarden van α en β waarvoor dit stelsel oneindig veel oplossingen heeft.
(c) Geef alle waarden van α en β waarvoor dit stelsel precies één oplossing heeft.

10. [Tentamen wi2142TNW, 24.08.04, iets aangepast]


Gegeven is het stelsel

 x1 + 3x2 + x3 + x4 = 0
2x1 + 3αx2 + 2x3 − x4 = 3 (α, β ∈ R).

4x1 + 6αx2 + α2 x3 + αx4 = β

(a) (i) Voor welke waarden van α en β heeft het stelsel géén oplossingen?
(ii) Voor welke waarden van α en β heeft het stelsel oneindig veel oplossingen?
(iii) Voor welke waarden van α en β heeft het stelsel precies één oplossing?
(b) Los het stelsel op voor α = 2 en β = 2.
Opgaven ter Lehring ende Vermaeck 157

Opgaven bij college 3


   
1 2 3 2
1. Van de matrixvergelijking Ax = b met A =  4 5 6  is x =  1  de oplossing. Schrijf de
7 8 9 −3
vector b als lineaire combinatie van de kolommen van de matrix A.

2. (a) Herschrijf de vectorvergelijking


         
2 −1 3 −3 1
x1 + x2 + x3 + x4 =
3 1 2 −8 1
als een lineair stelsel enals een
 matrixvergelijking.
   
7 3 6
(b) Voor de vectoren u =  2 , v =  1  en w =  1  geldt: 3u − 5v − w = 0. Gebruik
5 3 0
dit feit om zonder rijoperaties de matrixvergelijking
   
7 3   6
 2 1  x1
= 1 
x2
5 3 0
op te lossen.

3. Gegeven zijn twee stelsels met dezelfde coëfficientenmatrix met een gegeven particuliere oplossing:
       
1 2 3 6 1 1 2 3 0 −1
 4 5 6 15  met xp =  1  en  4 5 6 −3  met xp =  −1 
7 8 9 24 1 7 8 9 −6 1
Los beide stelsels op door de bijbehorende homogene vergelijking op te lossen.

4. Stel dat de matrixvergelijking Ax = b een unieke oplossing heeft. Wat kunt u zeggen over de
oplossingsverzameling van de vergelijking Ax = b1 , als b1 6= b?

5. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom):
(a) Een lineair stelsel vergelijkingen met minder vergelijkingen dan onbekenden heeft oneindig
veel oplossingen.
(b) Een consistent lineair stelsel vergelijkingen met minder vergelijkingen dan onbekenden heeft
oneindig veel oplossingen.
(c) Laat A een matrix zijn. Als het stelsel Ax = 0 slechts de triviale oplossing heeft, dan heeft
het stelsel Ax = b voor iedere b ∈ Rn een unieke oplossing.
(d) Laat A een vierkante matrix zijn. Als het stelsel Ax = 0 slechts de triviale oplossing heeft
(dat is x = 0), dan heeft het stelsel Ax = b voor iedere b ∈ Rn een unieke oplossing.
(e) De som van twee oplossingen van een lineair stelsel vergelijkingen is ook een oplossing van dit
stelsel.
(f) De som van twee oplossingen van een homogeen lineair stelsel vergelijkingen is ook een oplos-
sing van dit stelsel.
(g) Een scalair veelvoud van een oplossing van een homogeen lineair stelsel vergelijkingen is ook
een oplossing van dit stelsel.

6. Bepaal de oplossing z ∈ C3 van het volgende lineaire stelsel over C.



 2z1 + iz2 + (1 + 3i)z3 = 1
z1 − 2z2 + iz3 = 0

−iz1 + z2 + (2 + i)z3 = 1
158 Opgaven ter Lehring ende Vermaeck

7. Behandel de vectoren v1 , v2 , v3 als in Voorbeeld 3.9 en Voorbeeld 3.10 om Span{v1 , v2 , v3 } te


bepalen.      
1 3 1
(a) v1 =  2 , v2 =  2  en v3 =  1 .
3 1 1
     
1 3 1
(b) v1 =  2 , v2 =  2  en v3 =  −2 .
3 1 1

8. Geef een voorbeeld van drie vectoren v1 , v2 , v3 ∈ R3 zo dat v1 ∈ Span{v2 , v3 } maar v3 ∈


/
Span{v1 , v2 }.

9. Bepaal ofde vector


 v in de opspanning
  zit van de daaropvolgende vectoren.
1 1 −2
(a) v = , u1 = , u2 = .
2 −1 1
     
2 1 1
(b) v =  1 , u1 =  1 , u2 =  0 .
6 2 3
       
2 1 1 0
(c) v =  1 , u1 =  1 , u2 =  0 , u3 =  1 .
6 2 3 −1
       
1 1 0 1
(d) v =  2 , u1 =  1 , u2 =  1 , u3 =  0 .
3 0 1 1

10. Ga na of de volgende stelsels vectoren in R3 de ruimte R3 opspannen. Zo niet, geef een vector die
niet in de 
opspanning
 zit.
   
1 1 1
(a) u1 =  1 , u2 =  0 , u3 =  3 .
1 2 −1
     
1 1 1
(b) u1 =  1 , u2 =  0 , u3 =  3 .
1 2 1
   
1 1
(c) u1 =  1 , u2 =  0 .
1 3

11. Bepaal bij de volgende vectoren alle waarden van de parameter h zodat de gegeven vectoren de
ruimte Rnwaarinze zitten
 opspannen.
  
1 3 −1
(a) u1 =  −1 , u2 =  −5 , u3 =  5 .
4 7 h
       
1 1 1 1
 1   1   2   1 
(b) v1 =  1 , v2 =  2 , v3 =  1  en v4 =  1 .
      

2 1 1 h
     
√ 1 1 1
, w2 =  22  en w3 =  1 .
 h     
(c) w1 = 
2   h   1 
1 1 h
Opgaven ter Lehring ende Vermaeck 159

       
1 1 2 0
(d) z1 =  2 , z2 =  1 , z3 =  5  en z4 =  h .
1 1 2 0
160 Opgaven ter Lehring ende Vermaeck

Opgaven college 4
1. Toon aan: als het stelsel {v1 , . . . , vk } de nulvector bevat, dan is dit stelsel afhankelijk.

2. Toon aan: een stelsel v1 , v2 van twee vectoren is afhankelijk als en slechts als één van de twee
vectoren een scalair-veelvoud is van de ander.

3. Bewijs of weerleg de volgende uitspraken.


(a) Als het stelsel {v1 , . . . , vk } afhankelijk is, dan is het grotere stelsel {v1 , . . . , vk , vk+1 } dat ook.
(b) Als het stelsel {v1 , . . . , vk } onafhankelijk is, dan is het grotere stelsel {v1 , . . . , vk , vk+1 } dat
ook.
(c) Als het stelsel {v1 , . . . , vk } afhankelijk is, dan is het kleinere stelsel {v1 , . . . , vk−1 } dat ook.
(d) Als het stelsel {v1 , . . . , vk } onafhankelijk is, dan is het kleinere stelsel {v1 , . . . , vk−1 } dat ook.

4. Bepaal bijieder van


 de volgende
 gevallen voor
 welke
 waarden van h de vectoren afhankelijk zijn.
1 3 −1
(a) v1 =  −1 , v2 =  −5  en v3 =  5 .
4 7 h
     
1 2 −1
(b) v1 =  −1 , v2 =  −2  en v3 =  5 .
4 8 h
       
1 3 −1 −1
(c) v1 =  −1 , v2 =  −5  en v3 =  5  en v4 =  h .
4 7 1 h

5. Bepaal van elk van de volgende stellen vectoren of deze afhankelijk of onafhankelijk zijn. Probeer
het eerst via “inspectie” in te zien (d.w.z. uit het hoofd). Leg in die gevallen wel uit hoe je tot het
antwoord
 gekomen
  bent.
2 1
(a)  −1 ,  4 
3 4
     
0 2 2
(b)  1 ,  1 ,  0 
2 3 1
       
3 0 5 1
 1   0   −1   1 
(c)  1 ,  0 ,  −5 ,  2 
      

2 0 −6 3
     
2 3 1
(d)  2 ,  1 ,  −5 
1 2 2
       
3 5 4 −1
(e)  2 ,  3 ,  3 ,  0 
4 6 6 2
       
−1 −1 1 0
 −1   1   0   1 
(f)  1 ,  0 ,  1 ,  −1 
      

0 1 −1 1

6. (a) Gegeven is de onafhankelijke verzameling {v1 , v2 } in Rn . Toon aan dat {v1 + v2 , v1 − v2 }


Opgaven ter Lehring ende Vermaeck 161

ook een onafhankelijke verzameling is.


(b) Ga na dat voor iedere keuze van de vectoren vi ∈ Rn (i = 1, 2, 3) de verzameling {v1 + v2 + v3 , v1 + v2 , v3 }
in Rn een afhankelijk verzameling is.
(c) Gegeven is dat de verzameling vectoren {v1 , v2 , v3 } in Rn onafhankelijk is. Ga na of de
volgende verzamelingen dat ook zijn.
(i) {v1 , v1 + v2 , v1 + v2 + v3 },
(ii) {v1 − v2 , v2 − v3 , v3 − v1 },
(iii) {v1 + v3 , v2 + v3 , v3 , v1 + v2 + v3 }

7. Laat  
    1 2
3 0 4 −2 1
A= , B= , C = 3 4 ,
−1 5 0 2 3
5 6
Bereken, indien mogelijk, de volgende matrices:
(a) A + 2C (b) 2A − 4I2 (c) B − C
(d) B − 2C T (e) B T − 2C (f) A + AT
Wat valt u op aan de antwoorden van (d) en (e)? Geef een verklaring hiervan. Wat valt u op aan
de matrix in antwoord (f)? (Voor een verklaring: zie opgave 8c.)

8. (a) Bewijs dat de som van twee symmetrische n × n matrices weer symmetrisch is.
(b) Waar of niet: als A symmetrisch is dan is cA ook symmetrisch (met c ∈ R)?
(c) Toon aan: als A een vierkante matrix is dan is de matrix A + AT ook symmetrisch.
(d) Wat geldt voor A + AT als A geen vierkante matrix is?

9. Een matrix A heet scheefsymmetrisch als AT = −A.


(a) Leg uit waarom een scheefsymmetrische matrix vierkant moet zijn.
(b) Geef een voorbeeld van een scheefsymmetrische 3 × 3 matrix met zoveel mogelijk kentallen
ongelijk aan nul.
(c) Bewijs dat de som van twee scheefsymmetrische n × n matrices weer scheefsymmetrisch is.
(d) Waar of niet: als A scheefsymmetrisch is dan is cA ook scheefsymmetrisch (met c ∈ R)?
(e) Bewijs dat voor n × n matrices A geldt dat A − AT scheefsymmetrisch is.

10. (a) Bewijs dat iedere vierkante matrix te schrijven is als de som van een symmetrische en een
scheefsymmetrische matrix. (Hint: gebruik opgave 8c en 9e).
(b) Bepaal alle n × n matrices die zowel symmetrisch als scheefsymmetrisch zijn.
(c) Bewijs dat iedere matrix op unieke manier te schrijven is als de som van een symmetrische en
een scheefsymmetrische matrix.
(Hint: als A = B1 + C1 = B2 + C2 met Bi symmetrisch en Ci scheefsymmetrisch, bekijk dan
B1 − B2 en C2 − C1 .)
162 Opgaven ter Lehring ende Vermaeck

Opgaven college 5
1. Laat
 
    1 2  
3 0 4 −2 1 0 −3
A= , B= , C =  3 4 , D= ,
−1 5 0 2 3 −2 1
5 6
 
  −1
E= 4 2 , F =
2
Bereken, indien mogelijk, de volgende matrices:
(a) AB (b) BD (c) BC (d) B T B
(e) F E (f) EF (g) DA − AD (h) A3

2. Voor het handmatig berekenen van een matrixproduct, gebruik je meestal de definitie. Soms is
(vanwege de eenvoud van één van de matrices) één van de andere visies (de kolom- of de rij-visie)
handiger.
Gebruik in de volgende gevallen een zo handig mogelijke methode om het product AB en BA van
de volgende
 matrices te berekenen
 en vermeld
 de gebruikte
 methode.
7 −17 39 −5 0 0 0
(a) A =  −5 3 2 0 , B =  0 2 0 
2 −5 12 −8 1 1 0
   
0 1 0 0 1 2 3 4
 0 0 0 1   −4 −5 3 2 
(b) A =   1 0 0 0 , B =  0
  
1 −1 −7 
0 0 1 0 12 8 −11 5
   
3 1 0 4 0 0
(c) A =  −2 −2 1 , B =  0 8 0 
1 5 −3 0 0 −3
   
1 0 0 3 1 0
(d) A =  0 1 0 , B =  −2 −2 1 
−2 0 1 1 5 −3

3. Bepaal door proberen voorbeelden van reële 2 × 2-matrices A, B, C, D, E en F waarvoor geldt


(a) A2 = −I;
(b) B 2 = 0 terwijl B 6= 0;
(c) CD = −DC met CD 6= 0;
(d) EF = 0, terwijl alle kentallen van E en F ongelijk aan nul zijn.

4. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom). De
afmetingen van matrices A, B en C zijn steeds zo dat de algebraı̈sche operaties gedefinieerd zijn.
(a) Als A = B, dan AC = BC.
(b) Als AC = BC, dan A = B.
(c) Als AB = 0 dan A = 0 of B = 0.
(d) Als A + C = B + C, dan A = B.
(e) Als A2 = I, dan A = ±I.
(f) De kentallen van A2 zijn allemaal ≥ 0.

5. A en B zijn vierkante matrices van gelijke afmetingen.


(a) Welke van de volgende matrices zijn gelijk aan (A + B)2 ?
Opgaven ter Lehring ende Vermaeck 163

(i) (B + A)2 ;
(ii) A2 + 2AB + B 2 ;
(iii) A(A + B) + B(A + B);
(iv ) (A + B)(B + A);
(v ) A2 + AB + BA + B 2 .
(b) Onder welke conditie geldt (A + B)2 = A2 + 2AB + B 2 ?

6. Bewijs: het product van twee bovendriehoeksmatrices is weer een bovendriehoeksmatrix.

7. (a) Geef een voorbeeld van twee symmetrische 2 × 2 matrices waarvoor het product AB niet sym-
metrisch is. Ga na of bij de door u gevonden matrices misschien wel geldt of BA symmetrisch
is?
(b) Toon aan: als A en B symmetrische n × n matrices zijn, dan geldt AB is symmetrisch als en
slechts als AB = BA.

8. Beschouw de volgende veegstappen bij de matrices A en B. Bepaal matrices E1 en E2 zodat:


 
  1 2 1
1 2 1 2  2 3 4 
E1 A =  1 2 3 4  ×2 , E2 B =  
 −1 −2 2  × − 3
−1 −2 −1 2 ↓+
1 1 1 ↓+
164 Opgaven ter Lehring ende Vermaeck

Opgaven college 6
 
 1 −2
 2
4 −6
1. (a) Laat zien dat en  2 1 1  inverteerbaar zijn en vind hun inversen.
10 −14
1 0 1
(b) Gebruik inverse matrices om de oplossing van de volgende stelsels te vinden

  x1 − 2x2 + 2x3 = 3
4x1 − 6x2 = 8
en 2x1 + x2 + x3 = 0
10x1 − 14x2 = −6 
x1 x3 = −2

2. Bepaal van elk van de volgende matrices de inverse,


 indien deze
 bestaat.
    2 3 4
12 9 3 −5
(a) (b) (c)  2 1 1 
4 3 1 2
     −1 1 2 
1 2 3 1 2 2 1 −2 1
(d)  4 5 6  (e)  2 −1 1  (f)  −2 5 −4 
7 8 9 1 3 2 1 −4 6
 
  0 1 0 0 0 0
  1 2 3 4  2 0 2 0 0 0 
2 7 13  0
 
1 2 3   0 3 0 1 0 0 
(g)  −2 −5 −3  (h) 
  (i)  
0 0 1 2   0 0 1 0 2 0 
1 4 9  
0 0 0 1  0 0 0 3 0 1 
0 0 0 0 2 0

3. Bewijs stelling 6.2

4. [Tentamen ET, 02.11.94, deel 1]


(a) Gegeven is een vierkante matrix A met de eigenschap dat A2 + 3A + I = 0. Toon aan dat A
inverteerbaar is. Geef ook de inverse van A.
(b) Bepaal de n × n matrix B als gegeven is dat deze inverteerbaar is en bovendien voldoet aan
B 2 − 3B = 0.

5. Bepaal
 alle waarden
 van r waarvoor geldt dat de matrix
2 4 2
(a)  1 r 3  inverteerbaar is;
1 2 1
 
2 4 2
(b)  1 r 3  inverteerbaar is.
1 1 2

6. (a) Gegeven is een inverteerbare matrix A. Is A + AT dan ook inverteerbaar? En A + A?


(b) Toon aan: Als A2 inverteerbaar is, dan is A ook inverteerbaar.
(c) Toon aan: Als A symmetrisch + inverteerbaar, dan is A−1 ook symmetrisch.
(d) Toon aan: Als A scheef-symmetrisch + inverteerbaar, dan is A−1 ook scheef-symmetrisch.

7. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom). De
afmetingen van matrices A, B en C zijn steeds zo dat de algebraı̈sche operaties gedefinieerd zijn.
(a) Als AC = BC en C is inverteerbaar, dan A = B.
(b) Als AB = 0, en B is inverteerbaar, dan A = 0.
(c) Als twee van de matrices uit AB = C inverteerbaar zijn, dan de derde ook.
Opgaven ter Lehring ende Vermaeck 165

(d) Als A en B inverteerbaar zijn, dan is A + B ook inverteerbaar met inverse A−1 + B −1 .
(e) Als A en B inverteerbaar zijn, dan is AB ook inverteerbaar met inverse A−1 B −1 .

8. Een vierkante matrix A heet idempotent als A2 = A, A heet nilpotent als A2 = O.


(a) Geef een voorbeeld van een idempotente 2 × 2 matrix A met A 6= O, I.
(b) Toon aan: Als A een inverteerbare idempotente matrix is, dan A = I.
(c) Geef een voorbeeld van een idempotente 2 × 2 matrix A met A 6= O.
(d) Toon aan: Er bestaan geen inverteerbare nilpotente matrices.

9. Los de matrix X op uit de volgende vergelijkingen. U mag aannemen dat de matrices A en B


inverteerbaar zijn.
(a) XA2 = A−1
(b) AXB = (BA)2
(c) (A−1 X)−1 = (B −2 A)−1 A
(d) ABXA−1 B −1 = I + A

10. Heriner: vegen is links vermenigvuldigen met een (inverteerbare!!) matrix.


(a) Laat A een inverteerbare n × n matrix en B een n × k matrix. We beschouwen de matrix
[A|B], vegen A naar de matrix In en passen dezelfde veegstappen toe op B. Dan verschijnt
daar de matrix: · · · (dus [A|B] ∼ [In |??])?
   
1 2 1 2
(b) Bepaal B −1 A bij de matrices: B = en A = , zo kort mogelijk.
2 5 3 4
166 Opgaven ter Lehring ende Vermaeck

Opgaven college 7
1. Bekijk nog eens de definitie van de determinant zoals in paragraaf 8.1 en leg hiermee uit wat de
formule van de determinant van de 1 × 1-matrix A = [a1,1 ] is.

2. (a) Bepaal alle permutaties van {1, 2, 3, 4}.


(b) Schrijf iedere permutatie σ uit (a) als een product van cykels en bepaal daarmee het teken
van iedere permutatie.
(c) Gebruik het resultaat van onderdeel (a) om de algemene formule te bepalen van de determinant

a1,1 a1,2 a1,3 a1,4

a2,1 a2,2 a2,3 a2,4

a3,1 a3,2 a3,3 a3,4

a4,1 a4,2 a4,3 a4,4

3. Bereken
 de determinanten
 van
 de volgende
 matrices
 m.b.v. dedefinitie 
in §7.2: 
2 1 1 3 0 8 1 2 3 a 1 1
(a) 1
 4 −4 , (b)  5 0 7 , (c)  4 5 6 , (d)  −1 a 3 .
1 0 2 −1 4 2 7 8 9 4 −2 a

4. Bereken de determinanten van de volgende matrices via Laplace cofactor expansion naar een ge-
schikte rij of kolom.      
  0 2 0 0 1 0 1 0 3 5 7 2
0 0 1  −3 0 0 0   0 1 0 1  −2
 0 0 0 
(a)  0 5 2 , (b) 
 0 0 0 4 , (c)  1 1 0 0
  , (d) 
 2
.
 4 1 1 
3 −1 4
0 0 1 0 0 0 1 1 1 1 3 4

5. Bepaal de volgende determinanten.




0 0 cos θ a 0
0

0 0
a

(a) sin θ cos θ tan θ , (b) b c 0 ,
(c) 0 b c ,

− cos θ sin θ − cos θ d e f d e f

0 0 0 2

0 0 3 c
(d) ,
0 1 d e

3 f g h
Opgaven ter Lehring ende Vermaeck 167

Opgaven college 8
1. Bepaal de volgende determinanten m.b.v. Stelling 8.1:

−4 2 0 0 −4 0 0 0 2 0 1 4 1 2 2 1

2 3 1 0 2 3 0 0 3 2 −4 −2 1 3 3 1
(a) (b)

(c) 2
(d)
3 1 0 2 3 1 1 0 3 −1 0 2 3 3 2

1 3 0 3 1 3 1 1 11 8 −4 6 2 4 3 2

2. A is een 3 × 3 matrix met det(A) = 3 en B is een 4 × 4 matrix met det(B) = 3.


Bepaal det(2A) en det(2B).

3. Bereken de determinanten van de volgende matrices uit het hoofd, door gebruik te maken van
eigenschapppen van de determinant:  
    0 2 0 0
1 1 1 0 0 1  −3 0 0 0 
(a)  3 0 −2 , (b)  0 5 2 , (c) 
 0 0
,
0 4 
2 2 2 3 −1 4
0 0 1 0
 
    1 0 1 0
4 1 3 2 3 −4  0 1 0 1 
(d)  −2 0 −2 . (e)  1 −3 −2 , (f)   1
.
1 0 0 
5 4 1 −1 5 2
0 0 1 1
 
2 3 4 5
 0 2 3 4 
4. Bereken det A en det A−1 als A = 
 0
.
0 2 3 
0 0 0 2

5. Gegeven zijn 3 × 3 matrices A en B met det A = 2 en det B = −2. Bereken:


(a) det(AB), (b) det(3A), (c) det(A4 ),
(d) det(B A), (e) det(−2B ), (f) det(BB T ).
−1 T

6. Vind een algemene formule voor de berekening van det(cA) met behulp van det(A) als A een n × n
matrix is en c een scalar.

7. Laat met een voorbeeld zien dat in het algemeen det(A + B) 6= det(A) + det(B).

8. Bepaal de mogelijke waarden van det A als A idempotent is (d.w.z. A2 = A). Evenzo als de matrix
A nilpotent is (A2 = O).
De opgaven 9-13 zijn een toegift en zijn absoluut geen tentamenstof. We kunnen later wel naar
deze resultaten verwijzen.
9. (a) Laat x1 , x2 , . . . , xn , xn+1 getallen in R zijn. Bewijs dat

1
x1 x21 · · · x1n−1 xn1
1
x2 x22 · · · x2n−1 xn2
n−1
1
x3 x23 · · · x3 xn3 Y
.
.. .. .. .. .. .. = (xj − xi )
. . . . . n+1≥j>i≥1
2
1 xn
x n · · · xnn−1 xnn
1 xn+1 x2 n−1
n+1 · · · xn+1 xnn+1
Q
Hier staat n+1≥j>i≥1 (xj − xi ) voor het product van alle mogelijke termen (xj − xi ) met
j > i.
168 Opgaven ter Lehring ende Vermaeck

Q
Dus als n = 2 dan n+1≥j>i≥1 (xj − xi ) = (x3 − x1 )(x2 − x1 )(x3 − x2 ).
Q
Als n = 3 dan n+1≥j>i≥1 (xj − xi ) = (x4 − x1 )(x3 − x1 )(x2 − x1 )(x4 − x2 )(x3 − x2 )(x4 − x3 ).
(Hint: omdat
de berekening
vrij lastig is de
x2 − x1
x22 − x21 · · · x2n−1 − x1n−1 xn2 − xn1
n−1 n−1
volgende opstap.
x3 − x1
x23 − x21 · · · x3 − x1 xn3 − xn1
.. .. . .. .
.. ..
Het ligt voor de . . .

hand om xn − x1 2
xn − x1 2 n−1
· · · xn − x1 n−1 n n
xn − x1

xn+1 − x1 x2 − x2 · · · xn−1 − xn−1 xn − xn
n+1 1 n+1 1 n+1 1
via vegen met de eerste rij en ontwikkelen naar de eerste kolom te verkrijgen bovenstaande deter-
minant te verkrijgen. Vervolgens gaan we van rechts naar links kolomvegen.
Kolom n vervangen door kolom n −x1 × (n − 1)de kolom.
Kolom n-1 vervangen door kolom (n − 1) −x × (n − 2)de kolom. Etc.
1
Nu kan men bij iedere rij de term (kijk zelf maar) buiten haakjes halen.
De determinant van deze opgave heet de VanderMonde determinant, genoemd naar de Franse
wiskundige A. T. Vandermonde (1735-1796).
(b) Gebruik de VanderMonde determinant om het volgende te bewijzen: als x1 , . . . , xn+1 (n+1)
verschillende getallen in R zijn en b1 , b2 , . . . , bn , bn+1 zijn gegeven waarden in R, dan bestaat
er een uniek polynoom p(x) = a0 +a1 x+· · ·+an xn van de graad tenhoogste n zodat p(xi ) = bi
(voor i = 1 . . . n + 1).

10. Gebruik de regel van Cramer


 om de volgende twee stelsels op te lossen.
  2x1 + x2 = 7
3x1 − 2x2 = 7
en −3x1 + x3 = 8
−5x1 + 6x2 = −5 
x2 + 2x3 = −3

11. Volgens Stelling 9.14 geldt: A regulier dan ook adj(A) regulier.
Toon nu aan: als A een singuliere matrix is, dan is adj(A) ook een singuliere matrix.
(Hint. Volgens Stelling 9.13 geldt: A adj(A) = 0. Als adj(A) regulier zou zijn dan geldt: A =??
en dus adj(A) =??. Tegenspraak met de aanname dat adj(A) regulier zou zijn!)

12. Toon aan: als A een n × n matrix (met n ≥ 2) dan det(adj(A)) = (det(A))n−1

13. Toon aan: als A een reguliere n × n matrix (met n ≥ 2) dan is adj(A) inverteerbaar en
1
(adj(A))−1 = A = adj(A−1 )
det(A)

Gebruik dit om een formule voor adj(adj(A)) te bepalen, voor reguliere A. (Hint: pas Stelling 9.14
toe op adj(A).)

14. Ga na welke van de volgende 5 afbeeldingen lineair zijn. Zo ja, bepaal de standaardmatrix. Als de
afbeelding T niet lineair is, geef vectoren x en y aan met T (x + y) 6= T (x) + T (y).
   
x 2x + 3y
(a) T : R2 → R2 met T =
y 3x + 4y − 1
   
2 2 x x + 3y
(b) T : R → R met T =
y 3x2 + 4y
   
x −x + 3y
(c) T : R2 → R2 met T =
y 2x + 4y
   
2 2 x √ 2x + 3y
(d) T : R → R met T =
y 3x + 4y
Opgaven ter Lehring ende Vermaeck 169

   
2 3 x 2x + 3y

(e) T : R → R met T =
y x 3 + 4y
 
3
15. (a) Draai de vector x = over een hoek van 60◦ linksom. Welke vector krijgt U?
5
(b) Zelfde vraag, maar nu draaien we 60◦ rechtsom.
 
x
(c) Zelfde twee vragen, maar nu voor de vector x = .
y
 
1
16. (a) Beschouw de vector u = en beschouw de projectie op u als afbeelding van R2 naar R2 .
3
In 1.1 hebben we geleerd: u · x
proju (x) = u.
u·u
Ga na of de de afbeelding proju : R2 → R2 is door via de formule naar de standaardmatrix te
zoeken. Als de afbeelding niet lineair is, geeft dan vectoren x en y aan met proju (x + y) 6=
proju (x) + proju (y).
(b) Gebruik de formule van de projectie op u om aan te tonen dat proju : R2 → R2 een lineaire
afbeelding is.

17. Laat ℓ een lijn door de oorsprong zijn. Iedere (gebonden) vector x heeft een spiegelbeeld t.o.v.
deze lijn. Beschouw de afbeelding Sℓ : R2 → R2 die iedere vector x ∈ R2 naar zijn spiegelbeeld
t.o.v. ℓ stuurt, genaamd: Sℓ (x).
(a) Toon aan: Sℓ : R2 → R2 (Hint: copieer het meetkundige bewijs dat de rotatie een lineaire
afbeelding is.)
 
1
(b) Neem ℓ gelijk aan de lijn door u = . Toon aan:
3

x + Sℓ (x) = 2 proju (x)

Gebruik deze identiteit en opgave 16 om de standaardmatrix [Sℓ ] te bepalen.


170 Opgaven ter Lehring ende Vermaeck

Opgaven college 9

Opgaven van §9.1


 
d1
1. Als d = 6= 0 beschouw dan de lijn ℓ = Span{d}. Beschouw tevens de projectie
d2
projℓ : R2 → R2 op ℓ en de spiegeling Sℓ : R2 → R2 t.o.v. ℓ. (Zie opgave 17 college 8 voor
informatie over spiegelingen.)
(a) Toon aan dat:
 
1 d21 d1 d2
[projℓ ] = 2
d1 + d22 d1 d2 d22

(b) Toon aan dat:


 
1 d21 − d22 2d1 d2
[Sℓ ] = 2
d1 + d22 2d1 d2 −d21 + d22

(c) Toon aan dat als ℓ de lijn door de oorsprong is met een hoek θ met de positieve x-as, dan:
   
cos2 (θ) cos(θ) sin(θ) cos(2θ) sin(2θ)
[projℓ ] = en [Sℓ ] =
cos(θ) sin(θ) sin2 (θ) sin(2θ) − cos(2θ)

2. Bepaal voor de volgende twee lijnen ℓ in R2 de standaardmatrix van de orthogonale projectie


projℓ : R2 → R2op ℓ en de spiegeling Sℓ : R2 → R2 t.o.v. ℓ.

y = x 3.
(a) ℓ1 is de lijn
(b) ℓ2 is de lijn
y = −3x.
 
1
(c) Bepaal het beeldpunt van x = bij spiegeling t.o.v. zowel de ene als de andere lijn.
1

3. Voor alle θ laat Rθ : R2 → R2 de rotatie over een hoek θ (linksom) zijn. Laat meetkundig zien dat
Rα ◦ Rβ = Rα+β en gebruik dit om de (bekende) formules te vinden voor cos(α + β) en sin(α + β)

4. Bepaal de standaardmatrix van de volgende compositie van lineaire afbeeldingen. Eerst roteren we
60◦ linksom, vervolgens spiegelen we om de lijn y = 2x en tenslotte projecteren we op de y − as.

5. Laat ℓ1 de lijn door de oorsprong is met een hoek θ met de positieve x-as en ℓ2 de lijn door de
oorsprong is met een hoek ψ met de positieve x-as met ψ > θ. Beschouw de twee spiegelingen Sℓ1
en Sℓ2 . Leg uit m.b.v. matrixrekening dat Sℓ2 ◦ Sℓ1 een rotatie is. Over welke hoek?

6. Bekijk de volgende lineaire afbeeldingen. Welke zijn inverteerbaar en zo ja, bepaal een expliciete
formule voor de inverse
 afbeelding.

  x+y
x
(a) T =  x − y .
y
2x
   
x x+y
(b) T = .
y 2x + 2y
   
x x+y
(c) T = .
y x−y
   
x 6x + y
(d) T = .
y 5x + y
Opgaven ter Lehring ende Vermaeck 171

7. (a) In opgave 1 hebben we berekend dat de spiegeling t.o.v. de lijn ℓ door de oorsprong die een
cos(2θ) sin(2θ)
hoek θ met de positieve x-as maakt als standaardmatrix heeft: [Sℓ ] = .
sin(2θ) − cos(2θ)
Bepaal meetkundig Sℓ−1 en controleer uw voorspelling door [Sℓ−1 ] te berekenen.
(b) In opgave 1 is ook de standaardmatrix [projℓ ] van de projectie op de lijn ℓ bepaald.
(i) Ga meetkundig na of projℓ : R2 → R2 inverteerbaar is en controleer dit aan de hand van
de [projℓ ].
(ii) Bepaal projℓ ◦ projℓ meetkundig en controleer dit aan de hand van [projℓ ◦ projℓ ].

8. Welke van de volgende deelverzamelingen van R2 zijn deelruimten van R2 ? Geef in het geval van
deelruimte een opspannend stel vectoren.   
x
(a) Het eerste kwadrant K1 , preciezer, de verzameling K1 = : x ≥ 0, y ≥ 0 .
y
  
x
(b) De vereniging van het eerste en derde kwadrant, dus K = : xy ≥ 0 .
y
(c) De punten op de lijn ℓ met de vergelijking y = x.
  
x
(d) De vereniging van de x-as en de y-as, dus T = : x = 0 of y = 0 .
y
  
x 2 2
(e) De punten binnen de eenheidsdisc D, dus D = : x +y ≤1 .
y
  
x
(f) De punten op de eenheidscirkel C, dus C = : x2 + y 2 = 1 .
y

9. Welke van de volgende verzamelingen vormen een deelruimte van een geschikte Rn ? Geef in het
geval van deelruimte een opspannend stel vectoren.   
    a 
 x  
 

b  a + 3b = c
(a) A =  y  : x+y+z =2 (b) B =    :
   c  b+c+a=d 
z 
 

    d  
 a   b − 2d 
2a − b + 1 = c
(c) C =  b  : (d) D =  5 + d  : b, d ∈ R
 a=b   
 c   b + 3d
 3b + c − 6d    

 
  1+a 
d 
 1 + b  : a, b ∈ R
(e) E =   : b, c, d ∈ R (f) F =
  c    

 
 2+a+b
0
172 Opgaven ter Lehring ende Vermaeck

Opgaven college 10
1. Schrijf de volgende
 lineaire
  deelruimten
 of als kolomruimte of als nulruimte van een matrix.
 1 2 
(a) W = Span  2  ,  1 
 
1 1
  
 a 
2a − b = c
(b) W =  b  :
 a=b 
c
  

 a 

 
b  a + 3b = c
(c) W =    :
 c 
 −b + c + a = d 

 
d

2. Bepaal in ieder van de gevallen of b ∈ Col(A), w ∈ Row(A) en x ∈ Nul(A).


   
    −1 1
1 0 −1 3
(a) A = ,b= , w =  1 , x =  −2 .
1 1 1 2
1 1
       
1 1 −3 1 2 1
(b) A =  0 2 1 , b =  1 , w =  4 , x =  −1 .
1 −1 4 0 5 −1

3. Toon aan: Als A en B matrices zijn met de eigenschap dat AB = 0, dan is Col(B) een deelverza-
meling van Nul(A). En omgekeerd?

4. Laat A en B twee matrices zijn waarvoor geldt dat AB gedefinieerd is.


(a) Bewijs dat de kolomruimte van AB bevat is in de kolomruimte van A.
(b) Is het ook waar dat de kolomruimte van AB bevat is in de kolomruimte van B?
(c) Doe analoge uitspraken met betrekking tot de rijruimte van AB.
T
5. Bepaal bij elk van de volgende matrices Aeen basis van
 Col(A), Col(A ) en Nul(A).
  1 1 −3
1 0 −1
(a) A = (b) A =  0 2 1 
1 1 1
   1 3 −2 
1 1 0 1 2 −4 0 2 1
(c) A =  0 1 −1 1  (d) A =  −1 2 1 2 3 
0 1 −1 −1 1 −2 1 4 4

6. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom).
(a) Een basis voor W is een zo groot mogelijke W opspannende verzameling vectoren.
(b) Een basis voor W is een zo klein mogelijke W opspannende verzameling vectoren.
(c) Een basis voor W is een zo groot mogelijke onafhankelijke verzameling vectoren in W .
(d) Een basis voor W is een zo klein mogelijke onafhankelijke verzameling vectoren in W .
(e) Als Span{v1 , v2 , v3 , v4 } = R4 dan is {v1 , v2 , v3 , v4 } een basis voor R4 .

7. Gegeven is de volgende deelruimte van R4 :


         

 1 3 −1 −2 −3 
   −1 
1   3   0   2
W = Span    ,  , , ,  .

 −1   −3   3   10   10 

 
2 6 0 4 1
Opgaven ter Lehring ende Vermaeck 173

(a) Geef een 4 × 5 matrix A1 , een 4 × 6 matrix A2 en een 4 × 7 matrix A3 , zo dat W = Col Ai
voor i = 1, 2, 3.
(b) Bestaat er een 4 × 4 matrix A zo dat W = Col A? En een 4 × 3 matrix? En een 4 × 2 matrix?
En een 5 × 5 matrix?
(c) Geef een 4 × 4 matrix B1 zo dat W = Row B1 .
(d) Gegeven is dat B een matrix is zo dat W = Row B. Wat kun je zeggen over de afmetingen
van B?
(e) Kun je een matrix C bedenken zo dat W = Nul C?

8. De deelruimte W van Rn is de oplossingsverzameling van het stelsel



 x1 + x2 − x4 + 2x5 = 0
2x1 + 2x2 + x3 − x4 + 7x5 = 0

−x1 − x2 + x3 + 2x4 + x5 = 0

(a) Wat is n?
(b) Bepaal de dimensie van W . Doe dit met zo weinig mogelijk rekenwerk!
(c) Geef een matrix A zo dat W = Nul A. Kun je nog een matrix bedenken met deze eigenschap,
maar met andere afmetingen?
(d) Geef een matrix B zo dat W = Col B?
(e) Geef een matrix C zo dat W = Row C.
 
1 −2 0 1
 2 1 5 3 
 
9. Gegeven is de matrix A =  1  1 3 1 .
 −1 1 −1 3 
0 2 2 4
(a) Geef voor elk van de verzamelingen Col A, Row A, Nul A en Nul(AT ) aan van welke Rn ze een
deelruimte zijn.
(b) (i) Behoort (−4, −2, 2, 0)T tot Nul(A)? En (−7, −1, 0, 5)T ?
(ii) Behoort (0, 0, 0, 0, 1)T tot Col(A)? En (0, 11, 6, 2, 8)T ?
(iii) Behoort (0, 0, 0, 0)T tot Row(A)? En (0, 0, 0, 1)T ?
(c) Bepaal bases voor de kolom–, rij– en nulruimte van A. Doe dit door slechts door de matrix A
te vegen (hetgeen waarschijnlijk al gedaan hebt).
(d) Geef een matrix B zo dat Col B = Nul A.
(e) Dun de rijen van A uit tot een basis voor de rijruimte van A.
(f) Bewijs dat de vectoren (0, 0, 1, 1, −1)T en (2, −4, 4, −2, 3)T een basis voor Nul AT vormen.

10. Bepaal de dimensies van Col A, Row A, Nul A en Nul(AT ) voor A = 


    2 1 1
1 1 −3 1 1 0 1  1 4 −4 
(a)  0 2 1  (b)  0 1 −1 1  (c)  1 0 −2 

1 −1 −4 0 1 −1 −1
1 2 3
174 Opgaven ter Lehring ende Vermaeck

Opgaven college 11
1. Toon aan: Als A en B matrices zijn met de eigenschap dat AB = 0, dan geldt: rang(B) ≤
dim(Nul(A)).

2. Laat A een m × n matrix zijn. Vul in (met uitleg):


1. Equivalent zijn:
(a) De kolommen van A zijn lineair onafhankelijk.
(b) dim(Col(A)) =??
(c) dim(Nul(A)) =??
2. Equivalent zijn:
(a) De kolommen van A spannen Rm op.
(b) dim(Col(A)) =??
(c) dim(Nul(A)) =??
3. Laat A een m × n matrix zijn. Toon aan dat de volgende eigenschappen equivalent zijn:
1. De kolommen van A zijn lineair onafhankelijk.
2. De kolommen van AT spannen Rn op.
4. Laat A een m × n matrix zijn met rang(A) = k. Toon aan:
(a) Er bestaat een m × k matrix B en een k × n matrix C zo dat BC = A.
(b) Als ℓ < k bestaat er geen m × ℓ matrix B en een ℓ × n matrix C zo dat BC = A.

5. (a) Geef een voorbeeld van twee vierkante matrices A, B met rang(AB) < rang(A) en rang(AB) <
rang(B).
(b) Toon aan: als A inverteerbaar, dan rang(AB) = rang(B).
(c) Toon aan: als B inverteerbaar, dan rang(AB) = rang(A).
(d) Geef een voorbeeld van twee vierkante matrices A, B met rang(AB) 6= rang(BA).

6. Als AB = I dan heet A een links-inverse van B en B heet een rechts-inverse van A. Toon
aan:
(a) Als A een m × n matrix, dan heeft A een rechts-inverse als en slechts als rang(A) = m.
(b) Als A een m × n matrix, dan heeft A een links-inverse als en slechts als rang(A) = n.
(c) Als A een m× n matrix, dan heeft A zowel een rechts-inverse als een links-inverse als en slechts
als A vierkant en inverteerbaar is. Bovendien zijn dan de rechts-inverse en de links-inverse
aan elkaar gelijk.

7. Ga bij de volgende matrices na of de gegeven vectoren eigenvectoren zijn. Zo ja, bepaal de bijbe-
horende eigenwaarden.
     
1 −3 −3 0 −5
(a) A =  2 3 4  met  1  en  2 ?
1 4 3 −1 3
   √   
2 1 −1 + 2 0
(b) A = met en ?
1 4 1 0
     
3 −2 −1 1 1
(c) A =  −1 −2 3  met  0  en  1 ?
3 −2 −1 1 1
Opgaven ter Lehring ende Vermaeck 175

 
3 0 −1
8. (a) Is 4 een eigenwaarde van A =  2 3 1 ? En −1? Zo ja, bepaal dan ook de meetkun-
−3 4 5
dige multiplicitiet van de eigenwaarde.
 
2 3 −1
(b) Is 4 een eigenwaarde van A =  1 4 −1 ? En 6? Zo ja, bepaal dan ook de meetkundige
0 5 −1
multiplicitiet van de eigenwaarde.
 
1 1 1
(c) Is 0 een eigenwaarde van A =  1 1 1 ? En 3? Zo ja, bepaal dan ook de meetkundige
1 1 1
multiplicitiet van de eigenwaarde.
176 Opgaven ter Lehring ende Vermaeck

Opgaven college 12
1. Bepaal van de volgende matrices:
(a) de eigenwaarden,
(b) een basis van de eigenruimten,
(c) de algebraı̈sche en meetkundige multipliciteiten van iedere eigenwaarde.
 
    2 1 1
1 3 2 1
A= B= C =  0 −2 2 
−2 6 1 2
0 0 2
 
  0 1 1 1
0 0 2  1 0 1 1 
D =  0 −2 2  E=  1 1 0 1 

2 1 1
1 1 1 0
2. Laat A een n × n matrix zijn. Druk de eigenvectoren en eigenwaarden van A + cI uit in die van A.
(D.w.z., als λ een eigenwaarde is van A, dan is . . . een eigenwaarde van A + cI. Bovendien: als x
een eigenvector van A is bij λ, dan is . . . eigenvector A + cI bij de eigenwaarde . . . .)

3. (a) Laat A een nilpotente matrix zijn (d.w.z. een matrix met An = O, voor zekere n ∈ N). Laat
zien: als λ ∈ R een eigenwaarde is van A, dan is λ = 0.
(b) Laat A een idempotente matrix zijn (d.w.z. A2 = A). Laat zien: als λ ∈ R een eigenwaarde
is van A, dan is λ = 0 of λ = 1.

4. Laat A een vierkante matrix zijn.


(a) Toon aan dat A en AT dezelfde karakteristieke vergelijking hebben.
(b) Toon aan dat A en AT dezelfde eigenwaarden hebben.
(c) Geef een voorbeeld van een 2 × 2 matrix A zo dat A en AT niet dezelfde eigenvectoren hebben.

5. Voor een n × n matrix A met eigenwaarden λ1 , . . . , λn (naar multipliciteit geteld evenals de


complexe nulpunten) geldt:
(a) λ1 · λ2 · · · λn = det A
(b) λ1 + λ2 + · · · + λn = a11 + a22 + · · · + ann , (Lastig te bewijzen, wel een leuk feit.)
Opgaven ter Lehring ende Vermaeck 177

Opgaven college 13
1. Laat A, B inverteerbare n × n matrices zijn. Toon aan dat de matrices AB en BA gelijkvormig
zijn.

2. Geef een bewijs van Lemma 13.2.

3. Toon aandat de volgende


 matrices
 A, B niet gelijkvormig zijn.
3 −1 2 1
(a) A = en B = .
−5 7 −4 6
   
1 2 3 3 0 0
(b) A =  0 1 2  en B =  1 1 0 .
0 0 2 1 1 1

4. Laat zien dat de volgende matrices A en B diagonaliseerbaar zijn. Bepaal een diagonalisering
van zowel A als B. Laat ook zien dat A en B gelijkvormig door een matrix Q te bepalen met
A = QBQ−1 .   
1 1 1 2
(a) A = en B = .
0 2 0 2
   
1 1 1 2 0 0
(b) A =  0 2 2  en B =  1 1 0 .
0 0 3 3 2 3
   
 1 1 
5. Verzin een 3 × 3 matrix A die eigenwaarden λ = 1, 2 heeft en die  1  ,  0  als basis van
 
 1 1

 1 
E1 heeft, en  0  als basis van E2 . Hoeveel van zulke matrices zullen er bestaan?
 
−1

6. Geef een bewijs van Stelling 13.11. (Toch wel lastig)

7. [Tentamen lineaire algebra voor ET, 28 oktober 2002]


Ga na of het volgende waar dan wel niet waar is (zonder de matrixproducten te berekenen):
   −1
1 1 1 2 0 0 1 1 1
 1 0 −1   0 2 0   1 0 −1  =
2 1 1 0 0 5 2 1 1
   −1
−1 1 0 5 0 0 −1 1 0
 1 0 1  0 2 0  1 0 1 
−1 1 1 0 0 2 −1 1 1

8. Ga van de volgende matrices


 na of ze diagonaliserbaar
 zijn. Zo ja, bepaal een diagonalisering.
3 1 0 1 0 1
(a) A =  0 3 1 , B =  0 1 1 
0 0 3 1 1 0
   
1 0 0 1 2 1
(b) A =  2 2 1 , B =  −1 0 1 
3 0 1 1 1 0
178 Opgaven ter Lehring ende Vermaeck

 
2 0 2 2
 0 3 0 1 
(c) A = 
 0

0 3 0 
0 0 0 1

9. [Tentamen lineaire algebra voor ET, 20 augustus 2002, gedeelte]


Gegeven zijn de volgende matrices:
   
1 1 1 0 0 0
P = 1 2 −2  en D =  0 −2 0 .
1 −3 1 0 0 −2

Verder A = P DP −1 . Beantwoord de volgende vragen zonder A uit te rekenen! Geef argumenten!


(a) Wat zijn de eigenwaarden van A? Geef ook de algebraı̈sche multipliciteiten.
(b) Bepaal bij elke eigenwaarde een basis voor de bijbehorende eigenruimte.
(c) Is A gelijk aan RCR−1 als
   
1 −1 0 −2 0 0
R =  2 −1 1  en C =  0 0 0 ?
−3 −1 −1 0 0 −2

10. Voor welke


 waarden van
 k zijn de volgende matrices diagonaliseerbaar?
1 0 k
(a) A =  0 1 0 
0 0 1
 
1 k 0
(b) A =  9 2 0 
0 0 1
 
1 1 k
(c) A =  1 1 k .
1 1 k
 
1 0 1
11. Beschouw de matrix A =  0 1 1 . Bepaal An en lim An .
n→∞
0 0 1/2
 
4 8 1
12. Beschouw de matrix A =  0 9 1 .
0 0 1
(a) Geef een diagonalisering van A.
(b) Geef een diagonalisering van A2 .
(c) Geef een diagonalisering van een matrix B met B 2 = A. Hoeveel van deze matrices kunt U
vinden op deze manier?
(d) Geef een diagonalisering van een matrix Bn met positieve eigenwaarden met Bnn = A. Bepaal
lim Bn .
n→∞

13. Gegeven zijn de volgende matrix en vectoren

       
1 −1 1 1 1 −1
1
A= −1 1 1 , b1 =  1  , b2 =  1  en b3 =  1  .
2
1 1 −1 −2 1 0
Opgaven ter Lehring ende Vermaeck 179

(a) Toon aan dat B = {b1 , b2 , b3 } een basis voor R3 is bestaande uit eigenvectoren van A.
 
2
(b) Schrijf v =  4  als lineaire combinatie van b1 , b2 b3 . Waarom weet je zeker dat dit kan?
−3
(c) Beschouw het dynamisch systeem xn+1 = Axn met x0 = v. Bepaal xn . Bestaat lim xn ?
n→∞
(d) Bestaat lim Ak ?
k→∞

−1
(e) Bestaat lim Ak w als w =  3 ?
k→∞
1

14. Bepaal van de volgende lineaire recurrentie problemen een formule voor pn .
(a) p0 = 0, p1 = 5 en pn+1 = 3pn + 4pn−1 .
3 5
(b) p0 = 10, p1 = −3 en pn+1 = pn + pn−1 . Bepaal ook lim pn .
8 8 n→∞

15. Los de
 volgende gekoppelde differentiaal vergelijkingen op.
x′1 = x1 + 3x2
(a)
x′ = 2x1 + 2x2
 ′2
x1 = 2x1 − x2
(b)
x′2 = −x1 + 2x2
 ′
 x1 = x2 −x3
(c) x′2 = x1 +x3
 ′
x3 = x1 +x2
 ′
 x1 = x2 −x3
(d) x′2 = x1 +x3 met x1 (0) = 1, x2 (0) = 0 en x3 (0) = −1.
 ′
x3 = x1 +x2
180 Opgaven ter Lehring ende Vermaeck

Opgaven college 14
1. Stel dat de vectoren u, v en w in Rn gegeven zijn. Als u · v = u · w en u 6= 0, volgt dan dat
v = w? (Zo ja, bewijs dat dan. Zo nee, geef een tegenvoorbeeld.)
   
1 1
 1   1  4
 1  en v =  0  in R .
2. Gegeven zijn de vectoren u =    

1 0
(a) Bepaal u · v, kuk, kvk.
(b) Bepaal de hoek tussen u en v.
(c) Normeer beide vectoren u en v tot u1 en v1 .

3. Laat u en v vectoren in Rn zijn. Toon aan:


u⊥v als en slechts als d(u, v) = d(u, −v).
(Hint: begin het bewijs aan die kant van de identiteit waar rekenregels toegepast kunnen worden,
en met name de rekenregels van het inwendig product!)

4. Laat u en v niet nulvectoren in Rn zijn, met normering u1 en v1 . Toon aan dat de hoek tussen u
en v gelijk is aan de hoek tussen u1 en v1

5. Welke van de volgende 4 expressies zijn onzinnig.


(a) u · (v + w) (b) (u · v) · w (c) (u · v)w (d) (u · v) + w

6. Stel dat de vectoren u, v en w in Rn gegeven zijn met


u · v = 2, u · w√= 6 en v · w √
=4
kuk = 2, kvk = 2 en kwk = 10
(a) Bepaal (u + w) · (v − w).
(b) Bepaal (2v − w) · (3u + 2w).
(c) Bepaal k2u − vk.
(d) Toon aan: u + v = w.
     
9 1 0
 1   1−k   k 
7. Gegeven zijn de vectoren u =  ,v=   en w =  2
  in R4 .
−2  2−k  k 
5 k 0
(a) Bepaal alle k ∈ R zodat u en v orthogonaal zijn.
(b) Bepaal alle k ∈ R zodat u en w orthogonaal zijn.
(c) Bepaal alle k ∈ R zodat v en w orthogonaal zijn.

8. De vectoren u, v en w in Rn zijn gegeven.


(a) Toon aan: (u − v) · (u + v) = kuk2 − kvk2 .
(b) Toon aan: ku + vk2 + ku − vk2 = 2kuk2 + 2kvk2 .
(c) Toon aan: u · v = 41 ku + vk2 − 14 ku − vk2

9. Bepaal of de verzameling vectoren {v1 , . . . , vk } orthogonaal is. Zo ja, kijk of de verzameling via
normeren tot een orthonormale verzameling {w1 , . . . , wk } te maken is.
     
−3 2 1
(a)  1  ,  4  ,  −1 
2 1 2
Opgaven ter Lehring ende Vermaeck 181

     
−3 2 0
(b)  1 , 4 , 0 
2 1 0
     
1 0 1
 0   −1   1 
(c)  ,
  1 , 1 
  
 −1
1 1 0
     
2/3 1/3 2/3
10. Ga na dat B = {v1 , v2 , v3 } met v1 =  1/3 , v2 =  2/3  en v3 =  −2/3  een or-
2/3 −2/3 −1/3
 
2
thonormale basis voor R3 vormen en schrijf de vector w =  0  als lineaire combinatie van
5
v1 , v2 , v3 .
182 Opgaven ter Lehring ende Vermaeck

Opgaven college 15
   
4 2
1. Ga na dat de vectoren v1 =  2 , v2 =  2  orthogonaal zijn en bepaal een vector v3 zó
−1 12
dat {v1 , v2 , v3 } een orthogonale basis is voor R3 . Gebruik deze vectoren om een orthogonale 3 × 3
matrix te maken.
   √ √ 
1 1 −2 1/√2 1/ √2
2. Ga na of de matrices Q1 =  4 0 1  en Q2 =  1/ 2 −1/ 2  orthogonaal zijn. Als
1 −1 −2 0 0
uw antwoord nee is, waarom dan niet?

3. Laat zien dat het product Q1 Q2 van twee orthogonale n × n matrices Q1 en Q2 weer orthogonaal
is. En Q1 + Q2 ?

4. Stel dat Q een n × k matrix is met orthonormale kolommen.


(a) Is Q noodzakelijk een orthogonale matrix?
(b) Kan gelden: k > n?
(c) Toon aan: kQxk = kxk, voor alle x ∈ Rk .
(d) Toon aan: Qx · Qy = x · y, voor alle x, y ∈ Rk .
(e) Toon aan: de hoek tussen de vectoren x en y (in Rk ) is gelijk aan de hoek tussen de vectoren
Qx en Q(y) (zitten in welke R? ?), voor alle x, y ∈ Rk .

5. Laat Q een orthogonale matrix zijn. Toon aan:


(a) det(Q) = ±1.
(b) Als λ een eigenwaarde is van Q dan |λ| = 1.

√ √ 
1/ 2 1/√3 ∗
6. Vul de kentallen van de matrix  √0 1/√3 ∗  aan tot een orthogonale matrix. Hoeveel
−1/ 2 1/ 3 ∗
keuzes van kolommen zijn er?

     
1 1 2
 2   −1   3 
7. Beschouw de vectoren v1 = 
 3 , v2 =  1  en v3 =  7
     en de deelruimte W =

2 2 6
Span{v1 , v2 , v3 }.
(a) Bepaal een basis voor W ⊥ .
(b) Verifieer dat iedere basisvector orthogonaal is met iedere vi (i = 1, 2, 3).
(c) Verifieer ook dat dim(W ) + dim(W ⊥ ) = 4.
(d) Bepaal een matrix A zodat W = Nul(A).

 
1 1 2 1
8. Beschouw de matrix A = en de deelruimte W = Nul(A).
−1 1 2 −1
(a) Bepaal een basis voor W ⊥ .
(b) Bepaal een matrix B zodat Nul(B) = W ⊥ .
Opgaven ter Lehring ende Vermaeck 183


    
1 1 1
 1   1   1 
9. Beschouw de vectoren v1  1 , v2 =  2
=     en v3
  −2  en de deelruimte V =
=  

2 1 5
Span{v1 , v2 , v3 }.      
2 1 0
 2   0   4 
Evenzo, beschouw de vectoren w1 =   3 , w2 =  1  en w3 =  2
     en de deelruimte

3 1 2
W = Span{w1 , w2 , w3 }.
(a) Bepaal bases voor V en W .
(b) Bepaal bases voor V ⊥ en W ⊥ .
(c) Bepaal matrix A1 en A2 zodat Col(A1 ) = V en Col(A2 ) = W .
(d) Bepaal matrices B1 en B2 zodat Nul(B1 ) = V en Nul(B2 ) = W .
 
1
10. Beschouw de lijn L = Span{v} met v =  2 . L is een lineaire deelruimte van R3 .
3
(a) Bepaal een matrix A zodat Nul(A) = L.
(b) Beschrijf meetkundig wat bij onderdeel (a) gebeurd.
(c) Beschrijf een 5 × 3 matrix B zodat Nul(B) = L. Wat gebeurd hier meetkundig?
    
1 1 5
 1   2
 en x =  5 . W is de deelruimte Span{v1 , v2 }.
  
 1 , v2 =  1
11. Beschouw de vectoren v1 =   
  0 
1 1 1
 
2
 5 
 2  de projectie van
(a) Gebruik de definitie van projectie om aan te tonen dat de vector p =  

2
x op W is.
(b) Bepaal ook SW (x).
     
1 1 5
 1   −1   1 
12. Beschouw de vectoren v1 = 
  , v = 
  en x = 
 . W is de deelruimte
0  2 1  −1 
1 0 0
Span{v1 , v2 }.
(a) Bepaal voor x de decompositie in vectoren uit W en W ⊥ . (Hint: v1 ⊥v2 .)
(b) Bepaal projW (x) en SW (x).
(c) Bepaal ook projW ⊥ (x) en SW ⊥ (x).
     
1 0 2
 1   0   0 
13. Bekijk de drie vectoren v1  0 , v2 =  1
=     en v3
  0  en de deelruimte W =
=  

0 1 2
Span{v1 , v2 , v3 }. 

5
 −1  ⊥
 3  de decompositie in vectoren uit W en W .
Bepaal voor x =   (Hint: Pas op, {v1 , v2 , v3 } is

1
184 Opgaven ter Lehring ende Vermaeck

GEEN orthogonale verzameling. Maak gebruik van Gevolg 15.15.)


Opgaven ter Lehring ende Vermaeck 185

Opgaven college 16
     
1 1 5
 1   −1   1 
1. Beschouw nogmaals de vectoren v1 =   0 , v2 =  1  en x =  3 − 1  van opgave 12 van
    

1 0 0
College 15. W is de deelruimte Span{v1 , v2 }.
(a) Bepaal de projectiematrix [projW ] en de spiegelingsmatrix [SW ]. (Hint: v1 ⊥v2 .)
(b) Bepaal nogmaals, nu met behulp van deze matrices, projW (x) en SW (x).

2. Laat W een deelruimte zijn van Rn .


(a) Leg uit waarom de identiteit: x = projW (x) + projW ⊥ (x), voor alle x ∈ Rn betekent dat
[projW ] + [projW ⊥ ] = In .
(b) Gebruik bovenstaand feit om opgave
 13 van college
  15 nog eente doen,
 dus:
1 0 2
 1   0   0 
Bekijk de drie vectoren v1 =   0 , v2 =  1  en v3 =  0  en de deelruimte W =
    

0 1 2
Span{v1 , v2 , v3 }.  
5
 −1 
 3 .
Bepaal [projW ⊥ ] en daarmee [projW ]. Bepaal nu projW (x) voor de vector x =  

3. Gebruik de identiteit [projW ] + [projW ⊥ ] = In om aan te tonen: [SW ⊥ ] = −[SW ].

4. (a) W = Rn is een deelruimte van Rn . Bepaal voor deze deelruimte de matrices [projW ] en [SW ].
(b) W = {0} is een deelruimte van Rn . Bepaal voor deze deelruimte de matrices [projW ] en [SW ].

5. (a) Gebruik de formule [projW ] = QQT om aan te tonen dat iedere projectiematrix [projW ]
symmetrisch is en idempotent. (De matrix P heet idempotent als P 2 = P .)
(b) Toon aan: als P een symmetrische en idempotente n × n matrix is, dat er een deelruimte W
in Rn bestaat met [projW ] = P .
(Hint: neem W gelijk aan Col(P ). Dan geldt zeker P x ∈ W , voor alle x ∈ Rn . Om in te zien dat P x de
projectie van x op W is het voldoende aan te tonen dat x − P x ∈ W ⊥ = (Col(P ))⊥ = Nul(P T )!!!!)

6. De vorige opgave laat zien dat de projectiematrices precies de symmetrische idempotente matrices
zijn. In deze opgave karakterizeren we spiegelingmatrices.
(a) Toon aan: als P een symmetrische idempotente matrix is, dan is 2P − I een symmetrische
orthogonale matrix.
(b) Toon aan: een spiegelingsmatrix [SW ] is symmetrisch en orthogonaal.
(c) Toon aan: als S een symmetrische orthogonale matrix is, dan is de matrix 12 (S+I) symmetrisch
en idempotent.
(d) Leg uit waarom geldt dat de spiegelingmatrices precies de symmetrisch en orthogonale matrices
zijn.
   
1 2 4 5 1 0 2 1
 1 1 3 3   0 1 1 2 
7. Beschouw de matrix A =  3
∼ .
4 10 11   0 0 0 0 
0 −1 −1 −2 0 0 0 0
(a) Bepaal een orthogonale basis voor Col(A) ⊂ Rn . Bepaal ook een orthonormale basis.
186 Opgaven ter Lehring ende Vermaeck

(b) Bepaal een orthogonale basis voor Nul(A) ⊂ Rn .


(c) Bepaal een orthogonale basis voor Col(A)⊥ .
(d) Bepaal een orthogonale basis voor Nul(A)⊥ .
(e) Maak met bovenstaande resultaten twee orthogonale matrices.
   
1 2 4 5 0
 1 1 3 3   0 
8. Beschouw opnieuw de matrix A =   3
 en de vector x =  . Gebruik de
4 10 11   0 
0 −1 −1 −2 1
resultaten van opgave 1 om de orthogonale projectie van x op Col(A) en op Nul(A) te bepalen.
Bepaal tevens de projecties van x op Col(A)⊥ en op Nul(A)⊥
 √ 
1/2 2/√14 ∗ ∗
 1/2 1/ 14 ∗ ∗ 
9. Beschouw de 4 × 4 matrix Q = [ q1 q2 ∗ ∗ ] = 
 1/2
. Bepaal kolommen q3 en
√ 0 ∗ ∗

1/2 −3/ 14 ∗ ∗
q4 voor Q zodat de matrix Q orthogonaal wordt. (Hint: {q3 , q4 } is een orthonormele basis Span{q1 , q2 }⊥ .)
     
1 1 1
 1   −1   2 
10. Als v1 = 
 −1 , v2 =  1  en v3 = 
    , bepaal dan een orthogonale basis en een
0 
1 5 1
orthonormale basis van W = Span{v1 , v2 , v3 }.
Opgaven ter Lehring ende Vermaeck 187

Opgaven college 17
     
1 1 5
 1   −1   1 
1. Beschouw nogmaals de vectoren v1 =   0 , v2 =  1  en x =  −1
     van opgave 12 van

1 0 0
College 15. W is de deelruimte Span{v1 , v2 }.
(a) Bepaal d(x, W ).
(b) Bepaal d(x, W ⊥ ).
     
1 0 2
 1   0   0 
2. Beschouw nogmaals de vectoren v1 = 
 0 , v2 =  1
   en v3
 =  0  en de deelruimte

0 1 2
 
5
 −1 
W = Span{v1 , v2 , v3 } van opgave 13 van College 15. Tevens: x =  .
 3 
1
(a) Bepaal d(x, W ).
(b) Bepaal d(x, W ⊥ ).

3. Bepaal voor de volgende stelsels Ax = b: (1) De normaal vergelijking (2) De kleinste kwadraat
oplossing(en); (3) De projectie van b op Col(A).
   
3 1 1
(a) A =  1 1 , b =  1 .
1 2 1
   
1 −2 4
 0 −3 
 en b =  1 .
 
(b) A =  2 5   −2 
3 0 4
   
1 1 0 1
 1 1 0 
 en b =  3 .
 
(c) A =  1 0 1   8 
1 0 1 2

4. Gegeven is dat het stelsel Ax = b de eigenschap heeft dat b orthogonaal is met iedere kolom ai
van A. Bepaal een kleinste kwadraat oplossing van dit stelsel.

5. Gegeven is dat de kolommen van de matrix A orthonormaal zijn. Bepaal de kleinste kwadraat
oplossing van stelsel Ax = b.

6. Laat A een reële m × n matrix zijn.


(a) Omdat Ax = 0 consistent is geldt dat de vergelijking Ax = 0 en de bijbehorende normaalver-
gelijking dezelfde oplossing hebben.
Gebruik dit inzicht om aan te tonen dat Nul(A) = Nul(AT A).
Kunt u dit ook rechtstreeks aantonen?
(b) Gebruik onderdeel (a) om aan te tonen dat geldt: rang(A) = rang(AT A).

7. Laat A een reële matrix zijn met lineair onafhankelijke kolommen en beschouw P = A(AT A)−1 AT .
Toon aan.
(a) P is een symmetrische matrix.
188 Opgaven ter Lehring ende Vermaeck

(b) P is een idempotente matrix (d.w.z. P 2 = P ).


Herinner nu opgave 5 van College 16 die zegt dat een symmetrische idempotente P matrix een
projectiematrix is, en wel van de projectie op de deelruimte W = Col(P ).
(c) Toon aan dat Col(P ) = Col(A). (Dus weer zien we in dat P = A(AT A)−1 AT de projectiema-
trix is van de projectie op Col(A).)

8. Bepaal voor de volgende lineaire deelruimten W de standaardmatrix van de projectie op W , zonder


eerst een orthogonale basis voor W te bepalen. Bepaal vervolgens de projectie van de gegeven vector
b op Col(A).
     
 1 1  0
(a) W = Span  0  ,  1  en b =  1 .
 
−1 1 0
     
 1 1  1
(b) W = Span  2  ,  0  en b =  2 .
 
1 1 3

You might also like