Professional Documents
Culture Documents
TNdeel 1 Dicttot 1718
TNdeel 1 Dicttot 1718
College 7, Determinanten 57
7.1 Introductie tot Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2 Berekening van Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
i
ii INHOUDSOPGAVE
1.1 Vectoren in R2 en R3
In dit dictaat gaan wij ervan uit dat de lezer vertrouwd is met het (euclidische) vlak. We kunnen
in dit vlak een assenstelsel kiezen, we spreken van een x-as en een y-as. We weten hoe met behulp
van dit assenstelsel de punten coördinaten krijgen. Punten in het vlak (en de ruimte) worden
aangegeven met een hoofdletter, “het punt P ”, en een punt P krijgt de coördinaten (x, y) (zie de
schets). We zeggen zelfs: P = (x, y).
z
z-as
P = (x, y, z)
P = (x, y) y y-as
y
x
x
x-as
Op dezelfde manier kunnen we de ruimte coördinatiseren. Door drie onderling loodrechte assen te
kiezen, de x-as, y-as en de z-as, krijgt ieder punt P in de ruimte coördinaten van de vorm (x, y, z).
In de schets komt de positieve x-as het papier uit, naar ons toe. Ook hier zeggen we: P = (x, y, z).
In de keuze welke as de x-as, respectievelijk de y-as en de z-as wordt, is men vrij. Wel zullen we de
volgende eis stellen aan een assenstelsel: “de keuze van de positieve x-as, positieve y-as en positieve
z-as zal “rechtshandig” zijn”. D.w.z. als, vanuit de oorsprong, de duim van de rechterhand in de
richting van de positieve x-as is, de wijsvinger van de rechterhand in de richting van de positieve
y-as is, dan MOET de middelvinger van de rechterhand in de richting van de positieve z-as gaan.
(De noodzaak van deze eis is wellicht niet duidelijk. Maar bepaalde formules die we kennen, zoals
de formule van het uitwendig product in R3 , zijn alleen correct in een rechtshandig stelsel.)
−−−→ −−−→
A1 B1 = A2 B2 = B1 B2
B −−−→
= A3 B3 !
−−→ B3
v = AB
A A1 A2
A3
−−→
Onze aandacht gaat niet uit naar punten maar naar vectoren van de vorm a = AB, d.w.z. de
pijl met A als beginpunt en B als eindpunt. Vectoren met dezelfde lengte en richting in de ruimte
worden geı̈dentificeerd. Bijvoorbeeld, als A1 = (1, 0), A2 = (1, 1), A3 = (0, 1), B1 = (2, 1),
1
2 College 1, Stelsels lineaire vergelijkingen I
We definiëren:
Definitie: De verzameling van alle kolomvectoren in het vlak wordt aangeduid met R2 . Dus
in verzamelingen-notatie:
x1
R2 = x = : x1 , x2 ∈ R .
x2
Evenzo wordt de verzameling van alle kolomvectoren in de ruimte aangeduid met R3 . Dus in
verzamelingen-notatie:
x1
R3 = x = x2 : x1 , x2 , x3 ∈ R .
x3
u+v u+v+w v
v u u
Voor vrije vectoren is de zogeheten “kop-staart-constructie” ook mogelijk. Deze is met name handig
als er meerdere vectoren moeten worden opgeteld.
Meetkundig is de definitie van de scalaire vermenigvuldiging ook welbekend. Als c ∈ R (c heet een
1.1. Vectoren in R2 en R3 3
−→ −−→
Bewijs: Omdat OA + AB = OB geldt:
b a b − a1
−−→ −−→ −→ 1 1 1
AB = OB − OA = b2 − a2 = b2 − a2 .
b3 a3 b 3 − a3
In het college Analyse zijn we ook het zogeheten (standaard) inwendigproduct x · y op R2 (en ook
op R3 ) tegengekomen .
x1 y1
Herinner: in R3 : als x = x2 en y = y2 dan
x3 y3
x · y = x1 y1 + x2 y2 + x3 y3 ∈ R.
|x · y| ≤ kxk kyk.
Ook volgt:
STELLING 1.4. Twee vectoren x en y in R3 zijn loodrecht (orthogonaal) als en slechts als
x · y = 0.
Tenslotte horen wij bekend te zijn met de loodrechte projectie van een vector x op een vector u;
deze zullen we noteren met:
proju (x).
1.2. De ruimte Rn . 5
De vector x − proju (x) heet: “de component van x loodrecht op u”. We gaan op dit moment hier
niet verder op in. We zullen dit alles opnieuw tegenkomen in de ruimte Rn . Maar dan moet die
ruimte eerst geı̈ntroduceerd worden.
1.2 De ruimte Rn .
De ruimtes R2 en R3 zijn op een voor de hand liggende manier te generaliseren tot “een ob-
ject/ruimte” Rn , via:
x1 y1
Definitie: Als x = ... en y = .. vectoren in Rn zijn en α ∈ R, dan:
.
xn yn
x1 + yn αx1
.. .
x+y = . en αx = ..
xn + yn αxn
−x1 0
Verder definieren we nog de vector −x via −x = ... en ... wordt weer de nulvector
−xn 0
genoemd.
We verkrijgen de volgende rekenregels voor de lineaire structuur op Rn .
1 3 −2
Voorbeeld 1.7. De vector b = 4 2 − 2 2 = 4 is kennelijk een lineaire combinatie
3 1 10
1 3
van de vectoren 2 en 2 (met gewichten 4 en 2).
3 1
Bestaan de c1 , c2 , c3 niet, dan is v geen lineaire combinatie van de gegeven vectoren. Schrijven we
bovenstaande vergelijking per kental uit, dan levert dit kennelijk de volgende drie vergelijkingen
met drie onbekenden.
c1 + 2c2 + 5c3 = 2
−3c2 − 4c3 = −2
−c1 + c2 = −1
Zulke stelsels, m lineaire vergelijkingen met n onbekenden blijken steeds weer op te duiken in de
lineaire algebra. Ons eerste doel is een methode te vinden om zulke stelsels op te lossen.
Op dit moment zullen we slechts zeggen: ga maar na dat c1 = 3, c2 = 2 en c1 = −1 een oplossing is.
We kunnen concluderen dat de vector v inderdaad een lineaire combinatie is van de drie gegeven
vectoren.
Definitie: Een m× n matrix is een rechthoek van getallen (de kentallen van A genoemd),
en wel een rechthoek met m rijen en n kolommen.
Merk op:
1. De ide rij van de matrix A is de rij: ai,1 ··· ai,j ··· ai,n .
a1,j
..
.
2. De j de ai,j .
kolom van de matrix A is de kolom:
.
..
am,j
3. Het kental ai,j van A zit in de ide rij en de j de kolom van de matrix A.
5. Algemeen, als (b1 , · · · , bk ) een stelsel vectoren in Rn is, dan heet [ b1 · · · bk ] de aan dit stelsel
toegevoegde kolommatrix. (Dit is een n × k matrix.)
1 3 1
Voorbeeld 1.9. Als a1 = , a2 = en a3 = dan is de aan het stelsel (a1 , a2 , a3 )
2 −1 −2
toegevoegde kolommatrix:
1 3 1
A = [ a1 a2 a3 ] = .
2 −1 −2
ax + by = d.
ax + by + cz = d.
De vergelijkingen √
4x1 + 5x2 − 4 = 2x3 en x2 = 5x1 + sin(2)x3
zijn lineair, omdat ze als zodanig kunnen worden gerangschikt. Echter, de vergelijkingen
√ √
x2 = 5 x1 + sin(2)x3 of x2 = 5x1 + 2 sin(x3 )
1
zijn dat niet. Een oplossing van de vergelijking 4x1 + 5x2 − 4 = 2x3 is de vector x = 2 ∈ R3 ,
5
maar R3 bevat natuurlijk nog veel meer oplossingen van deze vergelijking. Enige voorzichtigheid
is soms wel nodig. Men kan de vergelijking 4x1 + 5x2 − 4 = 2x3 ook als een lineaire vergelijking in
x1 , x2 , x3 , x4 zien via 4x1 + 5x2 − 2x3 + 0x4 = 4. Dan zit een oplossing x van deze vergelijking in
R4 !
Een stelsel lineaire vergelijkingen in de onbekende variabelen x1 , . . . , xn is een m−tal lineaire
vergelijkingen in de variabelen x1 , . . . , xn . Dit is te schrijven als:
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1
a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2
.. .. .. ..
. . . .
am,1 x1 + am,2 x2 + . . . + am,n xn = bm
De getallen ai,j heten de coëfficienten van het stelsel, deze worden verzameld in de coëfficienten
matrix A = [ai,j ]i=1..m,j=1..n van dit stelsel. Voegen we de bi ook toe aan deze matrix, dan spreken
we van de aangevulde matrix [A|b] van dit stelsel. Dus:
a1,1 · · · a1,n a1,1 · · · a1,n b1
A = ... .. en [A|b] = .. .. ..
. . . .
am,1 ··· am,n am,1 ··· am,n bm
Merk op dat de aangevulde matrix het hele stelsel bepaald. Als A een m × n matrix en b ∈ Rm ,
dan spreken we van het stelsel [A|b].
Een oplossing van dit stelsel is een vector in x ∈ Rn wiens kentallen x1 , . . . , xn voldoen aan al
de m vergelijkingen.
De oplossing van dit stelsel (of ook: de algemene oplossing van dit stelsel) is de verzameling
van alle vectoren in x ∈ Rn met x een oplossing van dit stelsel.
Ons doel is een effectieve methode (procedure) te vinden om de oplossing van een stelsel te bepalen.
Het stelsel heet consistent als er oplossingen zijn. Zo niet, dan heet het stelsel inconsistent (of
stri‘jdig).
Twee (wellicht flauwe) voorbeelden van inconsistente stelsels zijn:
2x1 + x2 = 2 2x1 − 4x2 = 5
of
2x1 + x2 = 3 0x1 + 0x2 = 1
10 College 1, Stelsels lineaire vergelijkingen I
Voorbeeld 1.10. Beschouw het volgende stelsel van 3 vergelijkingen met drie onbekenden.
Merk op dat iedere vergelijking
x1 − x2 − x3 = 6 een vlak in de ruimte represen-
3x1 − 4x2 + 2x3 = 17 teert. Er zijn drie vlakken en we
2x1 − x2 + x3 = 9 zijn op zoek
naar de gemeenschappelijke punten (vectoren) van deze drie vlakken. Echter, hoe deze te vinden?
Zijn er stelsels die eenvoudig zijn op te lossen? Ja, en één type stelsels springt er uit, namelijk
stelsels die in driehoeksvorm staan.
De algemene strategie voor het oplossen van een stelsel van drie vergelijkingen met drie onbe-
kenden is nu simpel te bevatten. We transformeren het oude stelsel in een nieuw stelsel van drie
vergelijkingen met drie onbekenden in driehoeksvorm. Dit doen we door de zogeheten “elementaire
rijbewerkingen” op zo een stelsel los te laten. We bekijken dit eerst voor Voorbeeld 1.10 en dan
zullen we definities etc. geven. Deze rijbewerkingen kunnen we loslaten òf op een stelsel òf op de
aangevulde matrix.
Voorbeeld 1.12. We transformeren het stelsel uit voorbeeld 1.10 naar driehoeksvorm.
Tel tweede vergelijking op bij de derde: Tel tweede rij op bij de derde:
x1 − x2 − x3 = 6 1 −1 −1 6
− x2 + 5x3 = −1 0 −1 5 −1
8x3 = −4 0 0 8 −4
Het stelsel is op driehoeksvorm gebracht, en het zal een ieder duidelijk zijn dat een oplossing van
het eerste stelsel ook een oplossing is van het tweede stelsel. Maar omdat alle stappen omkeer-
baar zijn geldt ook het
omgekeerde.
De twee stelsels heten equivalent en via terug substitutie
4
verkrijgen we dat x = −3/2 de unieke oplossing is.
−1/2
We merken tenslotte op dat de volgende drie bewerkingen zijn gebruikte. Bij het toepassen van
deze bewerkingen op een stelsel gaan geen oplossingen verloren, en komen er ook geen nieuwe
oplossingen te voorschijn.
Als stelsel [ A|b ] tot een stelsel [ A′ |b′ ] wordt omgebouwd via elementaire rijbewerkingen, dan
zeggen we dat stelsel [ A|b ] naar stelsel [ A′ |b′ ] wordt geveegd.
Definitie: Twee stelsels [ A|b ] en [ A′ |b′ ] heten rijequivalent als stelsel [ A|b ] naar [ A′ |b′ ]
kan worden geveegd. We noteren dit met [ A|b ] ∼ [ A′ |b′ ].
Twee stelsels [ A|b ] en [ A′ |b′ ] heten equivalent als deze stelsels dezelfde oplossingsverzame-
ling hebben.
Voorbeeld 1.13.
+
1 2 1 4 ×2 1 2 1 4 1 2 1 4 ↑
−2 2 0 0 ↓+ ∼ 0 6 2 8 ← ∼ 0 1 1 0 ×−2 ×−6 ∼
0 1 1 0 0 1 1 0 ← 0 6 2 8 ↓+
1 0 −1 4 1 0 −1 4 ↑+ 1 0 0 2
0 1 1 0 ∼ 0 1 1 0 ↑+ ↑ ∼ 0 1 0 2
0 0 −4 8 × − 1/4 0 0 1 −2 ×−1 ×1 0 0 1 −2
12 College 1, Stelsels lineaire vergelijkingen I
STELLING 1.14. Als het stelsel [A|b] naar het stelsel [ A′ |b′ ] kan worden geveegd dan kan
het stelsel [ A′ |b′ ] naar het stelsel [A|b] worden teruggeveegd.
Bewijs: Om dit in te zien is het voldoende in te zien dat de elementaire rijbewerkingen omkeerbaar
zijn. Voor verwisseling en scaling is dit duidelijk. Voor substitutie wellicht iets minder.
1 −1 −1 2 ×−3 1 −1 −1 2
3 −3 2 16 ↓+ ∼ 0 0 5 10
2 −1 1 9 2 −1 1 9
Omgekeerd:
1 −1 −1 2 ×3 1 −1 −1 2
0 0 5 10 ↓+ ∼ 3 −3 2 16
2 −1 1 9 2 −1 1 9
Inderdaad, als [ A′ |b′ ] uit [A|b] is ontstaan door c × ide rij op te tellen bij de j de rij, dan kan [A|b]
uit [ A′ |b′ ] verkregen worden door in [ A′ |b′ ] −c× ide rij op te tellen bij de j de rij. Tenslotte, als er
meerdere veegstappen nodig waren kunnen we teruglopen door alle veegstappen om te keren.
1 0 0 2
Inderdaad, het stelsel 0 1 0 2 uit Voorbeeld 1.13 kan worden teruggeveegd, stap voor
0 0 1 −2
1 2 1 4
stap, naar het oorspronkelijke stelsel −2 2 0 0 , op de volgende manier:
0 1 1 0
+
+
1 0 0 2 ↑ 1 0 −1 4 1 0 −1 4 ↑
0 1 0 2 ↑+ ↑ ∼ 0 1 1 0 ∼ 0 1 1 0 ×2 ×6 ∼
0 0 1 −2 ×1 × − 1 0 0 1 −2 ×−4 0 0 −4 8 ↓+
1 2 1 4 1 2 1 4 ×−2 1 2 1 4
0 1 1 0 ← ∼ 0 6 2 8 ↓+ ∼ −2 2 0 0 .
0 6 2 8 ← 0 1 1 0 0 1 1 0
STELLING 1.15. Beschouw het stelsel [A|b]. Als deze met behulp van elementaire rijbewer-
kingen tot een stelsel [A′ |b′ ] geveegd wordt dan hebben deze twee stelsels dezelfde oplossing.
Bewijs: Het is eenvoudig na te gaan dat na iedere veegstap (verwisseling, scaling of vervanging)
een oplossing van het oorspronkelijke stelsel ook een oplossing is van het geveegde stelsel. Omdat
veegstappen omkeerbaar zijn, geldt ook het omgekeerde. Dus na één veegstap hebben het oor-
spronkelijke stelsel en het geveegde stelsel precies dezelfde oplossing. Maar als dit zo is na één
veegstap dan geldt hetzelfde na k veegstappen.
Bovenstaande stelling zegt dat “stelsels waarvan de aangevulde matrices rijequivalent zijn, ook
equivalent zijn”.
Om een stelsel op te lossen willen we dit stelsel vegen naar een ”simpel”stelsel, wat makkelijk is
op te lossen. Alleen, wat is een “simpel stelsel”? Daar gaan we het volgende college over door.
College 2, Stelsels lineaire
vergelijkingen II
Definitie: De volgende operaties op een matrix (of op een stelsel) heten de “elementaire
rijbewerkingen”.
1. (Verwisseling) Het verwisselen van twee rijen,
2. (Schaling) Een rij met constante c 6= 0 vermenigvuldigen,
3. (Substitutie) Een veelvoud van een rij bij een andere rij optellen.
Als de matrix A tot een matrix A′ wordt omgebouwd via elementaire rijbewerkingen, dan
zeggen we dat de matrix A naar matrix A′ geveegd wordt. De matrices A en A′ heten dan
rijequivalent en we noteren dit met A ∼ A′ .
Voorbeeld 2.1.
+
1 2 1 4 ×2 1 2 1 4 1 2 1 4 ↑
−2 2 0 0 ↓+ ∼ 0 6 2 8 ← ∼ 0 1 1 0 ×−2 ×−6 ∼
0 1 1 0 0 1 1 0 ← 0 6 2 8 ↓+
1 0 −1 4 1 0 −1 4 ↑+ 1 0 0 2
0 1 1 0 ∼ 0 1 1 0 ↑+ ↑ ∼ 0 1 0 2
0 0 −4 8 × − 1/4 0 0 1 −2 ×−1 ×1 0 0 1 −2
13
14 College 2, Stelsels lineaire vergelijkingen II
STELLING 2.2. Als de matrix A naar de matrix A′ kan worden geveegd dan kan de matrix
A′ naar de matrix A worden teruggeveegd.
Definitie: De pivot (as of spil) van een rij is het eerste element in die rij ongelijk aan 0.
Met deze definitie is het inderdaad duidelijk dat A1 , A2 , A3 matrices in echelonvorm zijn. Als we
2.1. Echelonvormen van matrices 15
pivotS aangeven met • en een willekeurige element (dus nul of niet nul) met ∗, dan zien we in de
structuur van deze matrices inderdaad een driehoeksstuctuur verschijnen.
• ∗ ∗ ∗ • ∗ ∗ ∗ ∗
0 • ∗ ∗ 0 0 • ∗ ∗ 0 • ∗ 0
0 0 0 • , A2 = 0 0 0 • ∗ , A3 = 0 0 0 •
A1 =
0 0 0 0
0 0 0 0 0 0 0 0 0
Merk op dat bij een matrix in echelonvorm onder de pivots nullen staan. (Waarom eigenlijk?)
1 2 1 4
We merken op dat in Voorbeeld 2.1 de matrix −2 2 0 0 is geveegd naar de matrix in gere-
0 1 1 0
1 0 0 2
duceerde echelonvorm 0 1 0 2 . Bij dit veegproces is al eerder een matrix in echelonvorm
0 0 1 −2
bereikt. Dit alles is geen toeval, zoals de volgende stelling laat zien.
STELLING 2.3. Iedere matrix A is rijequivalent met (te vegen naar) een matrix C in
echelonvorm. Echter, die echelonvorm C is niet uniek. Bovendien geldt dat A rijequivalent is
met een matrix D in gereduceerde echelonvorm. De gereduceerde echelonvorm D van A is wel
uniek.
We zullen deze stelling niet bewijzen, maar aan de hand van een voorbeeld demonstreren. In dit
voorbeeld is ook de procedure te vinden hoe A naar een matrix in echelonvorm te vegen. Bestudeer
deze procedure grondig. Bekijk ook de conclusies die uit de gereduceerde echelonvorm te trekken
zijn. De stelling heeft het volgende interessante gevolg.
Met de eerste rij mag niet meer geveegd worden ( anders worden de nullen onder de pivot van de
eerste rij ongelijk aan nul)! We gaan nu de pivot van de tweede rij zoeken en daaronder alles nul
maken.
4. Bepaal de eerste niet 0 kolom in de laatste matrix zonder de eerste rij. In dit geval de derde
kolom.
5. Er is nu geen rijverwisseling nodig om het tweede kental van deze kolom ongelijk nul te
maken.
6. Maak nu door “Vervanging” alle kentallen in kolom drie onder de pivot gelijk aan nul.
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
0 0 −1 2 −2 11 51
× − 3 ×3 ∼ 0 0 −1 2 −2 11 51
0 0 −3 6 −6 9 57 ↓+ | 0 0 0 0 0 −24 −96
0 0 3 −6 6 4 −5 ↓+ 0 0 0 0 0 37 148
Vanaf nu geldt dat we niet meer met rij 1 en 2 kunnen vegen, dat zou de nullen onder de pivots
verpesten.
7. Het lijkt niet onverstandig eerst de laatste twee rijen te schalen.
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
0 0 −1 2 −2 11 51 0 0 −1 2 −2 11 51
0 0
∼
0 0 0 −24 −96 × − 1/24 0 0 0 0 0 1 4
0 0 0 0 0 37 148 ×1/37 0 0 0 0 0 1 4
8. Bepaal de eerste niet 0 kolom in de laatste matrix zonder de eerste twee rijen. In dit geval
de zesde kolom.
9. Maak nu door “Vervanging” alle kentallen in kolom zes onder de pivot gelijk aan nul.
0 1 −2 2 −1 −1 −14 0 1 −2 2 −1 −1 −14
0 0 −1 2 −2 11 51 0 0 −1 2 −2 11 51
0
∼
0 0 0 0 1 4 ×−1 0 0 0 0 0 1 4
0 0 0 0 0 1 4 ↓+ 0 0 0 0 0 0 0
2.1. Echelonvormen van matrices 17
Aangezien de laatste rij alleen uit nullen bestaat is een echelonvorm van A hiermee gevonden, maar
de gereduceerde echelonvorm is nog niet gevonden.
0 1 0 −2 3 −23 −116 ↑+ 0 1 0 −2 3 0 −24
0
0 1 −2 2 −11 −51 | ↑+ 0
0 1 −2 2 0 −7
0 0 0 0 0 1 4 ×23 ×11 × − 37 0 0 0 0 0 1 4
0 0 0 0 0 37 148 ↓+ 0 0 0 0 0 0 0
Het veegproces is een proces dat steeds weer terug komt. Dus leer je zelf snel en effectief te vegen.
We hebben al gezegd dat een matrix A naar meerdere echelonvormen, zeg C1 , C2 , kan worden
geveegd. Toch zullen die echelonvormen iets gemeenschappelijk hebben. Zonder bewijs delen we
mede dat de echelonvormen C1 , C2 hun pivots op de zelfde positie in de matrix hebben.
Definitie: Laat A een matrix zijn. De pivotposities van A zijn de posities (in de matrix
A) waar in echelonvorm de pivots staan.
De kolommen van A waar de pivotposities in staan heten de pivot kolommen van A.
In Voorbeeld
2.5 hebben we de matrix Anaar echelonvorm geveegd.
0 0 3 −6 6 4 −5 0 1 −2 2 −1 −1 −14
0 3 −7 8 −5 8 9
∼ 0 0 −1 2 −2 11 51
A= 0 3 −9 12 −9
= C.
6 15 0 0 0 0 0 1 4
0 1 −2 2 −1 −1 −14 0 0 0 0 0 0 0
Dit impliceert dat de volgende posities de pivot posities van A zijn. (Deze worden weer aangegeven
met een • of met een omcirkeld kental.)
0 • 3 −6 6 4 −5
0 3 • 8 −5 8 9
0 3 −9 12 −9 • 15
0 1 −2 2 −1 −1 −14
aanwezig is.
2.2. Het oplossen van stelsels 19
Bewijs: Iedereen ziet in dat als de vergelijking 0x1 + 0x2 + · · · + 0xn = b 6= 0 aanwezig is, dat dan
het stelsel inconsistent is. Dat het omgekeerde ook waar is, is het makkelijkste in te zien aan de
hand van een voorbeeld.
Het zal iedereen duidelijk zijn dat de coëfficientenmatrix in echelonvorm staat en dat de vergelijking
0x1 + 0x2 + · · · + 0x6 = b 6= 0 niet aanwezig is. Hoe kunnen we een oplossing verzinnen? Weer via
terug substitutie! In de laatste vergelijking kunnen we x5 , x6 vrij kiezen en dan x4 oplossen. Dit
stoppen we in vergelijking 2, en lossen x3 op. Dit stoppen we in vergelijking 1, kiezen x2 vrij en
lossen x1 op! Bijvoorbeeld: kies x6 , x5 beide gelijk aan 1. Dit geeft x4 = 2 en
daarna
x3= 2. Kies
x1 3
x2 0
x3
= 2 . Er zijn
x2 = 0 en dat geeft x1 = 3. Een oplossing is gevonden, en wel: x = x4 2
x5 1
x6 1
andere oplossingen te vinden door voor x6 , x5 en x2 andere vrije waarden te kiezen.
Kortom, bij een stelsel met de coëfficientenmatrix A in echelonvorm zien we in één oog opslag of
het stelsel consistent is, of niet.
Daarom is het een gebruikelijke aanpak om een gegeven stelsel [A | b] eerst naar een equivalent
stelsel [A′ | b′ ] te vegen met de coëfficientenmatrix A′ in echelonvorm. Via stelling 2.7 zien we in
één oog opslag of het geveegde stelsel (en daarmee het oorspronkelijke stelsel) consistent is. Als
het consistent is dan pas vegen we door naar een stelsel in gereduceerde echelonvorm.
In de aanpak die wij in dit dictaat voorstaan zal meteen naar een equivalent stelsel geveegd worden
met de coëfficientenmatrix A in gereduceerde echelonvorm.
Methode tot oplossen stelsel
2. Veeg het stelsel naar een equivalent stelsel met de coëfficientenmatrix in (gereduceerde) eche-
lonvorm.
4. Zo nodig: veeg stelsel door naar een equivalent stelsel met de coëfficientenmatrix in geredu-
ceerde echelonvorm.
8. Geef een parametrisering van de oplossing (de zogeheten “vector parameter vorm van het
antwoord”).
Wat precies met de twee laatste stappen bedoeld wordt is te zien in de volgende drie voorbeelden.
Bestudeer deze goed.
Voorbeeld 2.9. We bepalen de oplossing van het stelsel uit Voorbeeld 2.8. We vegen de aange-
vulde matrix eerst naar gereduceerde echelonvorm.
x1 − x2 + 2x3 − x4 + x5 − x6 = 5 1 −1 2 −1 1 −1 5
x3 + x4 − x5 − x6 = 2 met 0 0 1 1 −1 −1 2
x4 + x5 + x6 = 4 0 0 0 1 1 1 4
1 −1 2 −1 1 −1 5 ↑+
0 +
0 1 1 −1 −1 2 ↑ |
0 0 0 1 1 1 4 × − 1 ×1
1 −1 2 0 2 0 9 ↑+
0 0 1 0 −2 −2 −2 × − 2
0 0 0 1 1 1 4
1 −1 0 0 6 4 13 x1 − x2 + 6x5 + 4x6 = 13
0 0 1 0 −2 −2 −2 geeft x3 − 2x5 − 2x6 = −2
0 0 0 1 1 1 4 x4 + x5 + x6 = 4
Kennelijk zijn de x2 , x5 , x6 de vrije variabelen en x1 , x3 , x4 de gebonden variabelen. Het antwoord
wordt:
x1 13 + x2 − 6x5 − 4x6 13 x2 −6x5 −4x6
x2 x2 0 x2 0 0
x3 −2 + 2x5 + 2x6 −2 0 2x5 2x6
x= =
x4 = + + + =
4 − x5 − x6 4 0 −x5 −x6
x5 x5 0 0 x5 0
x6 x6 0 0 0 x6
13 1 −6 −4
0 1 0 0
−2 0 2 2
=
+ x2 0 + x5 −1 + x6 −1
4
0 0 1 0
0 0 0 1
De oplossing is, in de taal van hoofdstuk 1, kennelijk een object in R6 met een steunvector en drie
richtingsvectoren. Kennelijk heeft het stelsel oneindig veel oplossingen.
Voorbeeld 2.10. Beschouw het volgende stelsel met zijn aangevulde matrix.
x1 + 2x2 + x3 − 4x4 + 2x5 = 10 1 2 1 −4 2 10
2x1 + 4x2 + 3x3 + 5x4 + 4x5 = −5 2 4 3 5 4 −5
en
x1 + 2x2 + 2x3 + 5x4 + 6x5 = 9 1 2 2 5 6 9
3x1 + 6x2 + 4x3 + x4 + 6x5 = 5 3 6 4 1 6 5
We vegen de aangevulde
matrix:
1 2 1 −4 2 10 ×−2 ×−1 ×−3
2 4 3 5 4 −5
↓+ | |
∼
1 2 2 5 6 9 ↓+ |
3 6 4 1 6 5 ↓+
2.2. Het oplossen van stelsels 21
1 2 1 −4 2 10 ↑+
0 0 1 13 0 −25 × − 1 × − 1
∼
0 0 1 9 4 −1 ↓+ |
0 0 1 13 0 −25 ↓+
1 2 0 −17 2 35 1 2 0 −17 2 35 ↑+
0 0 1 +
13 0 −25
∼ 0 0 1
13 0 −25 ↑
|
0 0 0 −4 4 24 − 14 0 0 0 1 −1 −6 × − 13 ×17
0 0 0 0 0 0 0 0 0 0 0 0
Dit levert de volgende aangevulde matrix en het volgende stelsel op.
1 2 0 0 −15 −67
x1 + 2x2 − 15x5 = −67
0 0 1 0
13 53 x3 + 13x5 = 53
0 0 0 1 −1 −6 en
x4 − x5 = −6
0 0 0 0 0 0 0=0
Kennelijk is het stelsel consistent, x1 , x3 , x4 zijn de gebonden variabelen en x2 , x5 zijn de vrije
variabelen. Kennelijk: x1 = −67 − 15x5 − 2x2 , x3 = 53 − 13x5 en x4 = −6 + x5 .
Voorde oplossing
van het stelsel wordt dit:
x1 −67 + 15x5 − 2x2 −67 −2x2 15x5
x2 x2 0 x2 0
x= x
3 = 53 − 13x
5 =
53 +
0 +
−13x
5
x4 −6 + x5 −6 0 x5
x5 x5 0 0 x5
en dus:
−67 −2 15
0
1
0
x = 53 + x2 0 + x5 −13
= s + x2 r1 + x5 r2
−6 0 1
0 0 1
d.w.z. de oplossing van het stelsel een object in R5 met steunvector en twee richtingsvectoren.
Kennelijk heeft dit stelsel oneindig veel oplossingen.
Voorbeeld 2.11. Beschouw het volgende stelsel met zijn aangevulde matrix.
x1 + x2 + x3 − 4x4 = −1 1 1 1 −4 −1
2x1 + 4x2 + 3x3 − 5x4 = 4 2 4 3 −5 4
en
x1 + 2x 2 + 2x3 + 5x4 = 10 1 2 2 5 10
3x1 + 6x2 − 5x3 − 2x4 = 2 3 6 −5 −2 2
We vegen de aangevulde
matrix:
1 1 1 −4 −1 ×−2 ×−1 ×−3
2 4 3 −5 4 ↓+ | |
∼
1 2 2 5 10 ↓+ |
3 6 −5 −2 2 ↓+
1 1 1 −4 −1 ↑+
0 2
1 3 6
↑+ |
∼
0 1 1 9 11 ×−2 ×−1 ×−3
0 3 −8 10 5 ↓+
1 0 0 −13 −12 1 0 0 −13 −12
0 0 −1 −15 −16
∼ 0 1 1 9 11
↑+
∼
0 1 1 9 11 0 0 1 15 16 × − 1 × − 11
0 0 −11 −17 −28 0 0 11 17 28 ↓+
22 College 2, Stelsels lineaire vergelijkingen II
1 0 0 −13 −12 1 0 0 0 1
0 1 0 −6 −5 0 1 0 0 1
∼
0
∼
0 1 15 16 0 0 1 0 1
0 0 0 −148 −148 0 0 0 1 1
1
1
We zien, het stelsel is consistent en x =
is de unieke oplossing.
1
1
Bewijs: De situaties (a) en (b) komen in het consistente geval overéén met het geval: geen wel
vrije variabelen.
x1 3x3 0 3
En dus: x = x2 = 1 − 4x3 = 1 + x3 −4 .
x3 x3 0 1
Vraag.
(1) Geef alle waarden van a en b waarvoor het stelsel [A|b] consistent is.
(2) Geef alle waarden van a en b waarvoor het stelsel [A|b] een unieke oplossing heeft.
(3) Geef alle waarden van a en b waarvoor het stelsel [A|b] oneindig veel oplossingen heeft.
Antwoord Veeg het stelsel naar een equivalent stelsel met coëfficientenmatrix in echelonvorm.
−1 a a 1 ×3 ×3 −1 a a 1
3 a2 −a b ↓+ | ∼ 0 a2 + 3a 2a b + 3 × − 1 ∼
2
3 a 3 0 ↓+ 0 a2 + 3a 3a + 3 3 ↓+
−1 a a 1
∼ 0 a2 + 3a 2a 3 + b .
0 0 3+a −b
Pas op. Dit lijkt misschien echelonvorm voor alle a, echter dat is onjuist. Vul a = 0 maar eens in.
De probleem gevallen bekijken we apart!
We concluderen dat als a2 + 3a 6= 0 en a + 3 6= 0, d.w.z. a 6= 0, −3, het geveegde stelsel in
echelonvorm is en consistent is (ongeacht de waarde van b). (Bovendien is er dan geen vrije
variabele, dus dan is er een unieke oplossing.)
Bekijk nu het geval a2 + 3a = 0, dus a = 0 of a = −3. In deze gevallen moeten we nog doorvegen
naar de echelonvorm!
Het geval a = 0 levert de echelonvorm:
−1 0 0 1 −1 0 0 1
0 0 0 3+b ∼ 0 0 3 −b
0 0 3 −b 0 0 0 3+b
en deze is alleen consistent als b = −3. Dan zijn er oneindig veel oplossingen.
Invullen van a = −3 levert de echelonvorm
−1 −3 −3 1
0 0 −6 3 + b
0 0 0 −b
en dit stelsel is alleen consistent als b = 0. Ook dan zijn er oneindig veel oplossingen. Kortom:
(1) Het stelsel is consistent als en slechts als a 6= 0, −3 (ongeacht b) of als (a = 0 en b = −3) of als
(a = −3 en b = 0).
(2) Het stelsel heeft een unieke oplossing als a 6= 0, −3 (ongeacht b).
(3) Het stelsel heeft oneindig veel oplossingen als (a = 0 en b = −3) of als (a = −3 en b = 0).
Opmerking. Maak niet de fout om bij een stelsel van het volgende type:
a 1 1 2
1 0 1 0
24 College 2, Stelsels lineaire vergelijkingen II
Dit werkt alleen als a 6= 0, en het geval a = 0 moet men dan apart bekijken. Handiger is de
vergelijken te verwisselen en te vegen via:
1 0 1 0 ×−a
a 1 1 2 ↓+
College 3, Stelsels lineaire
vergelijkingen III
c1 a1 + c2 a2 + · · · + cn an
xn
Tenslotte: een vergelijking van het type:
x1 a1 + x2 a2 + · · · + xn an = b
1 2 3
−1 1
2 −3
en x = −2 dan: Ax =
Voorbeeld 3.1. Laat A =
1 1 1
3
0 1 0
1 2 3 1 2 3 6
−1 1
2 −3
−2 = 1 −1 − 2
+ 3 −3 = −14 .
2
=
1 1 1 1 1 1 2
3
0 1 0 0 1 0 −2
25
26 College 3, Stelsels lineaire vergelijkingen III
De vergelijking
1 2 3 6
−1 2
+ x3 −3 = −14
x1
1 + x2
1 1 2
0 1 0 −2
x1 1
is een voorbeeld van een vectorvergelijking en hierboven staat dat x = x2 = −2 een
x3 3
oplossing van deze vectorvergelijking is.
Rekenregels matrixvectorproduct
Als A een m × n matrix en x, y ∈ Rn en c ∈ R, dan geldt:
1. A(x + y) = Ax + Ay,
2. A(cx) = c(Ax).
[ a1 . . . an | b ]
x1 a1 + x2 a2 + · · · + xn an = b
Ax = b.
Bewijs: Als we schrijven [ai ]j = ai,j en [b]j = bj (voor j = 1 . . . m) dan wordt het lineaire stelsel
met aangevulde matrix [ a1 . . . an | b ] het stelsel:
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1
a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2
.. .. .. ..
. . . .
am,1 x1 + am,2 x2 + . . . + am,n xn = bm
wat te herschrijven is als
a1,1 a1,2 ... a1,n b1
a2,1 a2,2 . . . a2,n b2
x1 . + x2 .. + .. + xn .. = .. .
.. . . . .
am,1 am,2 ... am,n bm
Dus inderdaad, dit wordt de vectorvergelijking x1 a1 + x2 a2 + · · · + xn an = b wat herschreven kan
worden als Ax = b. De rest is duidelijk.
3.2. De unitaire ruimte Cn en complexe lineaire stelsels 27
Een systeem lineaire vergelijkingen heet homogeen als het van de vorm is:
Ax = 0.
STELLING 3.3. Stel dat Ax = b een consistent lineair stelsel is, zeg met “particuliere
oplossing” x0 . Als vh de oplossing is van het bijbehorende homogene stelsel Ax = 0, dan
geldt:
x = x0 + vh
is de algemene oplossing van het stelsel Ax = b.
Bewijs: In de eerste plaats: x = x0 + vh bestaat uit oplossingen van het stelsel Ax = b, want
Bovendien bestaat dit uit alle oplossingen van het stelsel Ax = b, want als x1 een oplossing is van
Ax = b, dan is x1 − x0 een oplossing is van het bijbehorende homogene stelsel Ax = 0.
Inderdaad, A(x1 − x0 ) = Ax1 − Ax0 = b − b = 0.
Als x1 − x0 = vh1 , dan x = x0 + vh1 ∈ x0 + vh .
zn
Ook op Cn definiëren we een optelling en een scalaire vermenigvuldiging (een lineaire structuur)
via: als: z, w ∈ Cn en c ∈ C, zeg:
z1 w1 z1 + w1 cz1
z = ... en w = .. dan z + w = ..
.
. . en cz = ..
zn wn zn + wn czn
Met deze optelling en (complexe) scalaire vermenigvuldiging blijkt Cn een zogeheten (complexe)
vectorruimte te zijn. Daarmee bedoelen we te zeggen dat Cn aan precies dezelfde rekenregels 1-8
als die van Rn voldoet, zie Stelling 1.6, met dat verschil dat nu de scalairen complex mogen zijn.
28 College 3, Stelsels lineaire vergelijkingen III
STELLING 3.4. De optelling + voegt aan ieder tweetal z, w ∈ Cn en aan iedere scalair
c ∈ C een vector z + w ∈ Cn en cz ∈ Cn toe, die voldoet aan de volgende 8 rekenregels.
1. z + w = w + z. ( commutatieve eigenschap)
2. (z + w) + v = z + (w + v). ( associatieve eigenschap)
3. Er is een nulvector 0 met de eigenschap z + 0 = 0 + z = z.
4. Voor elke z bestaat een tegengestelde −z zo dat z + (−z) = 0.
5. c(z + w) = cz + cw. ( distributieve eigenschap 1)
6. (c + d)z = cz + dz. ( distributieve eigenschap 2)
7. c(dz) = (cd)z.
8. 1z = z.
1 − 2i
We kunnen weer spreken van linaire combinaties in Cn , bijvoorbeeld, als z = i en
5
1−i
w = 1 + i dan is
0
1 − 2i 1−i 6 − 3i
(1 + 2i) i + (2 − i) 1 + i = 1 + 2i (ga na)
5 0 5 + 10i
een lineaire combinatie van z en w met gewichten 1 + 2i en 2 − i.
We merken nog op dat de standaard eenheidsvectoren e1 , e2 , . . . , en ook vectoren in Cn zijn
(zoals alle vectoren in Rn ), en dat iedere vector z ∈ Cn een lineaire combinatie is van de vectoren
e1 , e2 , . . . , en .
z1
Inderdaad, als z = ... ∈ Cn dan z = z1 e1 + · · · + zn en .
zn
De basis vraag: “is een gegeven vector b ∈ Cn een lineaire combinatie van gegeven vectoren
z1 , . . . , zk ”, leidt net als Rn , tot stelsels lineaire vergelijkingen. Het enige verschil is dat de kentallen
van de aangevulde matrix complexe getallen kunnen zijn en dat eventuele vrije variabelen complex
zullen zijn. Vegen met complexe getallen vereist aanzienlijke hogere rekenvaardigheden dan in het
reële geval, hoewel het doel (vegen naar gereduceerde echelonvorm) hetzelfde is.
Voorbeeld 3.5. Beschouw het volgende lineaire stelsel over C:
z1 + iz2 − (1 − i)z3 = 1
(1 − i)z1 − 2z2 + 12iz3 = 0
Dit geeft de volgende aangevulde matrix, waarbij de eerste stap geen probleem is.
1 i −1 + i 1 × −1 + i 1 i −1 + i 1
∼
1 − i −2 12i 0 ↓+ 0 −3 − i 10i −1 + i
De volgende pivot is −3 − i. Aangezien vegen met reële pivots toch wel wat makkeli jker is, verme-
nigvuldigen we de tweede vergelijking eerst met −3 + i, de geconjugeerde van −3 − i. (Herinner:
zz = |z|2 ∈ R!)
3.3. Lineaire opspanning en het opspannen van Rn 29
1 i −1 + i 1 1 i −1 + i 1
∼ ∼
0 −3 − i 10i −1 + i
×−3+i 0 10 −10 − 30i 2 − 4i
×1/10
1 i −1 + i 1 ↑+ 1 0 −4 + 2i 14/10 − 2/10i
∼
0 1 −1 − 3i 2/10 − 4/10i × −i 0 1 −1 − 3i 2/10 − 4/10i
Dus de oplossing wordt:
14/10 − 2/10i − (−4 + 2i)z3 14/10 − 2/10i 4 − 2i
z = −4/10 + 2/10i − (−1 − 3i)z3 = −4/10 + 2/10i + z3 1 + 3i
z3 0 1
Opmerking: Bij lineaire algebra deel 2 wordt de complexe lineaire algebra echt besproken.
(v1 , v2 , . . . , vk ),
Als de volgorde niet van belang is, kan het stelsel ook genoteerd worden met de verzameling notatie
{v1 , v2 , . . . , vk }.
We benadrukken nog eens dat in een stelsel vectoren eventueel twee of meer gelijke vectoren kunnen
voorkomen. We herhalen:
Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn is en als c1 , c2 , . . . , ck scalairen in R zijn, dan wordt
de vector van de vorm
c1 v1 + c2 v2 + · · · + ck vk
een lineaire combinatie van het stelsel genoemd. De getallen c1 , c2 , . . . , ck heten de gewichten van
de lineaire combinatie.
We weten inmiddels hoe we moeten nagaan of een gegeven vector b al dan niet een lineaire
combinatie van een gegeven stel vectoren is.
Definitie: Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn is dan heet de verzameling U van
alle lineaire combinaties van dit stelsel het
“lineaire omhulsel van (v1 . . . , vk )”
(of ook de “lineaire opspanning van (v1 , . . . , vk )”) (of kortweg “de opspannig van (v1 , . . . , vk )”).
De verzameling U wordt genoteerd met:
U = Span(v1 , . . . , vk ) of U = Span{v1 , . . . , vk }.
2 1 2 5
geldt: −2 ∈ Span 0 , −3 , −4 ?
−1 −1 1 0
en dus is de methode om de eerste vraag te beantwoorden, dezelfde als de methode voor de tweede
vraag.
Kennelijk moeten we kijken of er c1 , c2 en c3 bestaan zodat
1 2 5 2
c1 0 + c2 −3 + c3 −4 = −2 .
−1 1 0 −1
Volgens Stelling 3.2 is dit equivalent met de consistentie van het stelsel
1 2 5 2
0 −3 −4 −2 .
−1 1 0 −1
Omdat
1 2 5 2 1 2 5 2
0 −3 −4 −2 ∼ 0 −3 −4 −2
−1 1 0 −1 0 0 1 −1
is dit stelsel consistent en dus: ja, v is een lineaire combinatie van deze vectoren.
1 2 5 2
Ga na dat geldt: 3 0 + 2 −3 − −4 = −2 en dus:
−1 1 0 −1
2 1 2 5
−2 ∈ Span 0 , −3 , −4 !
−1 −1 1 0
Via Stelling 3.2 en bovenstaand voorbeeld komen we tot de volgende uitbreiding van Stelling 3.2.
3.3. Lineaire opspanning en het opspannen van Rn 31
Bewijs: Het zal duidelijk zijn dat de uitspraken 1. tot en met 5. equivalent zijn.
Daarom: 6. ⇒ 1.. Stel dat Span{a1 , . . . , an } = Span{a1 , . . . , an , b}. Omdat b ∈ Span{a1 , . . . , an , b}
volgt b ∈ Span{a1 , . . . , an }. Dit is uitspraak 2. en dus volgt 1.
Omgekeerd, 1. ⇒ 6.. Stel dat b = c1 a1 + · · · + cn an .
Altijd zal gelden: Span{a1 , . . . , an } ⊂ Span{a1 , . . . , an , b}, maar nu zal ook gelden Span{a1 , . . . , an , b} ⊂
Span{a1 , . . . , an }. Want als x ∈ Span{a1 , . . . , an , b}, zeg
x = x1 a1 + · · · + xn an + xn+1 b
dan volgt: x = x1 a1 +· · ·+xn an +xn+1 (c1 a1 +· · ·+cn an ) = (x1 +c1 xn+1 )a1 +· · ·+(xn +cn xn+1 )an
en dus x ∈ Span{a1 , . . . , an }.
We concluderen: Span{a1 , . . . , an } = Span{a1 , . . . , an , b}.
Het is van belang een gevoel te ontwikkelen voor het begrip “lineaire opspanning”. Dit zal met
name in R2 en R3 moeten gebeuren, want bij de ruimte R4 etc. kunnen we ons meetkundig weinig
tot niets voorstellen.
1 2
Voorbeeld 3.8. Beschouw de twee vectoren v1 = 1 en v2 = −3 in R3 .
1 1
Vraag: Beschrijf Span{v1 , v2 }.
1 2
Antwoord: Omdat Span{v1 } = c1 1 + c2 −3 : c1 , c2 ∈ R zien we ei-
1 1
1 2
genlijk de parametervoorstelling c1 1 +c2 −3 van een vlak door de oorsprong te voorschijn
1 1
komen. (Want v1 en v2 zijn geen scalaire veelvouden van elkaar.) Dat vlak is de opspanning van
die twee vectoren.
1 2 1
Voorbeeld 3.9. Beschouw de drie vectoren v1 = 1 , v2 = −3 en v3 = 6 in R3 .
1 1 3
Vraag: Beschrijf Span{v1 , v2 , v3
}.
1 2 1
Antwoord: Span{v1 , v2 , v3 } = c1 1 + c2 −3 + c3 6 : c1 , c2 , c3 ∈ R herkennen
1 1 3
32 College 3, Stelsels lineaire vergelijkingen III
Span{v1 , v2 , v3 } = Span{v1 , v2 }
en dus geldt hier dat Span{v1 , v2 , v3 } een vlak is. (En hier spannen de vectoren v1 , v2 , v3 spannen
R3 dus niet op.)
We hebben ingezien dat het mogelijk is voor een stel vectoren in R3 de hele ruimte R3 als lineaire
opspanning te hebben.
We introduceren de volgende terminologie.
Definitie: Als (v1 , v2 , . . . , vk ) een stelsel vectoren in Rn zijn. We zeggen dat dit stelsel
vectoren de hele ruimte Rn opspant als Span{v1 , . . . , vk } = Rn
Hoe kunnen we in het algemeen nagaan of de vectoren {a1 , . . . , ak } uit Rm de ruimte Rm opspan-
nen? Het meetkundig inzicht uit R3 helpt niet in Rn .
3.3. Lineaire opspanning en het opspannen van Rn 33
1 1 1 3
2 1 1 4
Voorbeeld 3.11. Ga na of de vectoren a1 = 1 , a2 = 2 , a3 = 1 en a4 = 4
1 1 2 4
4
heel R opspannen.
Antwoord Zal het ons lukken om een b ∈ R4 te vinden met b ∈ / Span{a1 , a2 , a3 , a4 }? We proberen
het. Dus gezocht, b ∈ R4 zo dat het stelsel [ a1 a2 a3 a4 |b ] inconsistent is. Omdat geldt (ga na):
1 1 1 3 b1 1 1 1 3 b1
2 1 1 4 b2 0 −1 −1 2 b2 − 2b1
1 2 1 4 b3 ∼ 0
0 −1 −1 b3 + b2 − 3b1
1 1 2 4 b4 0 0 0 0 b4 + b3 + b2 − 4b1
zien we dat het stelsel
inconsistent
is als en slechts als b4 + b3 + b2 − 4b1 6= 0. Dit is het geval als
1
1
bijvoorbeeld: b = 1 . Dus voor deze b geldt: b ∈
/ Span{a1 , a2 , a3 , a4 } en we concluderen dat
1
de vier vectoren a1 , a2 , a3 , a4 de ruimte R4 niet opspannen.
De oorzaak van het feit dat de vectoren a1 , a2 , a3 , a4 de ruimte R4 niet opspannen ligt in het feit
dat na vegen van de matrix [ a1 a2 a3 a4 ] een nulrij ontstaat (waardoor we een inconsistent stelsel
kunnen creëren). We concluderen:
STELLING 3.13. Voor de ruimte Rm geldt: minder dan m vectoren spannen de ruimte
Rm niet op.
hebben, dus minder dan m. Bovenstaande stelling zegt de kolommen van A de ruimte Rm niet
zullen opspannen.
College 4, Afhankelijkheid stelsels
vectoren
Definitie: Stel dat (v1 , · · · , vk ) een stelsel vectoren in Rn is. Een afhankelijk-
heidsrelatie van dit stelsel (of: tussen de vectoren v1 , · · · , vk ) is een relatie
c1 v1 + · · · + ck vk = 0
De eis dat niet alle ci gelijk aan nul mogen zijn, is omdat altijd geldt:
0v1 + · · · + 0vk = 0
en zonder deze eis zou er tussen ieder stel vectoren een afhankelijkheidsrelatie bestaan. Dat willen
we niet.
1 1 1
Voorbeeld 4.1. Beschouw de vectoren v1 = −1 , v2 = −2 en v3 = −4 . Tussen
2 1 −1
deze vectoren bestaat een afhankelijkheidsrelatie, want toevallig zien we:
2v1 − 3v2 + v3 = 0.
Een voorbeeld van een stelsel vectoren waartussen geen afhankelijkheidsrelatie bestaat? Wellicht
is het simpelste voorbeeld het stelsel (e1 , . . . , en ), de standaard eenheidsvectoren in Rn .
Merk op dat er een verbinding/relatie bestaat tussen het begrip afhankelijkheidsrelatie en het
begrip lineaire combinatie tussen vectoren (v1 , . . . , vp ), in de volgende zin. (We nemen p = 4.)
1. Als v4 een lineaire combinatie is van v1 , v2 , v3 , zeg
v4 = −2v1 + v2 + 5v3
dan is er een afhankelijkheidsrelatie tussen de vectoren (v1 , v2 , v3 , v4 ), namelijk:
−2v1 + v2 + 5v3 − v4 = 0.
35
36 College 4, Afhankelijkheid stelsels vectoren
2. Als er een afhankelijkheidsrelatie bestaat tussen het stelsel vectoren (v1 , v2 , v3 , v4 ), zeg bij-
voorbeeld:
2v1 + 0v2 − v3 + 4v4 = 0
Dan:
STELLING 4.2. Stel dat (v1 , . . . , vp ) een stelsel vectoren in Rn is. Dan geldt: “er bestaat
een afhankelijkheidsrelatie tussen de vectoren van het stelsel (v1 , . . . , vp ) als en slechts als
tenminste één van de vectoren van dit stelsel een lineaire combinatie is van de overige vectoren
uit dit stelsel.”
Definitie: Het stelsel vectoren (v1 , . . . , vp ) heet afhankelijk (of: de vectoren v1 , . . . , vp zijn
afhankelijk) als er een afhankelijkheidsrelatie tussen de vectoren uit het stelsel (v1 , . . . , vp )
bestaat.
Het stelsel vectoren (v1 , . . . , vp ) heet onafhankelijk als het niet afhankelijk is.
Voorbeeld 4.3. De vectoren v1 , v2 , v3 uit Voorbeeld 4.1 zijn afhankelijk: 2v1 − 3v2 + v3 = 0.
Een voorbeeld van een onafhankelijk stel vectoren is bijvoorbeeld het stelsel (e1 , . . . , en ) van stan-
daard eenheidsvectoren in Rn
Een (wellicht vervelend) kenmerk van de lineaire algebra is, dat één vraag op vele manieren gesteld
kan worden. Bijvoorbeeld: de volgende vragen vertegenwoordigen alle dezelfde vraag.
2. Is één van de vectoren uit het stelsel (v1 , . . . , vp ) een lineaire combinatie van de overigen
vectoren?
Hoe zijn afhankelijkheidsrelaties te vinden tussen vectoren? Dit wordt duidelijk via de volgende
stelling.
4.1. Afhankelijkheidsrelaties tussen vectoren, afhankelijkheid en onafhankelijkheid 37
STELLING 4.4. Stel dat (a1 , · · · , ak ) een stelsel vectoren in Rn is. Schrijf A = [ a1 . . . ak ].
Dan geldt: De relatie c1 a1 + · · · + ck ak = 0 is een afhankelijkheidsrelaties tussen de vectoren
c1
..
a1 , . . . , ak als en slechts als de vector x = . een niet triviale oplossing is van de homogene
ck
matrixvergelijking Ax = 0.
1. c4 is een lineaire combinatie van c2 , c3 (c4 = −2c2 − 2c3 ), en dus geldt ook: a4 = −2a2 − 2a3 !
2. c5 is een lineaire combinatie van c2 , c3 (c5 = 3c2 + 2c3 ) en dus geldt ook: a5 = 3a2 + 2a3 !
3. c7 is een lineaire combinatie van c2 , c3 , c6 , (c7 = −24c2 − 7c3 + 4c6 ), en dus geldt ook:
a7 = −24a2 − 7a3 + 4a6 !
We zien dat iedere niet pivotkolom van A een lineaire combinatie is van de pivotkolommen A. Ook
zien we dat de pivotkolommen
van A lineair onafhankelijk zijn, want hetzelfde veegschema veegt
1 0 0
[ a2 a3 a6 ] naar 0 1 0 . (Het is duidelijk dat er bij de geveegde matrix geen afhankelijk-
0 0 1
heidsrelatie tussen de kolmmen is).
We zien: als de matrix A naar gereduceerde echelon vorm wordt geveegd tot een matrix C, dan
kunnen we de matrix C beschouwen als een soort “agenda” die bijhoudt of en hoe iedere kolom
van A zit in het Span van de voorafgaande pivotkolom
men.
Hiermede hebben we een effectieve procedure gevonden om na te gaan of een stelsel vectoren
afhankelijk dan wel onafhankelijk is.
38 College 4, Afhankelijkheid stelsels vectoren
1 1 2 0
1 2 3 −1
Voorbeeld 4.7. Beschouw de vectoren a1 = −1 , a2 = 1 , a3 = 0 , a4 = −2 en
−1 1 0 −2
1
1
a5 =
en we stellen de vraag: is het stelsel {a1 , a2 , a3 , a4 , a5 } afhankelijk of onafhankelijk?
1
1
1 1 2 0 1 1 0 1 1 0
1 2 3 −1 1 0 1 1 −1 0
A=
−1
∼ =C
1 0 −2 1 0 0 0 0 1
−1 1 0 −2 1 0 0 0 0 0
We hebben aangetoond:
We verkrijgen direct het volgende gevolg dat zo belangrijk is dat we het een stelling noemen.
De kolommen van A zijn n vectoren in Rm en deze worden genoteerd met a1 , . . . , an . De rijen van
A zijn m punten in Rn en we noteren deze met A1 , . . . , Am . We noteren:
A1
A2
A = [ a1 a2 . . . an ] = ..
.
Am
Sommige typen matrices komen steeds weer terug en en we geven hier een overzicht.
De kentallen a1,1 , a2,2 , . . . , an,n van een vierkante matrix A = [ai,j ] vormen een diagonaal van de
matrix, geheten de hoofddiagonaal of kortweg de diagonaal.
3. A + O = A
4. A + (−A) = O
8. 1A = A
en A + C is niet gedefinieerd.
Definitie: Stel dat A een m × n matrix is. De getransponeerde van de matrix A is die n × m
matrix AT met de eigenschap dat de ide kolom van A de ide rij van AT wordt.
Dus:
[AT ]i,j = [A]j,i .
1 2 1 2 0
Voorbeeld 4.11. Stel dat A = ,B= en C = 1 2 3 . Dan:
3 4 0 2 1
1 0 1
1 3
AT = , B T = 2 2 en C T = 2 .
2 4
0 1 3
1. (AT )T = A
4.2. Matrix Operaties 41
2. (A + B)T = AT + B T
3. (cA)T = cAT
AT = A ⇔ A is symmetrisch.
42 College 4, Afhankelijkheid stelsels vectoren
College 5, Matrix Algebra
Voorbeeld 5.1. Dit voorbeeld is gebaseerd op het idee dat in een winkel geldt:
“aantal kilo’s nodig × prijs per kilo = totale prijs”
De eerste tabel geeft aan hoeveel kilo aan fruit Joost en Emiel nodig hebben. De tweede tabel
geeft aan wat de prijs per kilo is van het benodigde fruit bij de twee groenteboeren Arie en Ali.
Arie Ali
Appels Peren Sinaasappelen
Appels 2 1.90
Joost 2 10 1
Peren 4 4.50
Emiel 5 1 5
Sinaasappelen 3 2.50
Het lijkt redelijk te zijn te eisen dat voor het product van de matrices zou moeten gelden:
2 1.90
2 10 1
als N (odig) = en P (rijs) = 4 4.50 dat dan :
5 1 5
3 2.50
43
44 College 5, Matrix Algebra
Definitie: Als A een m × k matrix is en B eem k × n matrix is, dan wordt het product
C = AB een m × n matrix. Het i, j de kental van dit product wordt berekend via:
k
X
ci,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,k bk,j = ai,ℓ bℓ,j
ℓ=1
Opmerking: 1. Als AB bestaat dan hoeven A en B niet dezelfde afmetingen te hebben, echter,
het aantal kolommen van A moet gelijk zijn aan het aantal rijen van B. (In de situatie als in de
definitie is dit aantal k.)
2. In de formule ci,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,k bk,j doorlopen de kentallen ai,ℓ de i-de rij van
A en de kentallen bℓ,j de j-de kolom van B. We zeggen ook wel:
“het i, j de kental van AB is de ide rij van A maal de j de kolom van B”.
3. Als AB bestaat dan is het aantal rijen van AB gelijk aan het aantal rijen van A, het aantal
kolommen van AB is gelijk aan het aantal kolommen van B.
4. Als A een m×n matrix is en als x ∈ Rn wordt gezien als een n×1 matrix, dan is het matrixvector
product Ax gelijk aan het matrixproduct Ax.
Opmerking: We zien dat de matrix vermenigvuldiging niet voldoet aan de zogeheten commu-
tatieve wet (ab = ba), en om verscheidene redenen. In het vorige voorbeeld zien we:
2. AD 6= DA, want hoewel AD en DA beide gedefinieerd zijn, hebben deze matrices niet
dezelfde afmetingen.
· · · A1 ···
Voor de m × k matrix A schrijven we: A = · · · Ai · · · en voor de k × n matrix B schrijven
· · · Am ···
.. .. ..
. . .
b1 · · · bj · · · bn = [ b1 · · · bn ].
we: B =
.. .. ..
. . .
I. De rij-kolom visie van het product.
Deze visie is eigenlijk de definitie van het product. Er geldt (zoals eerder gezegd): “het i, j de
kental van AB is de ide rij Ai van A maal de j de kolom van B”.
Om precies te zijn: Ai bj - als matrixproduct(!) - is gelijk aan i, j de kental van AB.
II. De kolom visie van het product.
De j de -kolom van AB is Abj . Dus:
Om precies te zijn: “de j de -kolom van AB is A maal de j de -kolom van B, dus is een lineaire
combinatie van de kolommen van A met gewichten uit de j de -kolom van B”.
Om in te zien dat dit juist is volstaat het om naar het ide kental te kijken (voor i = 1, . . . , m) van
deze j de -kolom van AB.
III. De rij-visie van het product.
De ide -rij van AB is Ai B. Dus:
A1 A1 B
···
···
Als A =
Ai dan AB =
Ai B
··· ···
Am Am B
Om precies te zijn: “de ide -rij van AB is de ide -rij van A maal B, dus is een lineaire combinatie
van de rijen van B met gewichten uit ide -rij van A”.
Om in te zien dat dit juist is volstaat het om naar het j de kental te kijken (voor j = 1, . . . , n) van
deze ide -rij van AB.
IV. De kolom-rij expansie van het product.
B1
Als A = [ a1 . . . ak ] en B = · · · dan geldt voor het matrixproduct: aℓ Bℓ dat [aℓ Bℓ ]i,j = ai,ℓ bℓ,j
Bk
en dus:
AB = a1 B1 + a2 B2 + · · · + ak Bk
De visies zijn met name handig als men in een groot product slechts één rij of kolom hoeft te weten.
Deze zijn te bepalen zonder het hele product uit te rekenen.
1 0 1 1 −1 2 1
Voorbeeld 5.3. Beschouw A = 2 1 1 en B = 1 1 1 1 .
1 0 1 1 2 1 −1
Vraag: Bepaal [AB]2,4 , de derde kolom van AB en de derde rij van AB. Bepaal tenslotte het
46 College 5, Matrix Algebra
3. Ej A is de j de rij van A.
Waarschuwing:
1. In het algemeen: AB 6= BA (De commutatieve wet geldt NIET)
2. Als AB = AC en A 6= 0 dan niet noodzakelijk B = C. (Wegstrepen mag niet zomaar.)
3. Als AB = 0 en B 6= 0 dan niet noodzakelijk A = 0.
Voor vierkante matrices A bestaat AA. Het ligt voor de hand dit aan te duiden met A2 . Evenzo
definieren we voor een k ∈ N:
Ak = A | A{z
. . . A}
k factoren
Vanwege de geldende associatieve wet voor het matrixproduct is dit een zinvolle definitie (leg uit!).
Ook definieren we voor een n × n matrix A:
A0 = In
Definitie: Een elementairy matrix E is een matrix verkregen door één veegstap toe te passen
op de eenheidsmatrix In .
Dus we kunnen meteen een overzicht maken van alle mogelijke elementaire matrices.
De elementaire matrices.
n
1. E(α,i,j) is de matrix verkregen door α maal de i-de rij van de eenheidsmatrix In bij de j-rij
op-te-tellen.
2. E (n,i,j) is de matrix verkregen door in de eenheidsmatrix In de i-de en de j-rij te verwisselen.
n
3. E(α,i) is de matrix verkregen door de i-de rij van de eenheidsmatrix In met α 6= 0 te verme-
nigvuldigen.
48 College 5, Matrix Algebra
Dit voorbeeld illustreert de volgende stelling, die overigens simpel te bewijzen is met behulp van
de rijvisie van het product.
STELLING 5.6. Het resultaat van één elementaire rijoperatie toepassen op een n × r matrix
A is gelijk aan EA, waarbij E de elementaire matrix is die verkregen wordt door dezelfde
elementaire rijoperatie toe te passen op In .
Evenzo, het resultaat van een aantal veegstappen op de matrix A is te schrijven als:
Ek Ek−1 · · · E1 A.
College 6, Inverteerbare matrices
Daarom definiëren we het begrip inverteerbaar alleen maar voor vierkante matrices (en kunnen het
alleen maar voor vierkante matrices te definiëren).
Definitie: Laat A een n × n matrix zijn. De matrix A heet inverteerbaar, als er een n × n
matrix C bestaat, zodat:
AC = In en CA = In
Laten we eerst opmerken dat de matrix C in bovenstaande definitie uniek is. Inderdaad, laat C1
en C2 twee n × n matrices zijn zodat AC1 = In = C1 A en AC2 = In = C2 A. Dan:
Als A inverteerbaar is, dan zullen we de unieke matrix C met AC = In = CA aanduiden met
A−1
AA−1 = In en A−1 A = In
49
50 College 6, Inverteerbare matrices
Een vierkante matrix die niet inverteerbaar is heet een singuliere matrix. Als deze wel inver-
teerbaar is dan wordt deze niet singulier of ook wel regulier genoemd.
De belangrijkste twee vragen die we stellen zijn:
Voor een 2 × 2 matrix zijn deze vragen makkelijk te beantwoorden. De volgende stelling wordt in
de opgaven bewezen.
a b
STELLING 6.2. Laat A = een 2 × 2 matrix zijn. Dan:
c d
1. De matrix A is inverteerbaar als en slechts als het getal ad − bc 6= 0.
2. Als A inverteerbaar is, dan geldt:
−1 1 d −b
A =
ad − bc −c a
Het getal ad − bc in Stelling 6.2 wordt de determinant van A genoemd (notatie det(A)). Volgens
de stelling is een 2 × 2 matrix A inverteerbaar als en slechts als det(A) 6= 0.
2 5
Voorbeeld 6.3. Beschouw de matrix A = . Deze matrix A is inverteerbaar want
−3 −7
det(A) = (2 × (−7)) − (5 × (−3)) = 1 6= 0. En
1 −7 −5 −7 −5
A−1 = =
1 3 2 3 2
5 −1
−1 1 5 −1 20 20
B = = 4 .
20 0 4 0 20
(A−1 )−1 = A
(AB)−1 = B −1 A−1
Bewijs:
1. Omdat er een C bestaat met A−1 C = In = CA−1 (namelijk neem C = A) is A−1 inverteer-
baar en (A−1 )−1 = C = A.
2. Duidelijk.
3. Gezocht wordt een matrix C met (AB)C = In = C(AB). De stelling zelf suggereert
C = B −1 A−1 te nemen. Inderdaad, (AB)C(AB)(B −1 A−1 ) =
= A(BB −1 )A−1 = AIn A−1 = In en C(AB) = (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B =
In . Dus is AB inverteerbaar en (AB)−1 = C = B −1 A−1 .
4. Transponeren van de identiteit AA−1 = In = A−1 A geeft: (AA−1 )T = InT = (A−1 A)T ⇒
(A−1 )T AT = In = AT (A−1 )T , d.w.z. er is een matrix C (namelijk C = (A−1 )T ) zo dat
CAT = In = AT C. Dus is de matrix AT inverteerbaar en (AT )−1 = C = (A−1 )T .
De eerste stap naar het antwoord op de eerste vraag: “welke matrices zijn inverteerbaar”, komt
als gevolg van de volgende stelling.
STELLING 6.5. Als A een inverteerbare n × n matrix is, dan geldt voor iedere b ∈ Rn :
de vergelijking Ax = b heeft een unieke oplossing, en wel x = A−1 b.
Bewijs: Als Ax = b ⇒ A−1 (Ax) = A−1 b ⇒ (A−1 A)x = A−1 b ⇒ In x = A−1 b ⇒ x = A−1 b.
Dus inderdaad, als er een oplossing is van het stelsel Ax = b, dan moet dit x = A−1 b zijn.
Dat x = A−1 b inderdaad een oplossing is volgt uit Ax = A(A−1 b) = (AA−1 )b = In b = b.
52 College 6, Inverteerbare matrices
2 5 x1 2
Dit systeem is te schrijven als Ax = b, dus = .
−3 −7 x2 1
−1
x1 2 5 2 −7 −5 2 −19
Dan x = = = = .
x2 −3 −7 1 3 2 1 8
GEVOLG 6.7. Als A een inverteerbare n × n matrix is dan geldt: de gereduceerde echelon-
vorm van A is In .
Bewijs: Kies b ∈ Rn en veeg het stelsel [A|b] naar een equivalent stelsel met coëfficientenmatrix
in gereduceerde echelonvorm. Als [A|b] ∼ [E|b′ ] dan volgt uit het feit dat het stelsel [A|b] een
unieke oplossing heeft dat E = In .
STELLING 6.8. Iedere elementaire matrix is inverteerbaar en de inverse is ook weer een
elementaire matrix.
n
(E(α,i,j) )−1 = E(−α,i,j)
n
, (E (n,i,j) )−1 = E (n,i,j) , (E(α,i)
n
)−1 = E(n1 ,i) .
α
STELLING 6.9. Laat A een n × n matrix zijn. De volgende uitspraken zijn equivalent:
1. A is inverteerbaar,
2. A is te vegen naar de eenheidsmatrix.
3. A is te schrijven als een product van elementaire matrices.
STELLING 6.10. Stel dat A een inverteerbare n× n matrix is. Dan geldt: dezelfde veegstap-
pen die A naar I vegen, vegen I naar A−1 .
Procedure: Veeg in de matrix [A|I] de matrix A naar I en pas dezelfde veegstappen toe op I.
Dan verkrijgt men: [I|A−1 ]. (Dus: [A|I] ∼ [I|A−1 ].)
1 −2 −1
Voorbeeld 6.11. Bepaal A−1 van de matrix A = −1 5 6 .
5 −4 6
54 College 6, Inverteerbare matrices
1 −2 −1 1 0 0 ×1 × − 5
Antwoord: Bekijk [A|I] = −1 5 6 0 1 0 ↓+ | ∼
5 −4 6 0 0 1 ↓+
1 −2 −1 1 0 0 1 −2 −1 1 0 0 ↑+
∼ 0 3 5 1 1 0 × − 2 ∼ 0 3 5 1 1 0 ↑+ |
0 6 11 −5 0 1 ↓+ 0 0 1 −7 −2 1 × −
5 + ×1
1 −2 0 −6 −2 1 1 −2 0 −6 −2 1 ↑
∼ 0 3 0 36 11 −5 ×1/3 ∼ 0 1 0 12 11/3 −5/3 ×2 ∼
0 0 | −7 −2 1 0 0 1 −7 −2 1
1 0 0 18 16/3 −7/3
∼ 0 1 0 12 11/3 −5/3
0 0 1 −7 −2 1
Dus:
18 16/3 −7/3
A−1 = 12 11/3 −5/3
−7 −2 1
Opmerking. Deze stelling is erg lang. De meeste uitspraken zijn slechts van theoretische waarde
(zoals uitspraak 2.). Voor de praktijk zijn de equivalentie van 1., 3., 7. en 11. echt van belang.
Waarom wordt bij de definitie van inverteerbaarheid van A het bestaan van een matrix C geëist
zodat AC = In en CA = In . Is één van die twee niet voldoende? De volgende stelling zegt dat dit
voor vierkante matrices inderdaad het geval is!
Merk op: als de matrix A niet vierkant is, kan er wel een matric C bestaan met AC = I. Stelling
6.1 zegt dan dat zeker niet geldt dat CA = I. Evenzo (voor niet vierkante matrices A): er kan een
matrix D bestaan met DA = I, maar dan geldt zeker niet AD = I.
56 College 6, Inverteerbare matrices
Bewijs: 1. We gebruiken criterium 8. van Stelling 6.12 om aan te tonen dat A inverteerbaar is.
Stel Ax = 0. Dan: Ax = 0 ⇒ C(Ax) = C0 ⇒ (CA)x = 0 ⇒ Ix = 0 ⇒ x = 0. Dus inderdaad, de
vergelijking Ax = 0 heeft een unieke oplossing en dus is A een inverteerbare matrix.
Tenslotte: CA = In ⇒ (CA)A−1 = In A−1 ⇒ C(AA−1 ) = A−1 ⇒ C = A−1 .
2. Uit 1. volgt dat C inverteerbaar is en C −1 = A. Maar dan is A ook inverteerbaar en A−1 = C.
Opmerking De twee uitspraken in de vorige stelling hadden we als uitspraak 14. en 15. kunnen
toevoegen aan Stelling 6.12. In de rest van dit dictaat zullen we Stelling 6.12 nog enkele malen
uitbreiden.
College 7, Determinanten
a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3
Merk op dat hier een sommatie staat van producten a1,− a2,− a3,− , waarvan de eerste kentallen
van de subscripts bestaan uit 1, 2, 3. Kijken we naar de tweede kentallen van de subscripts van
deze producten dan verschijnen daar weer de getallen 1, 2, 3, en wel in alle mogelijke volgordes
opgeschreven. (Hetzelfde geldt voor de 2 × 2 matrix met de kentallen 1, 2.)
In het algemeen: het herschrijven van de volgorde van de getallen 1, 2, · · · , n heet een permutatie
van deze getallen en we zullen deze noteren met bijvoorbeeld:
57
58 College 7, Determinanten
(1, 2, 3, 4) → (2, 1, 4, 3)
Een permutatie van de getallen 1, 2, . . . , n is op te vatten als een bijectieve functie
σ : {1, 2, . . . , n} → {1, 2, . . . , n}
Voorbeeld 7.2. De permutaties (1, 2, 3) → (1, 3, 2) resp. (1, 2, 3, 4) → (1, 3, 2, 4) zijn verwisselin-
gen. Inderdaad, bij de eerste permutatie worden 2 en 3 verwisseld, bij de tweede ook.
De permutatie (1, 2, 3) → (3, 1, 2) is geen verwisseling, maar is wel te verkrijgen door twee ver-
wisselingen achter elkaar uit te voeren. Bijvoorbeeld: (1, 2, 3) → (1, 3, 2) → (3, 1, 2) levert die
permuatie. Hetzelfde geldt voor de permuatie (1, 2, 3, 4) → (2, 1, 4, 3).
Definitie: Een permutatie σ ∈ Pn heet even als deze te verkrijgen is door een even aantal
verwisselingen achter elkaar uit te voeren. Anders heet de permuatie oneven.
We noteren signum(σ) = 0 (het teken (sign) van σ is 0) als σ een even permuatatie is. Anders
schrijven we signum(σ) = 1.
Merk op dat het teken van de permuatie (1, 2, 3) → (1, 2, 3) 0 is, want deze is te verkrijgen via 0
(=even) verwisselingen.
Tenslotte kunnen we de officiele definitie van de determinant van een matrix presenteren.
7.2. Berekening van Determinanten 59
a1,1 a1,2 . . . a1,n
a2,1 a2,2 . . . a2,n
Definitie: Laat A = .. .. . . .. een n×n matrix zijn. Dan is de determinant
. . . .
an,1 an,2 . . . an,n
van A gelijk aan het getal
X
(−1)sign(σ) a1,σ(1) a2,σ(2) . . . an,σ(n)
σ∈Pn
Opmerking:
1. De determinant van een 4 × 4 matrix wordt een sommatie van 4! = 24 producten van vier
getallen uit de matrix. Bij een 5 × 5 matrix een sommatie van 5! = 120 producten van vijf
getallen uit de matrix. Via de definitie is de berekening met de hand van de determinant van
een grote matrix bijna een onmogelijkheid.
2. Merk dat dat a1,σ(1) a2,σ(2) . . . an,σ(n) een product van getallen uit verschillende kolommen en
van verschillende rijen is.
Dus: A = [ a ] ⇒ det(A) = a.
Definitie: Laat A een n×n matrix zijn met n ≥ 2. De (n−1)×(n−1) matrix Ai,j verkregen
door de ide rij en de j de kolom van A te schrappen wordt de (i, j)de ondermatrix van A
genoemd. Het getal det(Ai,j ) wordt de (i, j)de minor van A genoemd.
1 −2 5 0
2 0 4 −1
Voorbeeld 7.3. Als A = 3
dan is de (3, 2)-minor A3,2 van A de matrix
1 0 7
0 4 −2 0
verkregen door de derde rij en de tweede kolom
te schrappen, dus:
1 5 0 1 −2 0
A3,2 = 2 4 −1 . Evenzo: A2,3 = 3 1 7 .
0 −2 0 0 4 0
60 College 7, Determinanten
Definitie: Laat A een n × n matrix zijn met n ≥ 2. Dan is de determinant van A, det(A),
gelijk aan het getal:
Dus:
n
X
det(A) = (−1)1+j a1,j det(A1,j )
j=1
Opmerking:
1. De kentallen a1,1 , a1,2 , . . . zijn precies de kentallen van de eerste rij van A. We zeggen wel
dat “det(A) wordt berekend via ontwikkeling naar de eerste rij van A”.
5 −3 −2
0 2
− (−3) 1 2 + (−2) 1 0
Voorbeeld 7.6. 1 0 2 = 5 = 5(0 − (−2)) +
2 −1 −1 3 2 3 2 −1
3
3(3 − 4) − 2(−1 − 0) = 5.2 + 3(−1) − 2(−1) = 10 − 3 + 2 = 9
7.2. Berekening van Determinanten 61
Herinner de formule:
n
X
det(A) = (−1)1+j a1,j det(A1,j )
j=1
Dit heet de berekening van de determinant van A via “cofactor expansie langs de eerste rij”.
Berekenen van det(A) via de Laplace Expansion via rijen of kolommen
Het is wellicht verbazingwekkend dat de determinant berekend kan worden via cofactor expansie
(ontwikkeling) langs een willekeurige rij (of zelfs via een willekeurige kolom). We geven geen bewijs
van de volgende stelling.
det(A) = (−1)i+1 ai,1 det(Ai,1 ) + (−1)i+2 ai,2 det(Ai,2 ) + · · · + (−1)i+n ai,n det(Ai,n ) =
det(A) = (−1)1+j a1,j det(A1,j ) + (−1)2+j a2,j det(A2,j ) + · · · + (−1)n+j an,j det(An,j ) =
Dit laatste heet weer de “cofactor expansie langs de j de kolom van A”.
Opmerking:
1. Bij de formule van de ontwikkeling naar en/of de cofactor expansie langs de ide rij van A:
n
X n
X
det(A) = (−1)i+j ai,j det(Ai,j ) = ai,j Ci,j
j=1 j=1
geldt dat de kentallen ai,j uit de ide rij van A komen, tesamen met een ± structuur die te
onthouden is via het zogeheten “schaakbord patroon”:
+ − + ···
− + − ···
det(A) = + − + · · ·
.. .. .. . .
. . . .
62 College 7, Determinanten
2. Bij de formule van de ontwikkeling naar en/of de cofactor expansie langs de j de kolom van
A: n n
X X
det(A) = (−1)i+j ai,j det(Ai,j ) = ai,j Ci,j
i=1 i=1
geldt dat hier de kentallen ai,j uit de j de kolom van A komen, ook hier tesamen met het ±
schaakbord patroon.
Merk op dat in Voorbeeld 7.8 de tweede berekening iets korter is dan de eerste vanwege de nul in
de derde rij. We concluderen dat de Laplace cofactor expansie het meest zinvol is langs een rij of
een kolom met een maximaal aantal nullen.
Voorbeeld 7.9. Bepaal de determinant van de matrix
2 −3 0 1
5 4 2 0
A= 1 −1 0 3
−2 1 0 0
Antwoord Kolom 3 bevat de meeste nullen, we gebruiken expansie langs de derde kolom.
2 −3 1 2 −3 1
det(A) = 0C1,3 − (2) 1 −1 3 + 0C3,3 − 0C4,3 = −2 1 −1 3
−2 1 0 −2 1 0
We gaan verder met expansie via expansie langs de derde rij.
−3 1 2 1
= −2 +(−2) − (1)
+ 0 = −2[−2(−8) − 5] = −22
−1 3 1 3
Het zal ook duidelijk zijn dat als er in een 4 × 4 matrix A het kental 0 niet voorkomt, de berekening
van de determinant op deze manier “een beestenwerk wordt”. Wat we dan doen om det(A) te
berekenen bespreken we zo. Eerst vermelden we dat Laplace cofactor expansie in het bijzonder
zinvol is bij een (onder- of ) boven driehoeksmatrix.
7.2. Berekening van Determinanten 63
Antwoord Bij iedere stap wordt de Laplace cofactor expansie toegepast langs de eerste kolom.
2 −3 1 1
4 2 0
0 4 2 0
det(A) = = 2 0 2 3 =
0 0 2 3 0 0 −2
0 0 0 −2
2 3
2.4 = 2.4.2.(−2) = −32
0 −2
En dus:
Aangezien we iedere vierkante matrix naar een bovendriehoeksmatrix kunnen vegen, roept dit de
vraag op hoe de determinantfunctie van een matrix zich gedraagt bij de elementaire rijbewerkingen!
Dit komt het volgend college aan de orde.
64 College 7, Determinanten
College 8, Determinanten(vervolg)
en afbeeldingen
We herhalen de stelling:
Aangezien we iedere vierkante matrix naar een bovendriehoeksmatrix kunnen vegen, roept dit de
vraag op hoe de determinant van een matrix zich gedraagt bij de elementaire rijbewerkingen (bij
het vegen).
De clou tot het berekenen van determinanten via vegen ligt besloten in de volgende stelling. Het
bewijs laten we achterwegen.
Het volgende voorbeeld laat zien hoe deze stelling te gebruiken om det(A) te gebruiken.
65
66 College 8, Determinanten (vervolg) en afbeeldingen
STELLING 8.4. Laat A een vierkante matrix zijn die met behulp van vervanging en r
verwisselingen (maar zonder scaling) naar een bovendriehoeks matrix U wordt geveegd. Dan
geldt:
det(A) = (−1)r u1,1 u2,2 . . . un,n
STELLING 8.5. Voor een vierkante matrix A geldt: A is inverteerbaar als en slechts als
det(A) 6= 0.
8.2. Algebraı̈sche eigenschappen van Determinanten 67
Bewijs: A is inverteerbaar als en slechts als (zie Stelling 6.12) in iedere kolom een pivotpositie is
als en slechts als iedere ui,i 6= 0 als en slechts als (−1)r u1,1 u2,2 . . . un,n = det(A) 6= 0.
Omdat Stelling 8.2 over veegstappen gaat is deze te herformulieren in termen van elementaire
matrices E. Deze herformulering luidt als volgt:
Als A een n × n matrix is en E een elementaire n × n matrix, dan geldt:
Bewijs: Als of A of B niet inverteerbaar is, dan geldt: AB niet inverteerbaar en dus geeft Stel-
ling 8.5 het gewenste resultaat.
Stel nu dat zowel A als B inverteerbaar zijn. Dan is volgens Stelling 6.12 A te schrijven als een
product van elementaire matrices, zeg
A = Ep Ep−1 . . . E1 = Ep Ep−1 . . . E1 In
Een herhaald toepassen hierop van de formule det(EX) = det(E) det(X) levert:
det(AT ) = det(A).
Tenslotte nog een stelling met een lineaire eigenschap van de determinant. Daartoe introduceren
we de volgende notatie.
Notatie Laat A een n × n matrix zijn. Als x ∈ Rn , dan staat Ai (x) voor de matrix verkregen uit
A door de ide rij van A te vervangen door xT . Evenzo staat Aj (x) voor de matrix verkregen uit
A door de k de kolom van A te vervangen door x.
STELLING 8.10. Laat A een n × n matrix zijn en fixeer i en/of j. Dan geldt:
1. det(Ai (c1 x + c2 x2 )) = c1 det(Ai (x1 )) + c2 det(Ai (x2 )).
2. det(Aj (c1 x + c2 x2 )) = c1 det(AJ (x1 )) + c2 det(AJ (x2 )).
Bewijs: Als men de determinant van de matrix Ai (c1 x + c2 x2 ) bepaald door te ontwikkelen naar
de ide rij en de distributieve wet toepast verschijnt deze identiteit. De tweede identiteit is te
verkrijgen door te ontwikkelen naar de j de kolom.
Ai (b) = [ a1 . . . b . . . an ].
STELLING 8.11. De regel van Cramer Laat A een inverteerbare n × n matrix zijn en
b ∈ Rn . Als x de unieke oplossing is van het stelsel Ax = b, dan geldt:
det(Ai (b))
xi = , i = 1, . . . , n
det(A)
Opmerking: De regel van Cramer is tegenwoordig alleen nog maar van theoretisch belang. Eén
onbekende xi oplossen met Cramer is meer rekenwerk dan via vegen alle onbekenden tegelijk
oplossen.
Voorbeeld 8.12. Beschouw het volgende stelsel lineaire vergelijkingen met parameter s.
3sx1 − 2x2 = 4
−6x1 + sx2 = 1
Bepaal voor welke s er een unieke oplossing is en bepaal deze met de regel van Cramer.
Antwoord Beschouw het systeem als Ax = b met
3s −2 4 −2 3s 4
A= , A1 (b) = , A2 (b) =
−6 s 1 s −6 1
Omdat det(A) = 3s2 −12 =3(s + 2)(s − 2) heeft dit systeem een unieke oplossing als s 6= ±2. Als
x1
s 6= ±2 dan is de x = de unieke oplossing waarbij
x2
det(A1 (b)) 4s + 2
x1 = =
det(A) 3(s − 2)(s + 2)
70 College 8, Determinanten (vervolg) en afbeeldingen
Bewijs: Het (i, i)de kental van A adj(A) is ide rij A maal ide kolom adj(A), wordt:
(Want hier staat de cofactor expansie van A naar de ide rij van A.)
Het (i, j)de kental van A adj(A) (met i 6= j) is ide rij A maal j de kolom adj(A), wordt:
Dit kan beschouwd worden als de cofactor expansie naar de j de rij van de matrix A′ . Hierbij wordt
A′ verkregen uit A door de j de rij van A te vervangen door de ide rij van A. Dit levert dus de
waarde van det(A′ ) = 0 op (want A′ heeft twee gelijke rijen).
STELLING 8.15. Als A een 2×2 matrix is dan geldt dat | det(A)| gelijk is aan de oppervlakte
van het parallellogram opgespannen door de kolommen van A.
a1 a2
Bewijs: Stel A = . Dan geldt: | det(A)| = |a1 b2 − a2 b1 |.
b1 b2
Aan de andere kantkunnen we de oppervlakte van het parallellogram opgespannen door de ko-
a1 a2
lommen a1 = en a2 = bepalen.
b1 b2
Om de hoogte te bepalen projecteren we a2 op de
n=normaal
normaal van a1 en de hoogte wordt
a2
ka2 k | cos(ϕ)|
waarbij ϕ de ϕ
hoek tussen a2 en de normaal is.
−b1 ka2 k cos(ϕ)
Neem n = als normaal van a1 (dan is a1
a1
knk = ka1 k).
Dan geldt:
en de conclusie volgt.
Opmerking. Omdat det(A) = det(AT ) geldt ook dat | det(A)| gelijk is aan de oppervlakte van
het parallellogram opgespannen door de rijen van A!
72 College 8, Determinanten (vervolg) en afbeeldingen
STELLING 8.16. Als A een 3 × 3 matrix is dan geldt dat | det(A)| gelijk is aan het volume
van het parallellepipidum opgespannen door de drie kolommen van A.
a1 b 1 c1 a1 b1 c1
Bewijs: Beschouw A = a2 b2 c2 met kolommen a = a2 , b = b2 en c = c2 .
a3 b 3 c3 a3 b3 c3
Ontwikkeling naar de eerste kolom van A geeft:
Hierbij staat
b × c voor het uitwendig product van de vectoren b en c, zoals ons wel bekend is (?).
b 2 c3 − b 3 c2
Dus b × c = b3 c1 − b1 c3 .
b 1 c2 − c1 b 2
De vector b × c is dus de normaal van de basis
parallellogram opgespannen door b en c en als ϕ
de hoek is tussen de normaal b × c en a dan: b×c
= volume parallellopipidum b
Opmerking.
1. Omdat det(A) = det(AT ) geldt dat | det(A)| ook gelijk is aan het volume van het parallelle-
pipidum opgespannen door de drie rijen van A.
2. In eerste instantie bestaat er geen interpretatie in Rn van de determinant van een n×n matrix
als een ”n-dimensionaal volume”, want we weten niet wat dit is. Echter, determinanten
kunnen gebruikt worden om het begrip ”n-dimensionaal volume in Rn ” te definiëren. We
zullen niet verder in detail treden.
8.4. Afbeeldingen van Rn naar Rm 73
Dit soort afbeeldingen worden ook wel matrixtransformaties genoemd en dit blijken precies die
functies te zijn (tussen Rn en Rm ) waarin de lineaire algebraı̈cus geı̈nteresseerd is.
1 2 −3
Voorbeeld 8.17. De matrix A = geeft een matrixtransformatie TA : R3 → R2 .
2 2 −1
Deze heeft als functievoorschrift:
x1
x1 + 2x2 − 3x3
TA x2 =
2x1 + 2x2 − x3
x3
Aan het functievoorschrift van een functie is vaak in één opslag te zien of de betreffende functie
een matrixtransformatie is.
2x1 − 5x2
x1
Voorbeeld 8.18. Bekijk de functie T : R2 → R3 met functievoorschrift T = 3x1 + 4x2 .
x2
−x1 + x2
Aan dit functievoorschrift is inderdaad
meteen
te zien dat dit een matrixtransformatie betreft en
2 −5
dat de bijbehorende matrix A = 3 4 is.
−1 1
2
2 2 x1 x1 − 5x32
Daarentegen, de functie T : R → R met functievoorschrift T = is
x2 3x1 + x22
gevoelsmatig toch geen matrixtransformatie. Is dat voldoende bewijs?
A = [T ] = [ T (e1) . . . T (en ) ].
x = x1 e1 + x2 e2 + · · · + xn en
en dus
De uniciteit: stel dat C een m × n matrix is zodat T (x) = Cx voor alle x ∈ Rn . Dan geldt:
voor i = 1 . . . n en dus C = [T ].
T (x) = [T ]x.
Deze stelling levert ook het antwoord op de vraag gesteld aan het begin van deze paragraaf. De
functies T : Rn → Rm waar wij in geı̈nteresseerd zijn zien er uit als T (x) = Ax.
We kunnen nu de vragen beantwoorden uit Voorbeeld 8.9.
2
x1 x1 − 5x32
Antwoord 1. De functie T : R2 → R2 met functievoorschrift T = is geen
x2 3x1 + x22
matrixtransformatie, want het is geen lineaire
afbeelding. Enig simpel rekenwerk laat zien dat
1
T (2x) 6= 2T (x) als bijvoorbeeld x = .
1
8.4. Afbeeldingen van Rn naar Rm 75
T (0) = 0.
Evenzo, als c ∈ R en T : Rn → Rm een lineaire afbeelding is dan kan een nieuwe afbeelding
cT : Rn → Rm gemaakt worden via
77
78 College 9, Lineaire afbeeldingen en deelruimten
Bewijs: 1. Omdat T, S lineaire afbeeldingen zijn geldt: T (x) = [T ]x en S(x) = [S]x en dus:
Hier staat dat S + T een matrixtransformatie is (en dus een lineaire afbeelding) met standaard-
matrix [S + T ] gelijk aan [S] + [T ].
2. Omdat T een lineaire afbeelding is geldt: T (x) = [T ]x en dus:
Hier staat dat cT een matrixtransformatie is (en dus een lineaire afbeelding) met standaardmatrix
[cT ] gelijk aan c[T ].
Stelling 9.2 in woorden: “de standaardmatrix van de som van twee afbeeldingen is de som van de
twee standaardmatrices”.
Bewijs: Er geldt:
en hier staat dat S ◦ T een matrixtransformatie is (en dus een lineaire afbeelding) met standaard-
matrix [S ◦ T ] gelijk aan [S][T ].
Inverteerbare afbeeldingen
Beschouw de afbeelding I : Rn → Rn gedefiniëerd door:
LEMMA 9.5. Laat T : Rn → Rm een lineaire afbeelding zijn en beschouw de twee identiteits
afbeeldingen: I1 : Rn → Rn en I2 : Rm → Rm . Dan geldt:
1. [I1 ] is de n × n eenheidsmatrix In .
2. T ◦ I1 = T en I2 ◦ T = T .
Definitie: Een lineaire afbeelding T : Rn → Rm heet inverteerbaar als er een lineaire afbeel-
ding S : Rm → Rn zodat T ◦ S = I2 en S ◦ T = I1 (met I1 : Rn → Rn de identiteit afbeelding,
evanals I2 : Rm → Rm .)
We claimen dat als T : Rn → Rm inverteerbaar is dat dan n = m. Bovendien zal gelden dat de
lineaire afbeelding S : Rn → Rn met T ◦ S = I en S ◦ T = I uniek door deze eigenschap bepaald
is.
Inderdaad, er zal moeten gelden:
Stelling 6.1 vertelt ons dat als n 6= m er geen matrices A, B bestaan met AB = Im en BA = In . Dus
er moet gelden n = m. Maar dan zal ook moeten gelden: [S] = [T ]−1 . Kortom, de standaardmatrix
van S ligt vast en daarmee is S uniek bepaald.
80 College 9, Lineaire afbeeldingen en deelruimten
T −1 : Rn → Rn .
Bewijs: Beschouw de standaard matrix [T ] = [ T (e1 ) T (e2 ) ]. (Dus T (x) = [T ]x, voor alle x ∈ R2 .)
Laat S een parallellogram zijn met de oorsprong als hoekpunt, opgebouwd via b1 , b2 , d.w.z.
S = {s1 b1 + s2 b2 : 0 ≤ s1 ≤ 1, 0 ≤ s2 ≤ 1}
9.3. Lineaire afbeeldingen in de analyse 81
Dan bestaat het beeld T (S) van S uit alle vectoren van de vorm
T (b2 ) T(S)
b2 T
S
b1 T (b1 )
opp(T (S)) = | det([ T (b1 ) T (b2 ) ])| = | det([ [T ]b1 [T ]b2 ])| =
p + S = {p + s1 b1 + s2 b2 : 0 ≤ s1 ≤ 1, 0 ≤ s2 ≤ 1}
van de lineaire algebra). Voor ons is de “matrixtransformatie” f (x) = ax een lineaire afbeelding
f : R → R.
Kortom, in de analyse heeft men “lineaire afbeeldingen” nodig die 0 naar een punt 6= 0 kunnen
sturen. We praten over “verschoven lineaire afbeeldingen”.
1 2
Voorbeeld 9.10. Beschouw de matrix A = . Die geeft de lineaire afbeelding
−1 3
x1 x1 + 2x2
T = Ax =
x2 −x1 + 3x2
In de analyse wordt de verschoven afbeelding
x1 2 x1 + 2x2
L = +
x2 4 −x1 + 3x2
ook lineair genoemd (deze stuurt 0 naar b 6= 0). Laten we duidelijk zijn: wij noemen dit GEEN
lineaire afbeelding als we lineaire algebra doen. Wij mogen die naam wel gebruiken als we analyse
doen.
of te wel:
1 h1
2 + 2h1 + h2 − h3
L 2 + h2
=
2 − h1 + 2h2 + h3
3 h3
De tweede schrijfwijze levert:
x1 x1 − 1
2 2 1 −1
L x2 = + x2 − 2
2 −1 2 1
x3 x3 − 3
en dus
x1
1 + 2x1 + x2 − x3
L x2 = .
−4 − x1 + 2x2 + x3
x3
Een constructie die in de analyse veel voor komt is een gegeven functie, zeg van F : R2 → R3
te lineariseren in een punt P , de zogeheten beste lineaire benadering van F in P . Wat beste
betekend leert u bij analyse, we beschrijven hier alleen dat dit alles standaardkennis betreft uit de
lineaire algebra.
STELLING 9.13. Laat v1 , . . . , vk een stelsel vectoren zijn in Rn . Dan geldt dat:
W = Span{v1 , . . . , vk }
Zouden deze drie eigenschappen op zich voldoende zijn om de deelverzamelingen van type “Span
van een stel vectoren”te karakteriseren? We definieren:
Definitie: Een deelverzameling W van Rn heet een lineaire deelruimte van Rn , indien:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 ∈ W (voor alle w1 , w2 ∈ W )
3. Als w ∈ W en c ∈ R dan ook cw ∈ W (voor iedere w ∈ W en c ∈ R).
9.4. Lineaire deelruimten van Rn 85
Voorbeeld 9.14. Rn bevat zeker lineaire deelruimten. Twee, wellicht flauwe, voorbeelden zijn:
1. W = {0} ⊂ Rn , het deel van Rn dat alleen de nulvector bevat. Het is makkelijk na te gaan
dat dit inderdaad aan de eisen van “lineaire deelruimte van Rn zijn” voldoet. Dit is kennelijk
de kleinste lineaire deelruimte van Rn .
2. W = Rn ⊂ Rn , het deel van Rn dat alle vectoren bevat van Rn . Ook hier is het makkelijk
na te gaan dat dit inderdaad aan de eisen van lineaire deelruimte van Rn zijn voldoet. Dit
is kennelijk de grootste lineaire deelruimte van Rn .
Deze twee lineaire deelruimten worden ook wel de “triviale deelruimten” van Rn genoemd. Merk
op dat deze beide deelruimte ook van het type ”Span” zijn. Inderdaad: W = {0} = Span{0} en
W = Rn = Span{e1 , . . . , en }.
Bewijs: Stelling 9.13 laat zien dat iedere verzameling van de vorm W = Span{v1 , . . . , vk } een
lineaire deelruimte is.
Omgekeerd is lastiger. Stel dat W een lineaire deelruimte is van Rn . Als W = {0} dan W =
Span{0} en zijn we klaar. Zo niet, kies vector v1 ∈ W met v1 6= 0.
Nu geldt zeker Span{v1 } ⊂ W . Als W = Span{v1 } dan zijn we klaar, zo niet kies v2 ∈ W met
v2 ∈/ Span{v1 }.
Nu geldt zeker Span{v1 , v2 } ⊂ W . Als W = Span{v1 , v2 } dan zijn we klaar, zo niet kies v3 ∈ W
met v3 ∈ / Span{v1 , v2 }.
Dit proces stopt als op een bepaald moment geldt: W = Span{v1 , . . . , vk } (en dan zijn we klaar).
De vraag is echter: zal dit proces stoppen? Zo niet, dan zijn de vectoren v1 , . . . , vk , . . . zo gekozen
dat v1 6= 0 en zo dat vk+1 ∈ / Span{v1 , . . . , vk }, voor alle k.
Wij claimen dat de eerste n + 1 vectoren v1 , . . . , vn+1 lineair onafhankelijk zijn. Om dit aan te
tonen stel dat
c1 v1 + · · · + cn+1 vn+1 = 0
Er moet gelden dat cn+1 = 0, want zo niet, dan
c1 cn
vn+1 = − v1 − · · · − − vn
cn+1 cn+1
en dus vn+1 ∈ Span{v1 , . . . , vn }. Maar dat was dus niet het geval.
Als cn+1 = 0 dan geldt:
c1 v1 + · · · + cn vn = 0
en hetzelfde argument als net laat zien dat cn = 0. We gaan zo door totdat cn+1 = cn = cn−1 =
· · · = c2 = 0 en we concluderen dat c1 v1 = 0. Maar dan ook c1 = 0 want v1 6= 0.
86 College 9, Lineaire afbeeldingen en deelruimten
We hebben de claim bewezen: v1 , . . . , vn+1 zijn lineair onafhankelijk. Maar ook dat kan weer niet
want Rn bevat niet n + 1 lineair onafhankelijke vectoren. Dus ergens zit een foute veronderstelling,
en dat kan alleen nog maar zijn dat het proces boven beschreven niet zou stoppen. Als deze
veronderstelling fout is, dan moet dit ptoces dus wel stoppen. En als dit proces na stap k stopt,
dan weten we W = Span{v1 , . . . , vk }
College 10, Deelruimten(vervolg)
Definitie: Een deelverzameling W van Rn heet een lineaire deelruimte van Rn , indien:
1. De nulvector 0 zit in W ,
2. Als w1 en w2 in W , dan ook w1 + w2 ∈ W (voor alle w1 , w2 ∈ W )
3. Als w ∈ W en c ∈ R dan ook cw ∈ W (voor iedere w ∈ W en c ∈ R).
We hebben ingezien dat de lineaire deelruimten precies de deelverzamelingen van Rn zijn van
de vorm Span{v1 , . . . , vk }. Dan ligt het voor de hand om een gegeven deelruimte W met zo
min mogelijk vectoren op te spannen. We zoeken een manier om deze “zo goedkoop mogelijke
opspanning” te beschrijven.
B = ( b1 , . . . , bk )
87
88 College 10, Deelruimten(vervolg)
LEMMA 10.1. Laat W een lineaire deelruimte zijn van Rn en stel dat W = Span{b1 , . . . , bk }.
Dan geldt: als {v1 , . . . , vℓ } een onafhankelijke verzameling vectoren in W is, dan ℓ ≤ k.
Bewijs: Omdat de verzameling {b1 , . . . , bk } de deelruimte W opspannen (het hoeft geen basis te
zijn) geldt: iedere vector ci is te schrijven als ci = a1,i b1 + · · · , ak,i bk (i = 1, . . . , ℓ.)
Kennelijk: als B = [ b1 . . . bk ], A = [aj,i ] en C = [ c1 . . . cℓ ], dan geldt:
BA = C
STELLING 10.2. Laat W een lineaire deelruimte zijn van Rn en laat B = ( b1 , . . . , bk ) een
basis zijn van W, evenals C = ( v1 , . . . , vℓ ). Dan geldt: k = ℓ.
Bewijs: Uit het vorig lemma volgt dat ℓ ≤ k. Als we de rol van de vectoren bi en cj verwisselen
in het vorig lemma volgt: k ≤ ℓ. Dus ℓ = k.
Omdat ieder tweetal bases van een lineaire deelruimte W evenveel vectoren bevat, kunnen we aan
dit aantal een naam toekennen.
Definitie: Laat W een lineaire deelruimte zijn van Rn . Het aantal vectoren in een basis
van W heet de dimensie van W en wordt genoteerd met dim(W ). De dimensie van de
deelruimte {0} wordt 0 gedefinieerd.
De triviale deelruimte {0} heeft officieel geen basis (waarom niet?) en daarom wordt, in boven-
staande definitie van dimensie, de dimensie van deze ruimte apart gegeven.
Bewijs: Stel dat W = Span{a1 , . . . , ak }. Mocht vector ai bestaan zodat W = Span{a1 , . . . , ai−1 , ai+1 , . . . , ak },
dan gooien we ai uit de opspannende verzameling. We gaan door met vectoren uit de opspannende
verzameling te gooien totdat dit niet meer kan. Dus dan
W = Span{ai1 , . . . , aiℓ }
en stelling 3.7 impliceert dat geen van vectoren aij een lineaire combinatie is van de overigen
vectoren in de opspannende verzameling. Maar dan zijn de vectoren {ai1 , . . . , aiℓ } onafhankelijk,
en dus is
B = {ai1 , . . . , aiℓ }
een basis van W die een uitdunning is van verzameling {a1 , . . . , ak }.
aℓ+1 ∈
/ Span{a1 , · · · , aℓ }
onafhankelijk zullen zijn. Maar dan kunnen dit niet meer dan n vectoren zijn, d.w.z dit proces zal
stoppen. Het proces stopt alleen als
W = Span{a1 , · · · , aℓ , . . . , aℓ+k }
en dan is de basis {a1 , · · · , aℓ , . . . , aℓ+k } gevonden.(Dit is een basis want de vectoren spannen op
en zijn onafhankelijk.)
90 College 10, Deelruimten(vervolg)
GEVOLG 10.6. (De dimensiestelling) Laat W een lineaire deelruimte zijn van Rn met
dim(W ) = k. Dan geldt:
1. Ieder k-tal vectoren in W die W opspannen zijn ook lineair onafhankelijk (en vormen
dus een basis).
2. Ieder k-tal vectoren in W die lineair onafhankelijk zijn spannen W ook op (en vormen
dus een basis)
Bewijs:
1. Stel {a1 , . . . , ak } is een k-tal vectoren in W die W opspannen. Volgens de uitdunningsstelling
kan dit stelsel vectoren worden uitgedund tot een basis (bestaande dus uit k vectoren, want
dim(W ) = k). Maar we beginnen al met k vectoren en dus kan er geen vector worden
weggehaald. Dat kan dus alleen als we al met een basis starten.
2. Stel {a1 , . . . , ak } is een k-tal vectoren in W die onafhankelijk zijn. Volgens de uitbreidingsstel-
ling kan dit stelsel vectoren worden uitgebreid tot een basis (bestaande dus uit k vectoren,
want dim(W ) = k). Maar we beginnen al met k vectoren en dus kan er geen vector aan
worden toegevoegd. Dat kan dus alleen als we al met een basis starten.
Opmerking: Bovenstaand gevolg zegt dat het aangenaam is de dimensie van een deelruimte te
kennen. Dan hoeft minder werk worden verricht om te laten zien dat een bepaalde verzameling
vectoren inderdaad een basis is.
A1
Definitie: Laat A een m × n matrix zijn, zeg A = [ a1 . . . an ] = .. .
.
Am
Opmerking: Omdat de rijen van een matrix eigenlijk geen vectoren zijn, wordt met Row(A)
eigenlijk de opspanning van de getransponeerde van de rijen van A bedoeld. Soms is het toch
handig om er als rijen tegenaan te kijken (zie bijvoorbeeld Stelling 10.11). Het zal nu duidelijk
zijn dat:
Row(A) = Col(AT )
10.2. Deelruimten geassocieerd met een matrix 91
Welke vectoren zitten in de kolomruimte van A? Stelling 3.7 geeft ons de volgende stelling.
Hoe gedragen de kolomruimte en de rijruimte zich bij het veeg proces? Van college 5 weten we
dat de afhankelijkheids relaties tussen de kolommen blijven bestaan, maar eenvoudige voorbeelden
laten al zien dat de kolomruimte wel verandert tijdens het veeg proces.
1 1 1 1
Voorbeeld 10.8. Als A = en B = , dan zijn A en B rijequivalent, maar
1 1 0 0
Col(A) 6= Col(B). Merk op dat Row(A) = Row(B). Dit is geen toeval zoals de volgende stelling
laat zien.
Echter, de rijruimte gedraagt zich mooier bij het vegen. (Dit is nu een stelling die veel moeilijker
te begrijpen is als men Row(A) niet als de opspanning van de rijen van A ziet, maar als Col(AT ).)
STELLING 10.9. Als A en B rijequivalente matrices zijn. Dan geldt: Row(A) = Row(B).
Bewijs: B wordt uit A verkregen via operaties met de rijen, operaties die rijen oplevert binnen
Row(A) en de uiteindelijk verkregen rijen van B zullen lineaire combinaties van de rijen van A
zijn. Dus Row(B) ⊂ Row(A).
Omdat B terug te vegen is naar A geeft dezelfde redenering dat Row(A) ⊂ Row(B). Beide inclusies
tezamen geven de identiteit: Row(A) = Row(B).
STELLING 10.10. Laat A een m × n matrix zijn. Dan geldt dat de verzameling
N = {x ∈ Rn : Ax = 0}
Met een m×n matrix A associëren we vier lineaire deelruimten, de deelruimten Col(A) en Nul(AT )
in Rm en de deelruimten Col(AT ) en Nul(A) in Rn . Dit worden de vier “elementaire deelruimten
geassociëerd met A” genoemd.
De ruimte Nul(AT ) wordt ook wel de “linker nulruimte van A” genoemd. Omdat x ∈ Nul(AT ) als
en slechts als AT x = 0 als en slechts als (AT x)T = 0T als en slechts als xT A = 0T .
STELLING 10.11. Als A en B rijequivalente matrices zijn. Dan geldt: Nul(A) = Nul(B).
Dus als we “alles van kolomruimten zouden weten” dan weten we ook “alles van lineaire deelruim-
ten”. Evenzo: als we “alles van nulruimten zouden weten”, dan weten we ook “alles van lineaire
deelruimten”.
Tenslotte zullen we aangeven hoe een basis voor een lineaire deelruimte te construeren is. Dit
hangt natuurlijk af van hoe de lineaire deelruimte W in kwestie ons voorgeschoteld is. Beschouw
het volgende voorbeeld.
1 1 2 0 0
1
, a2 = 1 , a3 = 2 , a4 = 0 en a5 = 0 .
Voorbeeld 10.13. Beschouw a1 = 1 1 1 1 1
1 2 1 2 1
Merk op dat geldt Span{a1 , a2 , a3 , a4 , a5 } = Col(A) met:
1 1 2 0 0
1 1 2 0 0
A= 1 1 1 1 1
1 2 1 2 1
10.2. Deelruimten geassocieerd met een matrix 93
Bewijs: We volgen de constructie van een basis voor Col(A) en Row(A). Veeg A naar een matrix
B in echelonvorm. De pivotkolommen van A vormen een basis van Col(A) en hieruit volgt de
eerste claim. De pivotrijen (of liever, de getransponeerde van de pivotrijen) van B vormen een
basis van Row(A) en hieruit volgt de tweede claim. Hiermee is de derde claim triviaal.
De constructie van een basis voor de nulruimte een matrix A levert direct de volgende stelling op:
95
96 College 11, Rang en eigenwaarde van een matrix
1. rang(A) = rang(AT )
2. rang(A) ≤ n en rang(A) ≤ m
3. rang(A) + nullity(A) = n.
Bewijs:
1. Als de kolommen van A lineair onafhankelijk is, dan is ( a1 . . . an ) een basis van Col(A) =
Span{a1 . . . an } en dus is rang(A) = dim(Col(A)) = n.
Omgekeerd, stel rang(A) = dim(Col(A)) = n. Omdat {a1 . . . an } opspannen is deze ver-
zameling vectoren uit te dunnen tot een basis. Maar omdat dim(Col(A)) = n kan geen
enkele vector weggegooid worden, d.w.z. {a1 . . . an } is al een basis en dus zijn de kolommen
onafhankelijk.
2. Dit is een opgave.
Bewijs:
1. Volgens de kolomvisie van het product is iedere kolom van AB een lineaire combinatie van
kolommen van A, en dus Col(AB) ⊂ Col(A). Maar dan volgt: rang(AB) ≤ rang(A).
11.2. Eigenwaarden, Eigenvectoren en Eigenruimten 97
2. Volgens de rijvisie van het product is iedere rij van AB een lineaire combinatie van de rijen
van B, en dus Row(AB) ⊂ Row(B). Maar dan volgt: rang(AB) ≤ rang(B).
GEVOLG 11.6. Laat A een m × n matrix zijn met m 6= n. Dan bestaat er geen n × m
matrix B zodat AB = Im en BA = In .
Ax = λx.
Een getal λ ∈ R heet een eigenwaarde van A als er een x 6= 0 in Rn bestaat met Ax = λx.
(Die vector x heet dan een eigenvector bij de eigenwaarde λ.)
De verzameling van alle eigenwaarden van A heet het spectrum van A.
0
4. Tenslotte, de vector x3 = is geen eigenvector van A (ondanks dat A0 = 10), want bij de
0
definitie van het begrip eigenvector is de nulvector uitgesloten.
Merk op: we hebben inmiddels aangetoond dat λ = 2 en λ = 0 eigenwaarden van de matrix A
zijn. Op dit moment is niet duidelijk of A nog meer eigenwaarden heeft.
Opmerking: Een eigenvector van een matrix mag dus niet de nulvector zijn. Echter, het getal
nul kan wel een eigenwaarde van een matrix zijn!
Het is iets lastiger na te gaan of een gegeven getal een eigenwaarde is van een geven matrix.
1 2
Voorbeeld 11.8. Beschouw de matrix A = . Ga na of de getallen λ = 5 en λ = 1
4 3
eigenwaarden zijn van de matrix A.
1. Het getal
λ= 5 is een eigenwaarde van A als er een x 6= 0 bestaat, zodat Ax = 5x. Uitschrijven
x1
met x = geeft ons het stelsel:
x2
x1 + 2x2 = 5x1 −4x1 + 2x2 = 0
equivalent:
4x1 + 3x2 = 5x2 4x1 − 2x2 = 0
en de vraag is of dit tweede homogene stelsel een niet-triviale oplossing heeft. Dit worden
we
1
inmiddels geacht te kunnen beantwoorden, los het stelsel op en zie bijvoorbeeld dat x = een
2
niet triviale oplossing is. Dus λ = 5 is een eigenwaarde van A. Merk ook op dat de niet triviale
oplossingen
van dit stelsel precies al de eigenvectoren van A bij λ = 5 zijn, i.h.b. is de vector
1
x= een eigenvector van A bij de eigenwaarde λ = 5.
2
2. Het getal λ = 1 is een eigenwaarde van A als er een x 6= 0 bestaat, zodat Ax = x. Uitschrijven
levert:
x1 + 2x2 = x1 2x2 = 0
equivalent:
4x1 + 3x2 = x2 4x1 + 2x2 = 0
en het zal een ieder duidelijk zijn dat er geen niet-triviale oplossing is van dit stelsel, m.a.w. λ = 1
is geen eigenwaarde van A.
(A − λI)x = 0
en we concluderen:
11.2. Eigenwaarden, Eigenvectoren en Eigenruimten 99
1. λ ∈ R is eigenwaarde A als en slechts als het stelsel (A − λI)x = 0 een niet triviale
oplossing heeft.
2. Als λ0 ∈ R een eigenwaarde van A is, dan zijn de eigenvectoren van A bij de eigenwaarde
λ0 precies de niet triviale oplossingen van het stelsel: (A − λ0 I)x = 0.
Definitie: Laat A een n × n matrix zijn en laat λ0 een eigenwaarde zijn van A. De verza-
meling
{x : Ax = λ0 x}
heet de eigenruimte van λ0 (bij A) en wordt genoteerd met Eλ0 .
LEMMA 11.10. Laat A een n × n matrix zijn en laat λ0 een eigenwaarde zijn van A. Dan
geldt:
Eλ0 = Nul(A − λ0 I).
I.h.b. geldt dat Eλ0 een lineaire deelruimte van Rn is.
Definitie: Laat A een n × n matrix zijn en laat λ0 een eigenwaarde zijn van A. Dan:
de dimensie van de eigenruimte Eλ0 heet: de meetkundige multipliciteit van λ0 . Als
dim(Eλ0 ) = k schrijven we:
“m.m.(λ = λ0 ) = k”
7 1 −2
Voorbeeld 11.11. Laat zien dat λ = 6 een eigenwaarde is van de matrix A = −3 3 6 ,
2 2 2
bepaal een basis voor de eigenruimte E6 en bepaal de meetkundige multipliciteit van de eigenwaarde
λ = 6.
Antwoord.
Volgens Lemma 11.9 is λ = 6 een eigenwaarde als en slechts als het stelsel (A − 6I)x = 0 een niet
100 College 11, Rang en eigenwaarde van een matrix
1 1 −2 0
triviale oplossing heeft. Dit komt overeen met het stelsel −3 −3 6 0 . Omdat
2 2 −4 0
1 1 −2 0 1 1 −2 0
−3 −3 6 0 ∼ 0 0 0 0
2 2 4 0 0 0 0 0
zijn er vele niet triviale oplossingen, dus λ = 6 is inderdaad een eigenwaarde van A.
Volgens Lemma 11.10 is E6 = Nul(A − 6I), en kennelijk is de oplossingsverzameling van het stelsel
(A − 6I)x = 0 gelijk aan
−x2 + 2x3 −1 2 −1 2
E6 = x2 = x2 1 + x3 0 = Span 1 , 0
x3 0 1 0 1
−1 2
Kennelijk is 1 , 0 een basis van E6 en dus m.m.(λ = 6) = 2.
0 1
Bewijs: We bewijzen dit uit het ongerijmde. Stel de uitspraak is onjuist. Dan is één van de
vectoren een lineaire combinatie van de overigen vectoren. Bovendien kunnen we die overigen
vectoren uitdunnen tot een lineair onafhankelijk stelsel met dezelfde opspanning. We verkrijgen zo
een stel eigenvectoren, zeg: u1 , . . . , uk , uk+1 , bij de verschillende eigenwaarden λ1 , . . . , λk+1 met:
1. u1 , . . . , uk is een onafhankelijk stel vectoren,
2. uk+1 ∈ Span{u1 , . . . , uk }.
3. Aui = λi ui (voor i = 1, . . . , k + 1) met λi 6= λj (voor i 6= j).
Omdat uk+1 ∈ Span{u1 , . . . , uk } bestaan er c1 , . . . , ck zodat:
uk+1 = c1 u1 + · · · + ck uk (11.1)
Vermenigvuldig beiden zijden van vergelijking 11.1 met A, dan verkrijgen we Auk+1 = A(c1 u1 +
· · · + ck uk ) = c1 Au1 + · · · + ck Auk en via 3. verkrijgen we:
λk+1 uk+1 = c1 λ1 u1 + · · · + ck λk uk (11.2)
Vermenigvuldig nu beide zijden van de vergelijking 11.1 met λk+1 en trek daar vergelijking 11.2
van af, dan verkrijgen we:
0 = c1 (λk+1 − λ1 )u1 + · · · + ck (λk+1 − λk )uk (11.3)
Bewijs: Als er meer dan n eigenwaarden zouden zijn dan zou het kiezen van
bijbehorende eigenvectoren volgens Stelling 11.12 meer dan n lineair onafhankelijke vectoren in Rn
opleveren, hetgeen onmogelijk is.
STELLING 11.15. Laat A een n × n matrix zijn en stel dat x een eigenvector (van A) is
bij de eigenwaarde λ. Dan geldt:
1. Als n ∈ N dan is x een eigenvector van An bij de eigenwaarde λn .
2. Als A inverteerbaar, dan is x een eigenvector van A−1 bij de eigenwaarde λ−1 .
STELLING 12.1. Laat A een n × n matrix zijn. Dan: de eigenwaarden van A zijn precies
de (reële) oplossingen van de vergelijking
det(A − λI) = 0
De vergelijking: det(A − λI) = 0 heet de de karakteristieke vergelijking van A. Hoe ziet deze
vergelijking eruit?
a b
Voorbeeld 12.2. Als A een 2 × 2 matrix, zeg A = dan wordt
c d
a−λ b
det(A − λI) = = (a − λ)(d − λ) − bc = λ2 − (a + d)λ + ad − bc
c d−λ
een kwadratisch polynoom dus. Daarom is de vergelijking det(A − λI) = 0 een kwadratische
vergelijking
λ2 − (a + d)λ + ad − bc = 0
in de variabele λ (althans, bij een 2 × 2 matrix).
Algemeen geldt bij een n×n matrix A dat det(A−λI) een polynoom van de graad n in de variabele
λ wordt, en dit wordt het karakteristieke polynoom van A genoemd. Het karakteristieke
polynoom wordt soms genoteerd met pA (λ). Dus:
En hiermee wordt het bepalen van de eigenwaarden van A het bepalen van de nulpunten van een
polynoom van de graad n.
103
104 College 12, De karakteristieke vergelijking
Bewijs: Dit volgt uit de eigenschap det(B) = det(B T ) van determinanten. Inderdaad:
pA (λ) = det(A − λI) = det((A − λI)T ) = det(AT − λI) = pAT (λ)
en de conclusie volgt.
Definitie: Als λ = λ0 een k-voudig nulpunt is van pA (λ), dan zeggen we dat λ = λ0 een
eigenwaarde is met algebraı̈sche multipliciteit k. We schrijven:
a.m.(λ = λ0 ) = k.
In Voorbeeld 12.3 krijgen we: λ = 2 is een eigenwaarde van A met algebraı̈sche multipliciteit 3;
evenzo: a.m.(λ = 1) = 2 en a.m.(λ = 4) = 1. Merk op dat de sommatie van al de algebraı̈sche
multipliciteiten van de eigenwaarden van een n × n matrix, n oplevert. Merk ook op dat de
algebraı̈sche multipliciteiten geen enkele informatie over de meetkundige multipiliciteiten van de
eigenwaarden levert, behalve dan die informatie die de volgende stelling geeft. Het bewijs van deze
stelling zullen we niet geven.
STELLING 12.5. Laat A een n × n matrix zijn met eigenwaarde λ = λ0 . Dan geldt:
1 ≤ m.m.(λ = λ0 ) ≤ a.m.(λ = λ0 )
12.1. De karakteristieke vergelijking van een matrix 105
Definitie: Laat A een n × n matrix zijn. Als er een eigenwaarde λ = λ0 bestaat van A met
de eigenschap: m.m.(λ = λ0 ) <a.m.(λ = λ0 ), dan heet A defect(in de eigenwaarde λ0 ).
2 4 3
Voorbeeld 12.6. Bepaal van de volgende matrix A = −4 −6 −3 alle eigenwaarden met
3 3 1
al hun multipliciteiten.
Antwoord.
De karakteristieke vergelijking wordt:
2−λ 4 3
−4 −6 − λ −3 = 0
3 3 1−λ
De variabele λ maakt het vegen lastig. We tellen de eerste rij op bij de tweede rij en ontwikkelen
naar de derde kolom.
2−λ 4 3 2 − λ 4 3
−4 −6 − λ −3 = −2 − λ −2 − λ 0 =
3 3 1−λ 3 3 1−λ
−2 − λ −2 − λ
+ (1 − λ) 2 − λ 4
= +3 =
3 3 −2 − λ −2 − λ
1 0 1 1
0 1 1 1
0 0 2 1 met hun multi-
Voorbeeld 12.7. Bepaal de eigenwaarden van de matrix A =
0 0 0 2
pliciteiten.
Antwoord.
De karakteristieke vergelijking wordt:
1−λ 0 1 1
0 1−λ 1 1
0 = pA (λ) = det(A − λI) = = (1 − λ)2 (2 − λ)2 .
0 0 2−λ 1
0 0 0 2−λ
0 0 0 1 0 0 0 0 0 0
STELLING 12.8. Laat A een n × n bovendriehoeks (of onderdriehoeks) matrix zijn. Dan
zijn de kentallen op de diagonaal precies de eigenwaarden van A. Bovendien geldt dat als het
getal λ0
k maal op de diagonaal staat, dan:
a.m.(λ = λ0 ) = k.
Over de meetkundige multipliciteit is niets te zeggen, behalve dat het iedere waarde tussen 1
en k kan aannemen.
Tenlotte nog een opmerking over hoe de nulpunten te bepalen van een derde graads (of hoger)
polynoom. Bekijk de vergelijking:
De volgende stelling laat zien dat we in ons eerste doel geslaagd zijn, de transformatie die A omzet
in P −1 AP (= B) behoudt eigenwaarden.
109
110 College 13, Gelijkvormigheid en diagonaliseerbaarheid.
A = P DP −1
Het volgende lemma geeft aan hoe de matrices P en D bij A in bovenstaande definitie er uit zullen
zien.
Als direct gevolg van Lemma 13.4 verkrijgen we de volgende twee stellingen.
Bewijs: Stel dat A diagonaliseerbaar is, zeg dat A = P DP −1 met D = diag(d1 , . . . , dn ). Dan
geldt kennelijk dat AP = P D en omdat de matrix P = [ p1 . . . pn ] inverteerbaar is, geldt dat
iedere kolom pi van P ongelijk is aan 0. Omdat P inverteerbaar is, volgt dat B = {p1 , . . . , pn }
een basis van Rn is. Lemma 13.4 geeft ons dat dit een basis van eigenvectoren van A is.
Omgekeerd, zeg dat B = {b1 , . . . , bn } een basis van Rn bestaande uit eigenvectoren van A. Zeg
dat Abi = λ1 bi . We definiëren P = [ b1 . . . bn ] (merk op dat bi 6= 0) en D = diag(λ1 , . . . , λn ) dan
zegt Lemma 13.4 ons dat AP = P D. Maar de matrix P is inverteerbaar, omdat zijn kolommen
onafhankelijk zijn, en dus A = P DP −1 , i.e. A is diagonaliseerbaar.
Bewijs: Stel dat λ1 , . . . , λn n verschillende eigenwaarden van A zijn. Kies bij iedere eigenwaarde
λi een eigenvector pi , (i = 1, . . . , n). Dan pi 6= 0 en als we schrijven: P = [ p1 . . . pn ] en
D = diag(λ1 , . . . , λn ) dan zegt Lemma 13.4 ons dat AP = P D. Bovendien garandeert Stelling 11.12
dat het stelsel vectoren {p1 , . . . , pn } lineair onafhankelijk is, en dus is de matrix P inverteerbaar.
Maar dan: A = P DP −1 , i.e. A is diagonaliseerbaar.
De voorafgaande Stelling 13.6 geeft al vele voorbeelden van matrices die diagonaliseerbaar zijn.
1 1
Voorbeeld 13.7. Beschouw de 2 × 2 matrix A = . Ga na of A diagonaliseerbaar is; zo
0 2
ja, bepaal een diagonalisering.
Antwoord.
Volgens Stelling 12.8 zijn λ = 1, 2 de eigenwaarden van A en dus zegt Stelling 13.6 dat A
diagonaliseerbaar is. Het bewijs van deze stelling geeft tevens aan hoe we een diagonalisering van
A kunnen vinden.
0 1 0
We bepalen een basis van E1 = Nul(A − I). Dit levert het stelsel met als oplossing
0 1 0
x1 1 1
x= = x1 . Dus: is basis E1 .
0 0 0
112 College 13, Gelijkvormigheid en diagonaliseerbaarheid.
−1 1 0
Evenzo: een basis van E2 = Nul(A − 2I) verkrijgen we via het stelsel , met als
0 0 0
x2 1 1
oplossing x = = x2 . Dus: is basis E2 .
x2 1 1
1 1 1 0
Als we schrijven P = en D = dan geldt volgens Lemma 13.4 dat AP = P D en
0 1 0 2
omdat P inverteerbaar is geldt: A = P DP −1 . Hiermee is een diagonalisering van A gevonden.
Met behulp van Lemma 13.4 kunnen we ook al matrices construeren die niet diagonaliseerbaar
zijn. We geven twee voorbeelden.
1 1
Voorbeeld 13.8. Beschouw de 2 × 2 matrix A = . Ga na of A diagonaliseerbaar is; zo
0 1
ja, bepaal een diagonalisering.
Antwoord.
Volgens Stelling 12.8 is λ = 1 de enige eigenwaarde van A (met a.m.(λ = 1) = 2).
0 1 0
We bepalen een basis van E1 = Nul(A − I). Dit levert het stelsel met als oplossing
0 0 0
x1 1 1
x= = x1 . Dus: is basis E1 . (Dus m.m.(λ = 1) = 1.) Lemma 13.4 vertelt
0 0 0
1 0
ons nu hoe matrices P, D te maken met AP = P D. Er zal gelden D = en de twee
0 1
1
kolommen van P moeten eigenvectoren bij λ = 1 zijn, dus scalaire veelvouden van . Dus
0
kunnen die kolommen niet onafhankelijk gekozen worden, dus P kan niet inverteerbaar gekozen
worden. M.a.w. de matrix A is niet diagonaliseerbaar.
2 2 3
Voorbeeld 13.9. Beschouw de 3 × 3 matrix uit Voorbeeld 12.6, A = −4 −6 −3 . Ga na
3 3 1
of A diagonaliseerbaar is; zo ja, bepaal een diagonalisering.
Antwoord.
In Voorbeeld 12.6 hebben we gezien dat λ = 1, −2 de eigenwaarden van A zijn, en a.m.(λ = 1) = 1
en a.m.(λ = −2) = 2.
1 1
Tevens zagen we dat −1 een basis is voor E1 , −1 is een basis voor E−2 .
1 0
Als we een diagonalisering proberen te maken, dan zal P uit eigenvectoren bestaan. Omdat er
drie kolommen en slechts twee eigenruimten zijn, zullen er tenminste twee kolommen uit dezelfde
eigenruimten komen, en dus zullen twee kolommen scalaire veelvouden van elkaar zijn (want beide
eigenruimten hebben dimensie 1). Maar dan zal P niet inverteerbaar zijn. Daarom is A niet
diagonaliseerbaar zijn.
1 3 3
Voorbeeld 13.10. Beschouw de 3 × 3 matrix uit Voorbeeld 12.6, A = −3 −5 −3 . Ga na
3 3 1
of A diagonaliseerbaar is; zo ja, bepaal een diagonalisering.
Antwoord.
Stap 1.
Omdat het niet duidelijk is wat de eigenwaarden van A zijn, bepalen we eerst die eigenwaarden.
1−λ 3 3
−5 − λ −3 −3 −3
pA (λ) = det(A−λI) = −3 −5 − λ −3 = (1−λ)
−3
+
3 1−λ 3 1−λ
3 3 1−λ
13.2. Diagonaliseerbaarheid van matrices 113
−3 −5 − λ
+3 = (1 − λ)[(−5 − λ)(1 − λ) + 9] − 3[−3(1 − λ) + 9] + 3[−9 − 3(−5 − λ)] =
3 3
(1 − λ)(λ2 + 4λ + 4) − 3(3λ + 6) + 3(3λ + 6) = (1 − λ)(λ2 + 4λ + 4) = (1 − λ)(λ + 2)2
Stap 2.
Bepaal een basis voor iedere eigenruimte.
0 3 3 0
Om een basis voor E1 = Nul(A − I) te bepalen moeten we het stelsel −3 −6 −3 0
3 3 0 0
1 1
oplossen. Dit levert x = x3 −1 en dit geeft −1 = {p1 } als basis voor E1 .
1 1
3 3 3 0
Evenzo bepalen we een basis voor E−2 = Nul(A + 2I) door het stelsel −3 −3 −3 0 op te
3 3 3 0
−1 −1 −1 −1
lossen. Dit levert x = x2 1 + x3 0 en dit geeft 1 , 0 = {p2 , p3 } als
0 1 0 1
basis voor E−2 .
Het is eenvoudig na te gaan dat de drie vectoren p1 , p2 , p3 lineair onafhankelijk zijn. (Men kan
ook een beroep doen op Stelling 13.11.)
Stap 3.
1 −1 −1 1 0 0
Als P = [ p1 p2 p3 ] = −1 1 0 , dan is P inverteerbaar en als D = 0 −2 0 dan
1 0 1 0 0 −2
geldt volgens Lemma 13.4 dat A = P DP −1 , i.e. A is diagonaliseerbaar.
STELLING 13.11. Laat A een n×n matrix zijn met (verschillende) eigenwaarden λ1 , . . . , λk .
Als Bi een basis is van de eigenruimte Eλi (i = 1, . . . , k), dan is
B1 ∪ . . . ∪ Bk
1. De matrix A is diagonaliseerbaar.
2. (a) Al de nulpunten van het karakteristiek polynoom pA (λ) zijn reëel,
(b) voor iedere eigenwaarde λ = λ0 van A geldt: m.m.(λ = λ0 ) =a.m.(λ = λ0 ).
3. De sommatie van de meetkundige multipliciteiten van de eigenwaarden is n.
Als dit laatste het geval is, dan kunnen de matrices P, D verkregen worden door alle vectoren
uit gekozen bases van de eigenruimten bij elkaar te stoppen in één matrix P en in D de
eigenwaarden overeenkomstig op de diagonaal te zetten.
xn+1 = Axn
wordt de rij vectoren {xn }n≥0 recursief gedefinieëerd bij gegeven startvector x0 . Het doel is een
expliciete formule voor de vector xn te vinden.
13.3. Toepassingen van diagonalisering. 115
Als x0 een eigenvector van A is, zeg bij de eigenwaarde λ0 dan is dit niet moeilijk. Inderdaad,
x1 = Ax0 = λ0 x0 , x2 = Ax1 = A(λ0 x0 ) = λ0 Ax0 = λ20 x0 . Etc. Kortom:
xn = λn0 x0
x0 = c1 v1 + · · · + ck vk
Merk op dat als A diagonaliseerbaar is, dat dan zeker x0 een lineaire combinatie van eigenvectoren
van A is. (Waarom?)
1 1/2 4
Voorbeeld 13.14. Beschouw de matrix A = en de startvector x0 = .
0 1/2 3
Vraag: Bepaal een formule voor de recursieve rij {xn }n≥0 met xn+1 = Axn en zo mogelijk lim xn .
n→∞
1
Antwoord: Ga zelf na dat λ = 1 een eigenwaarde is van A en dat een basis van E1
0
1
is; λ = 1/2 een eigenwaarde is van A en dat een basis van E1/2 is. We schrijven
−1
4 1 1
de startvector als lineaire combinatie van de eigenvectoren: = c1 + c2 levert
3 0 −1
c1 = 7 en c2 = −3. Daarom:
1 1 7 − 3(1/2)n
xn = 7(1)n + (−3)(1/2)n =
0 −1 3(1/2)n
en dus:
7
lim xn =
n→∞ 0
fn+1 = fn + fn−1
en hiermee ligt de hele rij vast. Dit is een voorbeeld van een lineaire recurrentie relatie hier van
de orde 2. Het is de bedoeling een expliciete formule voor, in dit geval het Fibonacci getal fn , te
bepalen.
1 Fibonacci (1170-1250) is de bijnaam van Leonardo of Pisa. Hij schreef verschillende belangrijke boeken die
overleefde, waarvan in één het voortplanting-probleem van een rat werd beschreven, die aanleiding gaf tot deze
rij. De Franse wiskundige Edouard Lucas gaf deze rij de naam “de rij van Fibonacci” en sprak van “Fibannacci
getallen”.
116 College 13, Gelijkvormigheid en diagonaliseerbaarheid.
Definitie: Stel dat {pn }n≥0 = {p0 , p1 , p2 , . . .} een rij is, met:
1. p0 , . . . , pk−1 liggen vast,
2. Als n ≥ k dan kan pn berekend worden via de relatie:
dan zeggen we dat de rij {pn }n≥0 gegeven wordt door een lineaire recurrentie relatie van de
orde k.
en dus √ √
λ1 = 12 + 21 5 en λ2 = 12 − 21 5.
Nogal “vervelende” eigenwaarden, die we voor het gemak maar λ1 , λ2 blijven noemen.
Eλ1 komt uit stelsel:
Basis voor de eigenruimte +
−λ1 1 0 ↑ 0 0 0
∼
1 1 − λ1 0 ×λ1 1 1 − λ1 0
13.3. Toepassingen van diagonalisering. 117
λ1 − 1
en dit levert als basis voor Eλ1 .
1
λ2 − 1
Evenzo is een basis voor de eigenruimte Eλ2 .
1
Schrijven we x0 als lineaire combinatie van de eigenvectoren, zeg:
0 λ1 − 1 λ2 − 1
= c1 + c2 ,
1 1 1
1 1√ 1 1√ 1 1√ 1
Merk op: c1 (− + 5) + c2 (− − 5) = 0 ⇒ − (c1 + c2 ) + 5(c1 − c2 ) = 0 ⇒ c1 − c2 = √ .
2 2 2 2 2 2 5
We krijgen zo het nieuwe stelsel
c1 + c2 = 1
c1 − c2 = √15
1 1 λ1 1 1 λ2
Dit levert c1 = (1 + √ ) = √ en c2 = (1 − √ ) = − √ . Dus:
2 5 5 2 5 5
λ1 λ1 − 1 λ2 λ2 − 1
x0 = √ −√
5 1 5 1
daarom:
λ1 λ1 − 1 λ2 λ2 − 1
xn = √ (λ1 )n − √ (λ2 )n .
5 1 5 1
Omdat λ1 (λ1 − 1) = 1 = λ2 (λ2 − 1) volgt de zogeheten formule van Binet2 voor fn :
n n
1 1 1√ 1 1 1√
fn = √ + 5 −√ − 5 .
5 2 2 5 2 2
was gegaan). J. Binet had veel resultaten in de matrix theorie, getal theorie en fysica.
118 College 13, Gelijkvormigheid en diagonaliseerbaarheid.
We zullen zo’n systeem van “gekoppelde lineaire differentiaal vergelijkingen” schrijven als x′ = Ax,
waarbij:
′
x1 (t) x1 (t) a1,1 a1,2 . . . a1,n
x2 (t) x′2 (t) a2,1 a2,2 . . . a2,n
′
x= .. , x = .. , en A = .. .. .. ..
. . . . . .
′
xn (t) xn (t) an,1 an,2 . . . an,n
Als de matrix A een diagonaalmatrix is, dan is dit systeem simpel op te lossen. Inderdaad, dan
ziet dit stelsel eruit als: ′
x1 = a1 x1
x′2 =
a2 x2
.. .. ..
. . .
′
xn = an xn
oftewel, we kunnen dit beschouwen als n afzonderlijke differentiaal vergelijkingen x′i = ai xi (i =
1 . . . n). Hiervan kennen we de oplossing: n.l xi (t) = Ci eai t . (Pas op, zet een index i bij de
constante C, de ene constante hoeft niet de andere constante te zijn.) We spreken wel af het
C1 ea1 t
C2 ea2 t
antwoord als een vector te schrijven, dus: x(t) = .. is de oplossing.
.
an t
Cn e
Als bij een gekoppelde lineaire differentiaal vergelijking x′ = Ax de matrix A diagonaliseerbaar
is, zeg A = P DP −1 (met D een diagonaalmatrix), dan is differentiaal vergelijking x′ = Ax op de
volgende manier op te lossen.
Schrijf x′ = Ax ⇒ x′ = P DP −1 x ⇒ P −1 x′ = DP −1 x ⇒ (P −1 x)′ = D(P −1 x).
Als we schrijven y = P −1 x dan krijgen we differentiaal vergelijking y′ = Dy, en deze kunnen we
oplossen. (We zeggen dat de differentiaal vergelijking x′ = Ax ”ontkoppeld” is.) Tenslotte kunnen
we via x(t) = P y(t) de oplossing van het oorspronkelijke stelsel vinden.
Als de matrix A niet diagonaliseerbaar zullen we geen oplosmethode introduceren. Deze bestaat
echter wel.
Voorbeeld 13.16. Beschouw de volgende gekoppelde lineaire differentiaal vergelijking:
′
x1 = x1 + 2x2
x′2 = 3x1 + 2x2
Vraag: Geef de algemene oplossing van dit stelsel. Geef ook een oplossing van dit stelsel dat
voldoet aan aan: x1 (0) = 1 en x2 (0) = 4. (Dit laatste het een “beginwaarde probleem”.)
′
x1 1 2 x1 1 2
Antwoord: We herschrijven dit stelsel als = . De matrix A =
x2 3 2 x2 3 2
is diagonaliseerbaar,
want men kan nagaan dat λ = 4, −1 de eigenwaarden
zijn van A, en dat
2 −1
een basis is voor de eigenruimte E4 , respectivelijk, een basis is voor de
3 1
eigenruimte E−1 .
2 −1 4 0
Daarom: als P = en D = dan geldt: A = P DP −1 .
3 1 0 −1
Dit levert: (P −1 x)′ = D(P
−1
x).
y1 (t)
Als we schrijven y(t) = = P −1 x dan krijgen we het ontkoppelde stelsel:
y2 (t)
′
y1 = 4y1 C1 e4t
met de oplossing y(t) =
y2′ = −y2 C2 e−t
13.3. Toepassingen van diagonalisering. 119
Merk op dat ook de antwoorden x1 (t) en x2 (t) gekoppeld zijn via de constanten.
Tenslotte: als men een oplossing zoekt met x1 (0) = 1 en x2 (0) = 4 vult men dit in, in de algemene
oplossing en verkrijgt zo een lineair stelsel in C1 , C2 .
Hier verkrijgt men het stelsel
2C1 − C2 = 1
3C1 + C2 = 4
dat geeft: C1 = C2 = 1. De (unieke) oplossing wordt:
4t
x1 (t) 2e − e−t
x(t) = = .
x2 (t) 3e4t + e−t
120 College 13, Gelijkvormigheid en diagonaliseerbaarheid.
College 14, Orthogonaliteit in Rn.
u1 v1
Definitie: Als u = ... en v = .. vectoren in Rn zijn, dan verstaan we onder het
.
un vn
getal
uT v
het inwendig product van u en v. Dit getal wordt genoteerd met u · v en wordt ook wel het
“dotproduct”van u en v genoemd.
n
X
Dus: u · v = u1 v1 + · · · + un vn = ui vi
i=1
STELLING 14.1. Laat u, v en w vectoren in Rn zijn en laat c ∈ R een scalar zijn. Dan
geldt:
1. u · v = v · u
2. u · (v + w) = u · v + u · w
3. (cu) · v = c(u · v) = u · (cv)
4. u · u ≥ 0 en u · u = 0 als en slechts als u = 0.
121
122 College 14, Orthogonaliteit in Rn .
Lengte en Afstand
Met behulp van het standaard inwendige product kunnen we een lengtebegrip (of norm) in Rn
introduceren, zoals we dat in R2 en R3 deden.
u1
Definitie: Als u = ... een vector in Rn is , dan wordt het getal
un
√ q
u·u= u21 + · · · + u2n
de lengte van u (of norm) van u genoemd. De lengte wordt genoteerd met kuk.
√ q
Dus: kuk = u·u= u21 + · · · + u2n
Opmerking: p Voor de praktische berekening van de lengte van een gegeven vector volstaat de
formule kuk = u21 + · · · + u2n . Echter, in een theoretische stelling waarin de lengte een rol speelt
zal men altijd de formule kuk2 = u · u gebruiken, zodat de rekenregels van het inwendigproduct
gebruikt kunnen worden.
STELLING 14.2. Laat u een vector in Rn zijn en laat c ∈ R een scalar zijn. Dan geldt:
1. kuk = 0 als en slechts als u = 0
2. kcuk = |c| kuk.
Een vector met lengte 1 heet een eenheidsvector. Merk op dat als u ∈ Rn met u 6= 0, dan is de
vector
1
u
||u||
een eenheidsvector, en wel één als in dezelfde richting als u. Het overstappen van de vector u ∈ Rn
1
met u 6= 0 naar de vector: ||u|| u heet:
Pas op: “e1 hoeft niet gelijk te zijn aan e1 ”want de e1 uit R2 is niet gelijk aan de e1 uit R4 .
Evenals in R2 en R3 kunnen we het begrip “de afstand d(P, Q) tussen punten P, Qën “de afstand
d(u, v) tussen vectoren u, vı̈n Rn invoeren. (N.B. d staat voor “distance”.)
d(u, v) = ku − vk
−−→ −−→
Merk op dat de afstand tussen de twee vectoren u = OP en v = OQ gelijk is aan de afstand tussen
de eindpunten P en Q van deze vectoren.
Hoeken en Orthogonaliteit
waar θ gelijk is aan de door u en v ingesloten hoek. We zouden een soortgelijk formule ook graag
in Rn tot ons beschikking hebben. Echter, wat verstaan we in Rn onder de hoek tussen twee
vectoren, als n ≥ 4? Daarvoor eerst:
STELLING 14.4. (De driehoeks ongelijkheid) Als u en v vectoren in Rn zijn, dan geldt:
ku + vk ≤ kuk + kvk.
Definitie: Als u en v vectoren in Rn zijn ongelijk aan de nulvector, dan verstaan we onder
de hoek tussen u en v dat getal θ ∈ [0, π] met
u·v
cos(θ) = .
kuk kvk
u·v
Merk op dat Cauchy-Schwarz impliceert dat −1 ≤ kuk kvk ≤ 1, dus zo’n θ zal zeker bestaan.
Definitie: Als u = 0 of als v = 0, dan heet iedere θ ∈ [0, π] een hoek tussen u en v.
Vanwege de onbepaaldheid van de hoek als u = 0 of als v = 0 zullen we altijd spreken van een
hoek (en niet de hoek) tussen u en v, ook als zowel u 6= 0 en v 6= 0.
GEVOLG 14.5. Als u en v vectoren in Rn zijn en θ ∈ [0, π] is een hoek tussen u en v dan
geldt:
u · v = kuk kvk cos(θ).
Met de regel u·v = kuk kvk cos(θ) kan men ook in hogere Rn de hoek tussen twee vectoren bepalen.
Definitie: Als u en v vectoren in Rn zijn dan heten u en v orthogonaal (of ook loodrecht)
als θ = π2 een hoek tussen tussen u en v is.
STELLING 14.6. Als u en v vectoren in Rn zijn dan geldt: u en v zijn orthogonaal als en
slechts als u · v = 0.
Bewijs: Triviaal
14.2. Orthogonale verzamelingen en orthogonale bases 125
STELLING 14.7. (De stelling van Pythagoras) Als u en v vectoren in Rn zijn, dan
geldt: u en v zijn orthogonaal als en slechts als ku + vk2 = kuk2 + kvk2 .
Bewijs: ku + vk2 = kuk2 + kvk2 als en slechts als (u + v) · (u + v) = kuk2 + kvk2 als en slechts
als u · u + 2u · v + v · v = kuk2 + kvk2 als en slechts als kuk2 + 2u · v + kvk2 = kuk2 + kvk2 als
en slechts als 2u · v = 0 als en slechts als u en v orthogonaal zijn.
Definitie: Het stelsel vectoren (v1 , . . . , vk ) in Rn heet orthogonaal als ieder tweetal ver-
schillende vectoren in dit stelsel orthogonaal is, dus als:
vi · vj = 0 als i 6= j, als i, j = 1, . . . , k
Opmerking: Als {v1 , . . . , vk } een orthogonale verzameling niet-nul vectoren is, dan kan men
door normeren tot de orthonormale verzameling
1 1
v1 , . . . , vk
kv1 k kvk k
komen.
0 = vi · 0 = vi · (c1 v1 + · · · + ci vi + · · · + ck vk ) =
Vervolgens:
Definitie: Stel dat W een lineaire deelruimte is van Rn . B = {b1 , . . . , bk } heet een or-
thogonale basis van W als B een basis is, en als verzameling orthogonaal is. B heet een
orthonormale basis van W als B een basis is, en als verzameling orthonormaal is.
Het is duidelijk dat een orthonormale basis voor W ook een orthogonale basis voor W is. Via
normeren kan vanuit een orthogonale basis een orthonormale basis worden geconstrueerd.
2 −2 −4
3 1 −6
Voorbeeld 14.11. De drie vectoren v1 = −1 , v2 = −1 en v3 = 2 zijn orthogo-
4 0 7
naal, want v1 · v2 = 0, v1 · v3 = 0 en v2 · v3 = 0. Daarom geldt dat de verzameling {v1 , v2 , v3 }
14.2. Orthogonale verzamelingen en orthogonale bases 127
We weten allen dat als B = {b1 , . . . , bk } een basis is voor W en b ∈ W is gegeven, dan bestaan er
unieke c1 , . . . , ck ∈ R zodat
b = c 1 b1 + · · · + c k bk
De scalairen c1 , . . . , ck zijn te bepalen door het stelsel [b1 . . . bk |b] op te lossen. Als de basis
orthogonaal is kan dit sneller.
STELLING 14.12. Stel dat W een lineaire deelruimte is van Rn met basis B = {b1 , . . . , bk }
en x ∈ W is gegeven.
1. Als B een orthogonale basis is voor W , dan geldt:
x · b1 x · bk
x= b1 + · · · + bk .
b1 · b1 bk · bk
x = (x · b1 )b1 + · · · + (x · bk )bk .
Opmerking: 1.Herkent u de formule in stelling 14.12? Die bent u in stelling 1.5 van college
1 tegen gekomen, maar dan in R3 . Als die formule ook waar is in Rn (en dat is die, zie college
15) dan zien we in deze stelling staan: “de componenten van een vector x in de richting van de
basisvectoren zijn te vinden door x loodrecht op iedere basisvector bi te projecteren, mits de basis
orthogonaal is”!
2. Stelling 14.12 laat het eerste voordeel zien dat we hebben als we voor een gegeven deelruimte W
een orthogonale basis B tot onze beschikking hebben. Er zijn nog andere voordelen die we zullen
tegenkomen. De volgende stelling zullen we in college 16 bewijzen.
STELLING 14.13. Stel dat W een lineaire deelruimte is van Rn . Dan bestaat er een ortho-
gonale basis B van W .
128 College 14, Orthogonaliteit in Rn .
College 15, Orthogonale matrices
en orthogonaal complement.
AT A
Bewijs: Het (i, j)de element van AT A is het matrixproduct van de ide rij van AT en de j de kolom
van A, is dus aTi aj = ai · aj .
Bewijs: Triviaal.
Matrices met orthonormale kolommen zijn belangrijk in toepassingen en ook in computer algorit-
129
130 College 15, Orthogonale matrices en orthogonaal complement.
Definitie: Een matrix Q heet een orthogonale matrix als deze matrix Q vierkant is (zeg
n × n) en als de kolommen van Q een orthonormale verzameling vectoren in Rn is.
√3 −1
√ −1
√
11 6 66
w1 = √1
, w2 = √2
, w3 =
−4
√
11 6 66
√1 √1 √7
11 6 66
hebben we in Voorbeeld 14.8 laten zien dat deze orthonormaal zijn. Dus is de matrix
√3 −1
√ −1
√
11 6 66
Q= √1 √2 −4
√
11 6 66
√1 √1 √7
11 6 66
een orthogonale matrix. Omdat volgens Stelling 15.3 geldt: QT Q = I3 en omdat Q vierkant is,
zal gelden:
√3 √1 √1
11 11 11
−1 √2 √1
Q−1 = QT =
√
6 6 6 !!
−1
√ −4
√ √7
66 66 66
Verrasend, nietwaar? △
15.1. Orthogonale matrices 131
STELLING 15.5. Laat Q een vierkante matrix zijn. De volgende uitspraken zijn equivalent:
Bewijs: 1.⇔2. Triviaal. Dit is de definitie (want gegeven is dat Q vierkant is).
2.⇔3. Triviaal. Dit is Stelling 15.3.
3.⇔4. Als QT Q = I en Q is vierkant, dan volgt QT = Q−1 en vice versa.
4.⇔5. Idem.
5.⇔6. QQT = I ⇔ (QT )T QT = I en volgens Stelling 15.3 is dit equivalent met de kolommen van
QT zijn orthogonaal. Equivalent, de rijen van Q zijn orthogonaal.
6.⇔7. Dit is de definitie (ook QT is vierkant).
Opmerking: Om na te gaan of een gegeven matrix orthogonaal is, is de definitie (de kolommen
zijn orthonormaal) redelijk bruikbaar. Echter in theoretische beschouwingen is de karakterisering
“Q is orthonormaal als en slechts als Q−1 = QT ”veel handiger. Hoe zou je kunnen nagaan dat het
product van twee orthogonale matrices weer orthogonaal is?
De lineaire afbeeldingen waarvan de standaardmatrix een orthogonale matrix is vertonen een heel
mooi gedrag, zoa;ls de volgende stelling laat zien.
Bewijs: 1.⇒3. Stel dat A orthogonaal is. Dan geldt AT A = I en dus: hT (x), T (y)i = hAx, Ayi =
(Ax)T (Ay) = xT AT Ay = xT y = hx, yi.
3.⇒2. Als geldt: hT (x), T (y)i = hx, yi, voor alle x, y ∈ Rn dan kunnen we deze uitspraak
beperken tot de situatie y = x. We verkrijgen zo: hT (x), T (x)i = hx, xi, voor alle x ∈ Rn en dus
kT (x)k2 = kxk2 , voor alle x ∈ Rn . De conclusie volgt.
2.⇒1. (Dit is het lastige deel van dit bewijs!) Stel dat kT (x)k = kxk, voor alle x ∈ Rn en bekijk
de standaardmatrix A = [a1 . . . an ] met ai =√T (ei ). Dan: kai k = kT (ei )k = kei k = 1 voor i√=
1, . . . , n. Fixeer nu i 6= j. Omdat kei + ej k = 2 geldt: kai + aj k = kT (ei + ej )k = kei + ej k = 2
132 College 15, Orthogonale matrices en orthogonaal complement.
LEMMA 15.7. Laat W = Span{w1 , . . . , wk } een lineaire deelruimte van Rn zijn en fixeer
v ∈ Rn . Equivalent zijn:
1. v⊥W .
2. v · wi = 0, voor i = 1, . . . , k.
Bewijs: 1.⇒2. Als v⊥W , dan v⊥w, voor alle w ∈ W . In het bijzonder: v⊥wi = 0, voor
i = 1, . . . , k.
2.⇒1. Stel dat v · wi = 0, voor i = 1, . . . , k. Als w ∈ W , zeg w = c1 w1 + · · · + wk , dan
v · w = v · (c1 w1 + · · · + wk ) = v · c1 w1 + · · · + v · ck wk = 0, dus v⊥w.
Definitie: Laat W een lineaire deelruimte van Rn zijn. De verzameling van alle vectoren
orthogonaal met W heet het orthogonaal complement van W en wordt genoteerd met
W ⊥.
Dus
W ⊥ = {v ∈ Rn : v · w = 0 voor alle w ∈ W }
STELLING 15.8. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:
Bewijs: 1. Ga na.
2. Als w ∈ W ∩ W ⊥ , dan w⊥w en dus w · w = 0 ⇒ kwk2 = 0 ⇒ w = 0.
3. Dit is nog vrij lastig om te bewijzen. Het bewijs staat in de volgende paragraaf maar het
wordt niet op college getoond.
Dus ook het bepalen van een basis van W ⊥ komt neer op het bepalen van een basis van òf een
kolomruimte òf een nulruimte. En dit worden we geacht te beheersen.
GEVOLG 15.10. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:
dim(W ) + dim(W ⊥ ) = n
Bewijs: Stel dat W = Col(A), voor een n × k matrix A. Dan geldt: dim(W ) = dim(Col(A)) =
rang(A) = rang(AT ) = dim(Col(AT )). De uitspraak: dim(W ) + dim(W ⊥ ) = n is dus equivalent
met dim(Col(AT )) + dim(Nul(AT )) = n voor de k × n matrix AT . Deze uitspraak is de ons
bekende “rangstelling”voor de matrix AT . Tenslotte, de uitspraak dim(W ) + dim(W ⊥ ) = n is ook
equivalent met de uitspraak (W ⊥ )⊥ = W uit Stelling 15.8. We besparen u de details.
134 College 15, Orthogonale matrices en orthogonaal complement.
1 0 2
1 1 3
Voorbeeld 15.11. Beschouw de vectoren v1 = 2 , v2 = −2 en v3 = 2 en bepaal
1 1 3
een basis van het orthogonaal complement van W = Span{v , v ,
1 2 3 v }.
1 0 2
1 1 3 ⊥ T
Antwoord: Het is duidelijk dat W = Col(A) met A = 2 −2 2 . Dus W = Nul(A ) en
1 1 3
T
daarom gaan we het stelsel [A |0] oplossen. Enig rekenwerk laat zien dat:
1 1 2 1 | 0 1 0 4 0 | 0
[AT |0] = 0 1 −2 1 | 0 ∼ 0 1 −2 1 | 0
2 3 2 3 | 0 0 0 0 0 | 0
−4x3 −4 0
−4 0
2x3 − x4 2 −1 −1
2
Daarom: x = = x3
+ x4 en dus zal B = , een
x3 1 0
1 0
x4 0 1 0 1
basis zijn van W ⊥ . (Merk op dat iedere basis vector orthogonaal is met iedere vi , voor i = 1, 2, 3.)
△
Opmerking: Bij het vorige voorbeeld kan het rekenwerk ietwat bepertkt worden. Omdat er
geldt: v3 = −2v1 + v2 , geldt dat: {v1 , v2 } ook W opspannen; {v1 , v2 } is een basis voor Col(A) =
W en als we schrijven: B = [v1 v2 ], dan geldt weer: W = Col(B). Daarom geldt: W ⊥ = Nul(B T )
en oplossen van het stelsel [B T |0] levert:
1 1 2 1 | 0 1 0 4 0 | 0
[B T |0] = ∼
0 1 −2 1 | 0 0 1 −2 1 | 0
2 1 3 0 0 0
1 2
1 2
We concluderen dat als v1 = 2 en v2 = 1 , dat dan {v1 , v2 } een basis vormen voor
2 1
Col(AT ) = W ⊥ . △
15.3. De orthogonale decompositiestelling 135
STELLING 15.13. (De Orthogonale Decompositie Stelling) Laat W een lineaire deel-
ruimte van Rn zijn en stel v ∈ Rn . Dan bestaan er unieke vectoren w ∈ W en w♯ ∈ W ⊥
met
v = w + w♯
Als we kunnen aantonen dat v − w ∈ W ⊥ dan nemen we w♯ = v − w en is het bestaan van zulke
w en w♯ aangetoond.
Om aan te tonen dat v − w ∈ W ⊥ is het voldoende aan te tonen dat: v − w⊥bi , voor i = 1, . . . , k
(want W = Span{b1 , . . . , bk }). Aldus:
b1 · v bi · v bk · v
(v − w) · bi = v − b1 − · · · − bi − · · · − bk · bi =
b1 · b1 bi · bi bk · bk
b1 · v bi · v bk · v
v · bi − (b1 · bi ) · · · − (bi · bi ) · · · − (bk · bi ) =
b1 · b1 bi · bi bk · bk
= v · bi − 0 − · · · − v · bi − · · · − 0 = 0 voor i = 1, . . . , k.
De conclusie volgt. (Vraag: ziet u waar in het bewijs de orthogonaliteit van de basis wordt
gebruikt?)
STELLING 15.14. Stel dat B = {b1 , . . . , bk } een orthogonale basis is van W . Dan geldt:
b1 · v bk · v
projW (v) = b1 + · · · + bk
b1 · b1 bk · bk
Bewijs: De formule voor projW (v) is terug te vinden in het bewijs van de decompositiestelling.
Wat betreft de spiegeling: omdat v = w + w♯ volgt w♯ = v − projW (v). Dus SW (v) = w − w♯ =
projW (v) − (v − projW (v)) = 2 projW (v) − v.
Een direct gevolg van de decompositiestelling is de volgende stelling, een stelling die we al eerder
gezien hebben, maar het bewijs nog niet. Als u geı̈nteresseerd bent:
STELLING 15.15. Laat W een lineaire deelruimte van Rn zijn. Dan geldt:
(W ⊥ )⊥ = W
15.3. De orthogonale decompositiestelling 137
w1 = w + w ♯
w1 = w1 + 0 met w1 ∈ (W ⊥ )⊥ en 0 ∈ W ⊥
en
w1 = w♯ + w met w♯ ∈ W ⊥ en w ∈ W ⊂ (W ⊥ )⊥
Dit is een tegenspraak, en de oorzaak hiervan is de aanname dat W 6= (W ⊥ )⊥ .
Kortom: W = (W ⊥ )⊥ .
GEVOLG 15.16. Laat W een lineaire deelruimte van Rn zijn en stel v ∈ Rn . Als w ∈ W
en w♯ ∈ W ⊥ de unieke vectoren met v = w + w♯ , dan geldt:
projW ⊥ (v) = w♯
138 College 15, Orthogonale matrices en orthogonaal complement.
College 16, Projectie matrices, het
Gram–Schmidt proces.
Evenzo is de spiegeling van een vector x t.o.v een deelruimte W ⊂ Rn gedefiniëerd. Deze werd
genoteerd met SW (x) en SW beschouwen we als een afbeelding SW : Rn → Rn . We hebben
ingezien dat
SW (x) = 2 projW (x) − x
Een voor de hand liggende vraag wordt nu: de afbeeldingen projW : Rn → Rn en de spiegeling SW :
Rn → Rn zijn dat lineaire afbeeldingen? De formules geven in eerste instantie geen uitsluitesel.
Daarom eerst het volgende lemma, om de formule van de projectie te ontrafelen.
Bewijs: Hier staat kolom rijexpansie van het product AAT beschreven.
139
140 College 16, Projectie matrices, het Gram–Schmidt proces.
projW : Rn → Rn
[projW ] = QQT .
xc
= q1 (qT1 x) + · · · + qk (qTk x) = (q1 qT1 )x + · · · + (qk qTk )x = (q1 qT1 + · · · + qk qTk )x = (QQT )x
en dit wilde we aantonen. Projectie is kennelijk een matrixtransformatie en dus een lineaire
afbeelding.
Opmerking: De matrix [projW ] wordt een projectiematrix genoemd. Een gevolg van boven-
staande stelling is dat de uitkomst [projW ] = QQT onafhankelijk is van de gekozen orthonormale
basis!
Evenzo:
[SW ] = 2[projW ] − I.
1 1 2
Construeer een orthogonale basis {w1 , w2 , w3 } voor W .
Antwoord:
Het is eenvoudig na te gaan dat de verzameling {b1 , b2 , b3 } lineair onafhankelijk is, en dus is
{b1 , b2 , b3 } een basis voor W , echter, deze basis is NIET orthogonaal.
Als w1 nemen we weer b1 .
Als w2 nemen we de component van b2 orthogonaal met b1 = w1 . Handig als we zijn schrijven
we eerst w2′ , dus:
2 1 3/2
w 1 · b2 1 2 −1 3/2
w2′ = b2 − projw1 (b2 ) = b2 − w1 =
0 − 4 −1 = 1/2
w1 · w1
1 1 1/2
Nu zien we waar het handigheidje voor was: om de breuken in w2′ weg te werken. Dus:
3
3
w2 = 2w2′ = 1 .
Merk op dat Span{b1 , b2 } = Span{w1 , w2 }. Ook is {w1 , w2 } een orthogonale basis voor Span{b1 , b2 }.
Als w3 nemen we de component van b3 orthogonaal met Span{b1 , b2 }. Deze kunnen we bere-
kenen, want we hebben een orthogonale basis voor Span{b1 , b2 } tot onze beschikking, namelijk
{w1 , w2 }! Handig als we zijn schrijven we eerst w3′ , dus:
w 1 · b3 w 2 · b3
w3′ = b3 − projSpan{b1 ,b2 } (b3 ) = b3 − w1 − w2 =
w1 · w1 w2 · w2
142 College 16, Projectie matrices, het Gram–Schmidt proces.
2 1 3 −1/2
2 1 −1 15 3 0
1 − 4 −1 − 20
=
1 1/2
2 1 1 1
−1
0
Een schaling levert w3 =
1 . Nu is {w1 , w2 , w3 } een orthogonale basis voor W . (Indien
2
gewenst kan men deze normeren en een orthonormale basis verkrijgen.) △
Het hier boven beschreven proces om vanuit een gegeven basis {b1 , . . . , bk } van W stap voor stap
de orthogonale verzameling {w1 , . . . , wk } te bouwen heet: het Gram-Schmidt proces. Dit
proces gaat in Cn op dezelfde manier.
Het Gram-Schmidt proces verloopt op de volgende manier:
De projectie projSpan{b1 ,...,bℓ } (bℓ+1 ) is te bepalen, want bij de vorige stap is juist de orthogonale
basis {w1 , . . . , wℓ } voor Span{b1 , . . . , bℓ } geconstrueerd. Dus:
w1 · bℓ+1 wℓ · bℓ+1
wℓ+1 = bℓ+1 − w1 − · · · − wℓ
w1 · w1 wℓ · wℓ
Dit gaat voort totdat wk geconstrueerd is, en dan is de orthogonale basis {w1 , . . . , wk } van W
verkregen. U heeft het orthogonaliserings proces van Gram4 -Schmidt5 aanschouwd.
4 Jorgen Gram (1850-1916) gaf les aan de universiteit van Kopenhagen en was tevens managing director van een
verzekeringsmaatschappij. In 1874 publiceerde hij het artikel Sur quelques théorèmes fondamentaux de l’algèbre
moderne in Mathematische Annalen over lineaire algebra.
5 Erhard Schmidt (1876-1959) promoveerde onder leiding van Hilbert aan de universiteit van Göttingen. Hij
was één van de grondleggers van de huidige functionaalanalyse en heeft veel onderzoek gedaan aan zogeheten
Hilbertruimten. Zijn naam is verbonden aan het Gram-Schmidt orthogonaliseringsproces, ook al was dit proces al
eerder gebruikt door Cauchy in 1836.
16.2. Het Gram-Schmidt Proces 143
STELLING 16.6. Het Gram-Schmidt Process. Stel dat {v1 , . . . , vk } een basis is voor
de deelruimte W van Rn . Definieer:
w1 = v1 ,
w1 ·v2
w2 = v2 − w 1 ·w1
w1 ,
w1 ·v3 w2 ·v3
w3 = v3 − w1 ·w1 w1 − w 2 ·w2
w2 ,
..
.
wk = vk − ww1 ·vk
1 ·w1
w1 − . . . − ww k−1 ·vk
k−1 ·wk−1
wk−1 .
Dan geldt voor iedere ℓ = 1, . . . , k dat:
1. Span{v1 , . . . , vℓ } = Span{w1 , . . . , wℓ } = Wℓ ,
2. {w1 , . . . , wℓ } is orthogonale basis Wℓ ,
3. wℓ is de orthogonale projectie van vℓ op Wℓ−1 (ℓ ≥ 2).
In het bijzonder geldt: {w1 , . . . , wk } is een orthogonale basis voor Wk = W .
144 College 16, Projectie matrices, het Gram–Schmidt proces.
College 17, Kleinste kwadraten
benadering.
STELLING 17.1. Laat W een lineaire deelruimte van Rn zijn en stel x ∈ Rn . Dan geldt:
projW (x) is het (unieke) punt in W met de kleinste afstand d(projW (x), x) tot x.
u=x−w x
w = projW (x)
w1
v = w1 − w
Bekijk daartoe u = x − w = w♯ ∈ W ⊥ en v = w1 − w ∈ W . Merk op:
u⊥v
145
146 College 17, Kleinste kwadraten benadering.
Als we stellen:
Definitie: De afstand van een vector x tot een deelruimte x wordt gedefinieerd door
d(x, W ) = {minimumkx − wk : w ∈ W }
STELLING 17.2. Als W een deelruimte van Rn en x ∈ Rn dan d(x, W ) = kx−projW (x)k =
k projW ⊥ (x)k.
Als x ∈ Rn alle waarden doorloopt, doorloopt Ax alle waarden in Col(A). En dus vertelt Stel-
ling 17.1 ons dat we eigenlijk de vergelijking
Ax = projCol(A) (b)
aan het oplossen zijn. Deze vergelijking is zeker consistent want projCol(A) (b) ∈ Col(A), d.w.z. er
bestaan zeker x ∈ Rn zodat kAx − bk minimaal is.
Tenslotte, omdat kAx − bk een (wortel van een) som van kwadraten is, heet de gevonden x de
kleinste kwadraten benadering van het stelsel Ax = b. Vaak wordt het zelfs de kleinste
kwadraten oplossing van het stelsel Ax = b genoemd. (En dat terwijl als Ax = b inconsistent is,
er helemaal geen oplossing zijn zal!) We merken hier ook op dat als Ax = b wel consistent is, dan
zal de kleinste kwadraten oplossing echt een oplossing zijn van het stelsel Ax = b.
Tenslotte, als x0 de kleinste kwadraten benadering van het stelsel Ax = b is, dan heet kAx0 − bk
de kleinste kwadratenfout van de benadering of het residue.
De Normaalvergelijkingen
Om de kleinste kwadraten oplossing van het stelsel Ax = b te bepalen lijkt de volgende methode
voor de hand te liggen: “bepaal eerst de projectie
projCol(A) (b)
17.2. De Kleinste Kwadraat Oplossing van een Stelsel Ax = b 147
Het stelsel
AT Ax = AT b
heet de normaal vergelijking van het stelsel Ax = b. Ongeacht de consistentie van het stelsel
Ax = b zal het normale stelsel AT Ax = AT b consistent zijn!
Voorbeeld 17.4. Bepaal de kleinste kwadraten benadering van het inconsistente stelsel Ax = b
met:
4 0 2
A = 0 2 en b = 0 .
1 1 11
Bepaal tevens de kleinste kwadratenfout.
Oplossing.
4 0
T 4 0 1 17 1
A A= 0 2 = .
0 2 1 1 5
1 1
2
4 0 1 19
AT b = 0 = .
0 2 1 11
11
De normaalvergelijking AT Ax = AT b wordt:
17 1 x1 19
=
1 5 x2 11
Omdat:
4 0 2 4 2 2
1
Ax − b = 0 2 − 0 = 4 − 0 = 4
2
1 1 11 3 11 −8
p √
wordt de kleinste kwadratenfout : kAx − bk = 22 + 42 + (−8)2 = 84.
Waarschuwing Vegen van het stelsel Ax = b heeft geen invloed op de oplossingen van het stelsel.
Het heeft echter wel invloed op de kleinste kwadraten benadering! Conclusie: als een stelsel [ A | b ]
geveegd wordt tot de echelonvorm [ E | c] om te zien of dit stelsel consistent is, en dit stelsel blijkt
inconsistent te zijn, ga dan om de kleinste kwadraten benadering te vinden de normal vergelijkingen
AT Ax = AT b oplossen en niet E T Ex = E T c.
Uniciteit kleinste kwadraten oplossing
Wanneer is de kleinste kwadraten benadering van het stelsel Ax = b uniek? We weten dat
een consistent stelsel Cx = d een unieke oplossing heeft als en slechts als de kolommen van C
onafhankelijk zijn. Omdat de kleinste kwadraten benadering van het stelsel Ax = b eigenlijk de
oplossing is van het consistente stelsel:
Ax = projCol(A) (b)
Maar omdat de kleinste kwadraten benadering van het stelsel Ax = b ook de oplossing is van het
consistente stelsel:
AT Ax = AT b
is, kunnen we ook concluderen dat:
En we verkrijgen:
STELLING 17.9. Laat A een matrix zijn met onafhankelijke kolommen en beschouw het
stelsel Ax = b. Dan is er een unieke kleinste kwadraten benadering van dit stelsel, gegeven
door:
x = (AT A)−1 AT b
Waarschuwing: Gebruik de formule x = (AT A)−1 AT b nooit. Het oplossen van de normaal
vergelijking AT Ax = AT b is minder werk dan het bepalen van (AT A)−1 !
x = (AT A)−1 AT b
Omdat dit eigenlijk de oplossing is van het stelsel Ax = projCol(A) (b) kunnen we concluderen:
STELLING 17.10. Zij W een lineaire deelruimte van Rn . Stel dat {a1 , · · · , ak } een basis
is voor W en definiëer de n × k matrix A = [a1 , · · · , ak ]. Dan geldt: de standaardmatrix van
de orthogonale projectie op W gelijk is aan:
Bewijs: Het is duidelijk dat W = Col(A). Volgens wat hierboven staat is:
en wel voor iedere b ∈ Rn . Maar dan is de projectiematrix kennelijk: [projW ] = A(AT A)−1 AT .
Wat als de kolommen van A niet onafhankelijk zijn? Dan zijn er meerdere kleinste kwadraten
benaderingen, maar ieder van die benaderingen is een oplossing van het stelsel Ax = projCol(A) (b).
Dus al die kleinste kwadraat oplossingen zullen dezelfde Ax leveren, die gelijk is aan projCol(A) (b).
Controleer dit maar bij voorbeeld 17.5
Concluderend kunnen we nu zeggen dat we twee methoden hebben om de projectiematrix [projW ]
te bepalen, voor een gegeven deelruimte W . In beide gevallen is een basis B = {a1 , . . . , ak } van
W nodig (dus die moet U kunnen bepalen).
Methode 1. Via het Gram-Schmidt proces een orthogonale basis bepalen en deze normeren. Zo
is een orthonormale basis {q1 , . . . , qk } verkregen van W . Als Q = [q1 . . . qk ] dan geldt: [projW ] =
QQT .
Methode 2. Bekijk de matrix A = [a1 . . . ak ]. Dan geldt [projW ] = A(AT A)−1 AT .
Opgaven ter Lehring ende
Vermaeck
151
152 Opgaven ter Lehring ende Vermaeck
Opgaven ter Lehring ende Vermaeck 153
3. (a) Schrijf het lineaire stelsel op dat bij de volgende aangevulde matrix hoort.
1 1 1 1 2
2 −1 −1 −2 1
1 3 −2 11 −4
(b) Geef de aangevulde matrix van het volgende lineaire stelsel in de variabelen x1 , x2 , x3 .
2x1 + x2 − x3 = 8
x1 + 8x2 + 5x3 = 0
(c) Geef de aangevulde matrix van het volgende lineaire stelsel in de variabelen x1 , x2 , x3 en x4 .
2x1 + x2 − x3 = 8
x1 + 8x2 + 5x3 = 0
(d) Vind u bovenstaande vraag flauw of kinderachtig? Bekijk dan het volgende voorbeeld.
(i) Wat is de vergelijking van het vlak (in de ruimte) door (1, 1, 0) en (0, 2, 0) loodrecht op
het x, y-vlak?
(ii) Wat is de vergelijking van het vlak door (4, 0, 0) en (2, 1, 0), loodrecht op het x, y-vlak?
(iii) Aan welk stelsel voldoen de punten (x, y, z) die op beide vlakken liggen?
(iv ) Wat is de overeenkomst van dit stelsel met het stelsel uit opgave 3c?
(e) Bovenstaande in beschouwing nemend, is het dan begrijpelijk dat de aangevulde matrix notatie
de voorkeur heeft boven die van het stelsel? Wat is die reden dan? (En niet “een kortere
notatie” noemen.)
4. Los de
volgende stelsels op door de aangevulde matrix te vegen naar driehoeksvorm:
x1 + x2 + 3x3 = 25
(a) 2x1 − x2 + 4x3 = 55
− x2 + x3 = 15
1x − 3x3 = 8
(b) 2x1 + 2x2 + 9x3 = 7
x2 + 5x3 = −2
x1 − 3x2 + 4x3 = −4
(c) 3x1 − 7x2 + 8x3 = −8
−4x1 + 6x2 − 2x3 = 6
x1 − 3x2 = 10
(d) −x1 + x2 + 5x3 = 2
2x2 + x3 = 0
154 Opgaven ter Lehring ende Vermaeck
5. We weten: drie vergelijkingen met drie onbekenden oplossen is i.h.a. het bepalen van de gemeen-
schappelijke punten van de drie vlakken die bij de drie vergelijkingen horen.
(a) Teken drie vlakken in de ruimte zodat de oplossing van het overeenkomstige stelsel een lijn is.
(b) Teken drie vlakken in de ruimte zodat het overeenkomstige stelsel inconsistent is.
(c) Teken drie vlakken in de ruimte zodat het overeenkomstige stelsel één oplossing heeft.
(d) Bestaan er drie vlakken in de ruimte zodat het overeenkomstige stelsel een vlak tot oplossing
heeft?
1 1 2
6. Beschouw de drie vectoren v1 = −1 , v2 = 1 en v3 = 0 in R3 .
2 −1 1
1
(a) Ga na of de vector b = −3 een lineaire combinatie is van v1 , v2 , v3 .
5
(b) Ga na of de vector v1 een lineaire combinatie is van v1 , v2 , v3 .
(c) Ga na of de vector v1 een lineaire combinatie is van v2 , v3 .
(d) Bestaat er een vector u ∈ R3 die geen lineaire combinatie is van v1 , v2 , v3 ?
7. (a) De ongelijkheid van Cauchy–Schwarz is een bron voor vele ongelijkheden. Bijvoorbeeld:
(b) Toon aan: Er geldt gelijkheid bij de ongelijkheid van Cauchy-Schwarz als en slechts als u en
v scalair veelvoud van elkaar zijn.
(c) Toon via geschikt gekozen u, v ∈ R2 en via Cauchy–Schwarz dat geldt voor a, b > 0:
√ a+b
ab ≤
2
(Hier staat: het meetkundig gemiddelde
√ van a, b is kleiner of gelijk aan het rekenkundig
a
gemiddelde.) (Hint: neem u = √ .) Ga ook na onder welke voorwaarden er gelijkheid
b
geldt.
(d) Toon de volgende ongelijkheid aan en ga na wanneer er gelijkheid is:
√ p
|a + b + c| ≤ 3 a2 + b2 + c2 , (a, b, c ∈ R).
0 0 0 0 0 0 0 0
1 1 0 1 1 1 0 0
0 0 1 0 0 1 1 0
(b) B1 = 0 0 0 0 en B2 = 0 0 1 1
0 0 0 0 0 0 0 1
om aan te tonen: “de matrices A en B zijn rijequivalent (d.w.z. zijn naar elkaar te vegen) als en
slechts als A en B dezelfde gereduceerde echelonvorm hebben”.
4. Voor ieder
van de volgende matrices
A1 en
A2 waarbij:
1 3 1 3 1 3 −1 1
A1 = −8 −24 −5 −21 en A2 = −1 −3 2 0 :
3 9 1 7 0 0 −1 −1
(a) Veeg Ai naar gereduceerde echelon vorm
(b) Wijs de pivotkolommen en de pivotposities van Ai aan op de gebruikelijke manier.
(c) Ga na of de twee matrices rijequivalent zijn en zo ja, leg uit hoe deze naar elkaar te vegen zijn.
6. Ga na
welke van de volgende stelsels consistent zijn.
x2 + 5x3 = −4
(a) x1 + 4x2 + 3x3 = −2
2x1 + 7x2 + x3 = −1
156 Opgaven ter Lehring ende Vermaeck
3x1 + 2x2 + x3 = 1
(b) 5x1 + 3x2 + 3x3 = 2
x1 + x2 − x3 = 1
7. Ga na of de volgende stelsels consistent zijn. Zo ja, los de stelsels op en schrijf het antwoord in
vectorparametervorm.
3x1 + 2x2 + x3 = 1
5x1 + 3x2 + 3x3 = 2
(a)
7x1 + 4x2 + 5x3 = 3
x + x2 − x3 = 0
1
3x1 − 2x2 + 5x3 + x4 = 1
(b) x1 + x2 − 3x3 + 2x4 = 2
6x1 + x2 − 4x3 + 3x4 = 7
x1 + x2 − 3x3 + x4 = 5
(c) 2x1 − x2 + x3 − 2x4 = 2
7x1 + x2 − 7x3 + 3x4 = 3
x1 + x2 + 2x3 + 3x4 + 4x5 = 0
(d) 2x1 + 2x2 + 7x3 + 11x4 + 14x5 = 0
3x1 + 3x2 + 6x3 + 10x4 + 15x5 = 0
x1 − 2x2 + x3 + 2x4 = −2
2x1 + 3x2 − x3 − 5x4 = 9
(e)
4x1 − x2 + x3 − x4 = 5
5x1 − 3x2 + 2x3 + x4 = 3
x1 − x2 = b1
8. Een stelsel wordt gegeven door −x1 + 3x2 − 2x3 = b2
x1 + 3x2 − 4x3 = b3
(a) Los het stelsel op als de termen bi respectievelijk 1, −1 en 1 zijn.
(b) Dezelfde vraag maar nu met 0, 0 en 0.
(c) Waar moeten b1 , b2 en b3 aan voldoen opdat het stelsel consistent is?
(a) Geef alle waarden van α en β waarvoor dit stelsel geen oplossingen heeft.
(b) Geef alle waarden van α en β waarvoor dit stelsel oneindig veel oplossingen heeft.
(c) Geef alle waarden van α en β waarvoor dit stelsel precies één oplossing heeft.
(a) (i) Voor welke waarden van α en β heeft het stelsel géén oplossingen?
(ii) Voor welke waarden van α en β heeft het stelsel oneindig veel oplossingen?
(iii) Voor welke waarden van α en β heeft het stelsel precies één oplossing?
(b) Los het stelsel op voor α = 2 en β = 2.
Opgaven ter Lehring ende Vermaeck 157
3. Gegeven zijn twee stelsels met dezelfde coëfficientenmatrix met een gegeven particuliere oplossing:
1 2 3 6 1 1 2 3 0 −1
4 5 6 15 met xp = 1 en 4 5 6 −3 met xp = −1
7 8 9 24 1 7 8 9 −6 1
Los beide stelsels op door de bijbehorende homogene vergelijking op te lossen.
4. Stel dat de matrixvergelijking Ax = b een unieke oplossing heeft. Wat kunt u zeggen over de
oplossingsverzameling van de vergelijking Ax = b1 , als b1 6= b?
5. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom):
(a) Een lineair stelsel vergelijkingen met minder vergelijkingen dan onbekenden heeft oneindig
veel oplossingen.
(b) Een consistent lineair stelsel vergelijkingen met minder vergelijkingen dan onbekenden heeft
oneindig veel oplossingen.
(c) Laat A een matrix zijn. Als het stelsel Ax = 0 slechts de triviale oplossing heeft, dan heeft
het stelsel Ax = b voor iedere b ∈ Rn een unieke oplossing.
(d) Laat A een vierkante matrix zijn. Als het stelsel Ax = 0 slechts de triviale oplossing heeft
(dat is x = 0), dan heeft het stelsel Ax = b voor iedere b ∈ Rn een unieke oplossing.
(e) De som van twee oplossingen van een lineair stelsel vergelijkingen is ook een oplossing van dit
stelsel.
(f) De som van twee oplossingen van een homogeen lineair stelsel vergelijkingen is ook een oplos-
sing van dit stelsel.
(g) Een scalair veelvoud van een oplossing van een homogeen lineair stelsel vergelijkingen is ook
een oplossing van dit stelsel.
10. Ga na of de volgende stelsels vectoren in R3 de ruimte R3 opspannen. Zo niet, geef een vector die
niet in de
opspanning
zit.
1 1 1
(a) u1 = 1 , u2 = 0 , u3 = 3 .
1 2 −1
1 1 1
(b) u1 = 1 , u2 = 0 , u3 = 3 .
1 2 1
1 1
(c) u1 = 1 , u2 = 0 .
1 3
11. Bepaal bij de volgende vectoren alle waarden van de parameter h zodat de gegeven vectoren de
ruimte Rnwaarinze zitten
opspannen.
1 3 −1
(a) u1 = −1 , u2 = −5 , u3 = 5 .
4 7 h
1 1 1 1
1 1 2 1
(b) v1 = 1 , v2 = 2 , v3 = 1 en v4 = 1 .
2 1 1 h
√ 1 1 1
, w2 = 22 en w3 = 1 .
h
(c) w1 =
2 h 1
1 1 h
Opgaven ter Lehring ende Vermaeck 159
1 1 2 0
(d) z1 = 2 , z2 = 1 , z3 = 5 en z4 = h .
1 1 2 0
160 Opgaven ter Lehring ende Vermaeck
Opgaven college 4
1. Toon aan: als het stelsel {v1 , . . . , vk } de nulvector bevat, dan is dit stelsel afhankelijk.
2. Toon aan: een stelsel v1 , v2 van twee vectoren is afhankelijk als en slechts als één van de twee
vectoren een scalair-veelvoud is van de ander.
5. Bepaal van elk van de volgende stellen vectoren of deze afhankelijk of onafhankelijk zijn. Probeer
het eerst via “inspectie” in te zien (d.w.z. uit het hoofd). Leg in die gevallen wel uit hoe je tot het
antwoord
gekomen
bent.
2 1
(a) −1 , 4
3 4
0 2 2
(b) 1 , 1 , 0
2 3 1
3 0 5 1
1 0 −1 1
(c) 1 , 0 , −5 , 2
2 0 −6 3
2 3 1
(d) 2 , 1 , −5
1 2 2
3 5 4 −1
(e) 2 , 3 , 3 , 0
4 6 6 2
−1 −1 1 0
−1 1 0 1
(f) 1 , 0 , 1 , −1
0 1 −1 1
7. Laat
1 2
3 0 4 −2 1
A= , B= , C = 3 4 ,
−1 5 0 2 3
5 6
Bereken, indien mogelijk, de volgende matrices:
(a) A + 2C (b) 2A − 4I2 (c) B − C
(d) B − 2C T (e) B T − 2C (f) A + AT
Wat valt u op aan de antwoorden van (d) en (e)? Geef een verklaring hiervan. Wat valt u op aan
de matrix in antwoord (f)? (Voor een verklaring: zie opgave 8c.)
8. (a) Bewijs dat de som van twee symmetrische n × n matrices weer symmetrisch is.
(b) Waar of niet: als A symmetrisch is dan is cA ook symmetrisch (met c ∈ R)?
(c) Toon aan: als A een vierkante matrix is dan is de matrix A + AT ook symmetrisch.
(d) Wat geldt voor A + AT als A geen vierkante matrix is?
10. (a) Bewijs dat iedere vierkante matrix te schrijven is als de som van een symmetrische en een
scheefsymmetrische matrix. (Hint: gebruik opgave 8c en 9e).
(b) Bepaal alle n × n matrices die zowel symmetrisch als scheefsymmetrisch zijn.
(c) Bewijs dat iedere matrix op unieke manier te schrijven is als de som van een symmetrische en
een scheefsymmetrische matrix.
(Hint: als A = B1 + C1 = B2 + C2 met Bi symmetrisch en Ci scheefsymmetrisch, bekijk dan
B1 − B2 en C2 − C1 .)
162 Opgaven ter Lehring ende Vermaeck
Opgaven college 5
1. Laat
1 2
3 0 4 −2 1 0 −3
A= , B= , C = 3 4 , D= ,
−1 5 0 2 3 −2 1
5 6
−1
E= 4 2 , F =
2
Bereken, indien mogelijk, de volgende matrices:
(a) AB (b) BD (c) BC (d) B T B
(e) F E (f) EF (g) DA − AD (h) A3
2. Voor het handmatig berekenen van een matrixproduct, gebruik je meestal de definitie. Soms is
(vanwege de eenvoud van één van de matrices) één van de andere visies (de kolom- of de rij-visie)
handiger.
Gebruik in de volgende gevallen een zo handig mogelijke methode om het product AB en BA van
de volgende
matrices te berekenen
en vermeld
de gebruikte
methode.
7 −17 39 −5 0 0 0
(a) A = −5 3 2 0 , B = 0 2 0
2 −5 12 −8 1 1 0
0 1 0 0 1 2 3 4
0 0 0 1 −4 −5 3 2
(b) A = 1 0 0 0 , B = 0
1 −1 −7
0 0 1 0 12 8 −11 5
3 1 0 4 0 0
(c) A = −2 −2 1 , B = 0 8 0
1 5 −3 0 0 −3
1 0 0 3 1 0
(d) A = 0 1 0 , B = −2 −2 1
−2 0 1 1 5 −3
4. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom). De
afmetingen van matrices A, B en C zijn steeds zo dat de algebraı̈sche operaties gedefinieerd zijn.
(a) Als A = B, dan AC = BC.
(b) Als AC = BC, dan A = B.
(c) Als AB = 0 dan A = 0 of B = 0.
(d) Als A + C = B + C, dan A = B.
(e) Als A2 = I, dan A = ±I.
(f) De kentallen van A2 zijn allemaal ≥ 0.
(i) (B + A)2 ;
(ii) A2 + 2AB + B 2 ;
(iii) A(A + B) + B(A + B);
(iv ) (A + B)(B + A);
(v ) A2 + AB + BA + B 2 .
(b) Onder welke conditie geldt (A + B)2 = A2 + 2AB + B 2 ?
7. (a) Geef een voorbeeld van twee symmetrische 2 × 2 matrices waarvoor het product AB niet sym-
metrisch is. Ga na of bij de door u gevonden matrices misschien wel geldt of BA symmetrisch
is?
(b) Toon aan: als A en B symmetrische n × n matrices zijn, dan geldt AB is symmetrisch als en
slechts als AB = BA.
Opgaven college 6
1 −2
2
4 −6
1. (a) Laat zien dat en 2 1 1 inverteerbaar zijn en vind hun inversen.
10 −14
1 0 1
(b) Gebruik inverse matrices om de oplossing van de volgende stelsels te vinden
x1 − 2x2 + 2x3 = 3
4x1 − 6x2 = 8
en 2x1 + x2 + x3 = 0
10x1 − 14x2 = −6
x1 x3 = −2
5. Bepaal
alle waarden
van r waarvoor geldt dat de matrix
2 4 2
(a) 1 r 3 inverteerbaar is;
1 2 1
2 4 2
(b) 1 r 3 inverteerbaar is.
1 1 2
7. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom). De
afmetingen van matrices A, B en C zijn steeds zo dat de algebraı̈sche operaties gedefinieerd zijn.
(a) Als AC = BC en C is inverteerbaar, dan A = B.
(b) Als AB = 0, en B is inverteerbaar, dan A = 0.
(c) Als twee van de matrices uit AB = C inverteerbaar zijn, dan de derde ook.
Opgaven ter Lehring ende Vermaeck 165
(d) Als A en B inverteerbaar zijn, dan is A + B ook inverteerbaar met inverse A−1 + B −1 .
(e) Als A en B inverteerbaar zijn, dan is AB ook inverteerbaar met inverse A−1 B −1 .
Opgaven college 7
1. Bekijk nog eens de definitie van de determinant zoals in paragraaf 8.1 en leg hiermee uit wat de
formule van de determinant van de 1 × 1-matrix A = [a1,1 ] is.
3. Bereken
de determinanten
van
de volgende
matrices
m.b.v. dedefinitie
in §7.2:
2 1 1 3 0 8 1 2 3 a 1 1
(a) 1
4 −4 , (b) 5 0 7 , (c) 4 5 6 , (d) −1 a 3 .
1 0 2 −1 4 2 7 8 9 4 −2 a
4. Bereken de determinanten van de volgende matrices via Laplace cofactor expansion naar een ge-
schikte rij of kolom.
0 2 0 0 1 0 1 0 3 5 7 2
0 0 1 −3 0 0 0 0 1 0 1 −2
0 0 0
(a) 0 5 2 , (b)
0 0 0 4 , (c) 1 1 0 0
, (d)
2
.
4 1 1
3 −1 4
0 0 1 0 0 0 1 1 1 1 3 4
Opgaven college 8
1. Bepaal de volgende determinanten m.b.v. Stelling 8.1:
−4 2 0 0 −4 0 0 0 2 0 1 4 1 2 2 1
2 3 1 0 2 3 0 0 3 2 −4 −2 1 3 3 1
(a) (b)
(c) 2
(d)
3 1 0 2 3 1 1 0 3 −1 0 2 3 3 2
1 3 0 3 1 3 1 1 11 8 −4 6 2 4 3 2
3. Bereken de determinanten van de volgende matrices uit het hoofd, door gebruik te maken van
eigenschapppen van de determinant:
0 2 0 0
1 1 1 0 0 1 −3 0 0 0
(a) 3 0 −2 , (b) 0 5 2 , (c)
0 0
,
0 4
2 2 2 3 −1 4
0 0 1 0
1 0 1 0
4 1 3 2 3 −4 0 1 0 1
(d) −2 0 −2 . (e) 1 −3 −2 , (f) 1
.
1 0 0
5 4 1 −1 5 2
0 0 1 1
2 3 4 5
0 2 3 4
4. Bereken det A en det A−1 als A =
0
.
0 2 3
0 0 0 2
6. Vind een algemene formule voor de berekening van det(cA) met behulp van det(A) als A een n × n
matrix is en c een scalar.
7. Laat met een voorbeeld zien dat in het algemeen det(A + B) 6= det(A) + det(B).
8. Bepaal de mogelijke waarden van det A als A idempotent is (d.w.z. A2 = A). Evenzo als de matrix
A nilpotent is (A2 = O).
De opgaven 9-13 zijn een toegift en zijn absoluut geen tentamenstof. We kunnen later wel naar
deze resultaten verwijzen.
9. (a) Laat x1 , x2 , . . . , xn , xn+1 getallen in R zijn. Bewijs dat
1
x1 x21 · · · x1n−1 xn1
1
x2 x22 · · · x2n−1 xn2
n−1
1
x3 x23 · · · x3 xn3 Y
.
.. .. .. .. .. .. = (xj − xi )
. . . . . n+1≥j>i≥1
2
1 xn
x n · · · xnn−1 xnn
1 xn+1 x2 n−1
n+1 · · · xn+1 xnn+1
Q
Hier staat n+1≥j>i≥1 (xj − xi ) voor het product van alle mogelijke termen (xj − xi ) met
j > i.
168 Opgaven ter Lehring ende Vermaeck
Q
Dus als n = 2 dan n+1≥j>i≥1 (xj − xi ) = (x3 − x1 )(x2 − x1 )(x3 − x2 ).
Q
Als n = 3 dan n+1≥j>i≥1 (xj − xi ) = (x4 − x1 )(x3 − x1 )(x2 − x1 )(x4 − x2 )(x3 − x2 )(x4 − x3 ).
(Hint: omdat
de berekening
vrij lastig is de
x2 − x1
x22 − x21 · · · x2n−1 − x1n−1 xn2 − xn1
n−1 n−1
volgende opstap.
x3 − x1
x23 − x21 · · · x3 − x1 xn3 − xn1
.. .. . .. .
.. ..
Het ligt voor de . . .
hand om xn − x1 2
xn − x1 2 n−1
· · · xn − x1 n−1 n n
xn − x1
xn+1 − x1 x2 − x2 · · · xn−1 − xn−1 xn − xn
n+1 1 n+1 1 n+1 1
via vegen met de eerste rij en ontwikkelen naar de eerste kolom te verkrijgen bovenstaande deter-
minant te verkrijgen. Vervolgens gaan we van rechts naar links kolomvegen.
Kolom n vervangen door kolom n −x1 × (n − 1)de kolom.
Kolom n-1 vervangen door kolom (n − 1) −x × (n − 2)de kolom. Etc.
1
Nu kan men bij iedere rij de term (kijk zelf maar) buiten haakjes halen.
De determinant van deze opgave heet de VanderMonde determinant, genoemd naar de Franse
wiskundige A. T. Vandermonde (1735-1796).
(b) Gebruik de VanderMonde determinant om het volgende te bewijzen: als x1 , . . . , xn+1 (n+1)
verschillende getallen in R zijn en b1 , b2 , . . . , bn , bn+1 zijn gegeven waarden in R, dan bestaat
er een uniek polynoom p(x) = a0 +a1 x+· · ·+an xn van de graad tenhoogste n zodat p(xi ) = bi
(voor i = 1 . . . n + 1).
11. Volgens Stelling 9.14 geldt: A regulier dan ook adj(A) regulier.
Toon nu aan: als A een singuliere matrix is, dan is adj(A) ook een singuliere matrix.
(Hint. Volgens Stelling 9.13 geldt: A adj(A) = 0. Als adj(A) regulier zou zijn dan geldt: A =??
en dus adj(A) =??. Tegenspraak met de aanname dat adj(A) regulier zou zijn!)
12. Toon aan: als A een n × n matrix (met n ≥ 2) dan det(adj(A)) = (det(A))n−1
13. Toon aan: als A een reguliere n × n matrix (met n ≥ 2) dan is adj(A) inverteerbaar en
1
(adj(A))−1 = A = adj(A−1 )
det(A)
Gebruik dit om een formule voor adj(adj(A)) te bepalen, voor reguliere A. (Hint: pas Stelling 9.14
toe op adj(A).)
14. Ga na welke van de volgende 5 afbeeldingen lineair zijn. Zo ja, bepaal de standaardmatrix. Als de
afbeelding T niet lineair is, geef vectoren x en y aan met T (x + y) 6= T (x) + T (y).
x 2x + 3y
(a) T : R2 → R2 met T =
y 3x + 4y − 1
2 2 x x + 3y
(b) T : R → R met T =
y 3x2 + 4y
x −x + 3y
(c) T : R2 → R2 met T =
y 2x + 4y
2 2 x √ 2x + 3y
(d) T : R → R met T =
y 3x + 4y
Opgaven ter Lehring ende Vermaeck 169
2 3 x 2x + 3y
√
(e) T : R → R met T =
y x 3 + 4y
3
15. (a) Draai de vector x = over een hoek van 60◦ linksom. Welke vector krijgt U?
5
(b) Zelfde vraag, maar nu draaien we 60◦ rechtsom.
x
(c) Zelfde twee vragen, maar nu voor de vector x = .
y
1
16. (a) Beschouw de vector u = en beschouw de projectie op u als afbeelding van R2 naar R2 .
3
In 1.1 hebben we geleerd: u · x
proju (x) = u.
u·u
Ga na of de de afbeelding proju : R2 → R2 is door via de formule naar de standaardmatrix te
zoeken. Als de afbeelding niet lineair is, geeft dan vectoren x en y aan met proju (x + y) 6=
proju (x) + proju (y).
(b) Gebruik de formule van de projectie op u om aan te tonen dat proju : R2 → R2 een lineaire
afbeelding is.
17. Laat ℓ een lijn door de oorsprong zijn. Iedere (gebonden) vector x heeft een spiegelbeeld t.o.v.
deze lijn. Beschouw de afbeelding Sℓ : R2 → R2 die iedere vector x ∈ R2 naar zijn spiegelbeeld
t.o.v. ℓ stuurt, genaamd: Sℓ (x).
(a) Toon aan: Sℓ : R2 → R2 (Hint: copieer het meetkundige bewijs dat de rotatie een lineaire
afbeelding is.)
1
(b) Neem ℓ gelijk aan de lijn door u = . Toon aan:
3
Opgaven college 9
(c) Toon aan dat als ℓ de lijn door de oorsprong is met een hoek θ met de positieve x-as, dan:
cos2 (θ) cos(θ) sin(θ) cos(2θ) sin(2θ)
[projℓ ] = en [Sℓ ] =
cos(θ) sin(θ) sin2 (θ) sin(2θ) − cos(2θ)
3. Voor alle θ laat Rθ : R2 → R2 de rotatie over een hoek θ (linksom) zijn. Laat meetkundig zien dat
Rα ◦ Rβ = Rα+β en gebruik dit om de (bekende) formules te vinden voor cos(α + β) en sin(α + β)
4. Bepaal de standaardmatrix van de volgende compositie van lineaire afbeeldingen. Eerst roteren we
60◦ linksom, vervolgens spiegelen we om de lijn y = 2x en tenslotte projecteren we op de y − as.
5. Laat ℓ1 de lijn door de oorsprong is met een hoek θ met de positieve x-as en ℓ2 de lijn door de
oorsprong is met een hoek ψ met de positieve x-as met ψ > θ. Beschouw de twee spiegelingen Sℓ1
en Sℓ2 . Leg uit m.b.v. matrixrekening dat Sℓ2 ◦ Sℓ1 een rotatie is. Over welke hoek?
6. Bekijk de volgende lineaire afbeeldingen. Welke zijn inverteerbaar en zo ja, bepaal een expliciete
formule voor de inverse
afbeelding.
x+y
x
(a) T = x − y .
y
2x
x x+y
(b) T = .
y 2x + 2y
x x+y
(c) T = .
y x−y
x 6x + y
(d) T = .
y 5x + y
Opgaven ter Lehring ende Vermaeck 171
7. (a) In opgave 1 hebben we berekend dat de spiegeling t.o.v. de lijn ℓ door de oorsprong die een
cos(2θ) sin(2θ)
hoek θ met de positieve x-as maakt als standaardmatrix heeft: [Sℓ ] = .
sin(2θ) − cos(2θ)
Bepaal meetkundig Sℓ−1 en controleer uw voorspelling door [Sℓ−1 ] te berekenen.
(b) In opgave 1 is ook de standaardmatrix [projℓ ] van de projectie op de lijn ℓ bepaald.
(i) Ga meetkundig na of projℓ : R2 → R2 inverteerbaar is en controleer dit aan de hand van
de [projℓ ].
(ii) Bepaal projℓ ◦ projℓ meetkundig en controleer dit aan de hand van [projℓ ◦ projℓ ].
8. Welke van de volgende deelverzamelingen van R2 zijn deelruimten van R2 ? Geef in het geval van
deelruimte een opspannend stel vectoren.
x
(a) Het eerste kwadrant K1 , preciezer, de verzameling K1 = : x ≥ 0, y ≥ 0 .
y
x
(b) De vereniging van het eerste en derde kwadrant, dus K = : xy ≥ 0 .
y
(c) De punten op de lijn ℓ met de vergelijking y = x.
x
(d) De vereniging van de x-as en de y-as, dus T = : x = 0 of y = 0 .
y
x 2 2
(e) De punten binnen de eenheidsdisc D, dus D = : x +y ≤1 .
y
x
(f) De punten op de eenheidscirkel C, dus C = : x2 + y 2 = 1 .
y
9. Welke van de volgende verzamelingen vormen een deelruimte van een geschikte Rn ? Geef in het
geval van deelruimte een opspannend stel vectoren.
a
x
b a + 3b = c
(a) A = y : x+y+z =2 (b) B = :
c b+c+a=d
z
d
a b − 2d
2a − b + 1 = c
(c) C = b : (d) D = 5 + d : b, d ∈ R
a=b
c b + 3d
3b + c − 6d
1+a
d
1 + b : a, b ∈ R
(e) E = : b, c, d ∈ R (f) F =
c
2+a+b
0
172 Opgaven ter Lehring ende Vermaeck
Opgaven college 10
1. Schrijf de volgende
lineaire
deelruimten
of als kolomruimte of als nulruimte van een matrix.
1 2
(a) W = Span 2 , 1
1 1
a
2a − b = c
(b) W = b :
a=b
c
a
b a + 3b = c
(c) W = :
c
−b + c + a = d
d
3. Toon aan: Als A en B matrices zijn met de eigenschap dat AB = 0, dan is Col(B) een deelverza-
meling van Nul(A). En omgekeerd?
6. Geef bij elk van de volgende uitspraken aan of deze waar of onwaar is (en leg uit waarom).
(a) Een basis voor W is een zo groot mogelijke W opspannende verzameling vectoren.
(b) Een basis voor W is een zo klein mogelijke W opspannende verzameling vectoren.
(c) Een basis voor W is een zo groot mogelijke onafhankelijke verzameling vectoren in W .
(d) Een basis voor W is een zo klein mogelijke onafhankelijke verzameling vectoren in W .
(e) Als Span{v1 , v2 , v3 , v4 } = R4 dan is {v1 , v2 , v3 , v4 } een basis voor R4 .
(a) Geef een 4 × 5 matrix A1 , een 4 × 6 matrix A2 en een 4 × 7 matrix A3 , zo dat W = Col Ai
voor i = 1, 2, 3.
(b) Bestaat er een 4 × 4 matrix A zo dat W = Col A? En een 4 × 3 matrix? En een 4 × 2 matrix?
En een 5 × 5 matrix?
(c) Geef een 4 × 4 matrix B1 zo dat W = Row B1 .
(d) Gegeven is dat B een matrix is zo dat W = Row B. Wat kun je zeggen over de afmetingen
van B?
(e) Kun je een matrix C bedenken zo dat W = Nul C?
(a) Wat is n?
(b) Bepaal de dimensie van W . Doe dit met zo weinig mogelijk rekenwerk!
(c) Geef een matrix A zo dat W = Nul A. Kun je nog een matrix bedenken met deze eigenschap,
maar met andere afmetingen?
(d) Geef een matrix B zo dat W = Col B?
(e) Geef een matrix C zo dat W = Row C.
1 −2 0 1
2 1 5 3
9. Gegeven is de matrix A = 1 1 3 1 .
−1 1 −1 3
0 2 2 4
(a) Geef voor elk van de verzamelingen Col A, Row A, Nul A en Nul(AT ) aan van welke Rn ze een
deelruimte zijn.
(b) (i) Behoort (−4, −2, 2, 0)T tot Nul(A)? En (−7, −1, 0, 5)T ?
(ii) Behoort (0, 0, 0, 0, 1)T tot Col(A)? En (0, 11, 6, 2, 8)T ?
(iii) Behoort (0, 0, 0, 0)T tot Row(A)? En (0, 0, 0, 1)T ?
(c) Bepaal bases voor de kolom–, rij– en nulruimte van A. Doe dit door slechts door de matrix A
te vegen (hetgeen waarschijnlijk al gedaan hebt).
(d) Geef een matrix B zo dat Col B = Nul A.
(e) Dun de rijen van A uit tot een basis voor de rijruimte van A.
(f) Bewijs dat de vectoren (0, 0, 1, 1, −1)T en (2, −4, 4, −2, 3)T een basis voor Nul AT vormen.
Opgaven college 11
1. Toon aan: Als A en B matrices zijn met de eigenschap dat AB = 0, dan geldt: rang(B) ≤
dim(Nul(A)).
5. (a) Geef een voorbeeld van twee vierkante matrices A, B met rang(AB) < rang(A) en rang(AB) <
rang(B).
(b) Toon aan: als A inverteerbaar, dan rang(AB) = rang(B).
(c) Toon aan: als B inverteerbaar, dan rang(AB) = rang(A).
(d) Geef een voorbeeld van twee vierkante matrices A, B met rang(AB) 6= rang(BA).
6. Als AB = I dan heet A een links-inverse van B en B heet een rechts-inverse van A. Toon
aan:
(a) Als A een m × n matrix, dan heeft A een rechts-inverse als en slechts als rang(A) = m.
(b) Als A een m × n matrix, dan heeft A een links-inverse als en slechts als rang(A) = n.
(c) Als A een m× n matrix, dan heeft A zowel een rechts-inverse als een links-inverse als en slechts
als A vierkant en inverteerbaar is. Bovendien zijn dan de rechts-inverse en de links-inverse
aan elkaar gelijk.
7. Ga bij de volgende matrices na of de gegeven vectoren eigenvectoren zijn. Zo ja, bepaal de bijbe-
horende eigenwaarden.
1 −3 −3 0 −5
(a) A = 2 3 4 met 1 en 2 ?
1 4 3 −1 3
√
2 1 −1 + 2 0
(b) A = met en ?
1 4 1 0
3 −2 −1 1 1
(c) A = −1 −2 3 met 0 en 1 ?
3 −2 −1 1 1
Opgaven ter Lehring ende Vermaeck 175
3 0 −1
8. (a) Is 4 een eigenwaarde van A = 2 3 1 ? En −1? Zo ja, bepaal dan ook de meetkun-
−3 4 5
dige multiplicitiet van de eigenwaarde.
2 3 −1
(b) Is 4 een eigenwaarde van A = 1 4 −1 ? En 6? Zo ja, bepaal dan ook de meetkundige
0 5 −1
multiplicitiet van de eigenwaarde.
1 1 1
(c) Is 0 een eigenwaarde van A = 1 1 1 ? En 3? Zo ja, bepaal dan ook de meetkundige
1 1 1
multiplicitiet van de eigenwaarde.
176 Opgaven ter Lehring ende Vermaeck
Opgaven college 12
1. Bepaal van de volgende matrices:
(a) de eigenwaarden,
(b) een basis van de eigenruimten,
(c) de algebraı̈sche en meetkundige multipliciteiten van iedere eigenwaarde.
2 1 1
1 3 2 1
A= B= C = 0 −2 2
−2 6 1 2
0 0 2
0 1 1 1
0 0 2 1 0 1 1
D = 0 −2 2 E= 1 1 0 1
2 1 1
1 1 1 0
2. Laat A een n × n matrix zijn. Druk de eigenvectoren en eigenwaarden van A + cI uit in die van A.
(D.w.z., als λ een eigenwaarde is van A, dan is . . . een eigenwaarde van A + cI. Bovendien: als x
een eigenvector van A is bij λ, dan is . . . eigenvector A + cI bij de eigenwaarde . . . .)
3. (a) Laat A een nilpotente matrix zijn (d.w.z. een matrix met An = O, voor zekere n ∈ N). Laat
zien: als λ ∈ R een eigenwaarde is van A, dan is λ = 0.
(b) Laat A een idempotente matrix zijn (d.w.z. A2 = A). Laat zien: als λ ∈ R een eigenwaarde
is van A, dan is λ = 0 of λ = 1.
Opgaven college 13
1. Laat A, B inverteerbare n × n matrices zijn. Toon aan dat de matrices AB en BA gelijkvormig
zijn.
4. Laat zien dat de volgende matrices A en B diagonaliseerbaar zijn. Bepaal een diagonalisering
van zowel A als B. Laat ook zien dat A en B gelijkvormig door een matrix Q te bepalen met
A = QBQ−1 .
1 1 1 2
(a) A = en B = .
0 2 0 2
1 1 1 2 0 0
(b) A = 0 2 2 en B = 1 1 0 .
0 0 3 3 2 3
1 1
5. Verzin een 3 × 3 matrix A die eigenwaarden λ = 1, 2 heeft en die 1 , 0 als basis van
1 1
1
E1 heeft, en 0 als basis van E2 . Hoeveel van zulke matrices zullen er bestaan?
−1
2 0 2 2
0 3 0 1
(c) A =
0
0 3 0
0 0 0 1
1 −1 1 1 1 −1
1
A= −1 1 1 , b1 = 1 , b2 = 1 en b3 = 1 .
2
1 1 −1 −2 1 0
Opgaven ter Lehring ende Vermaeck 179
(a) Toon aan dat B = {b1 , b2 , b3 } een basis voor R3 is bestaande uit eigenvectoren van A.
2
(b) Schrijf v = 4 als lineaire combinatie van b1 , b2 b3 . Waarom weet je zeker dat dit kan?
−3
(c) Beschouw het dynamisch systeem xn+1 = Axn met x0 = v. Bepaal xn . Bestaat lim xn ?
n→∞
(d) Bestaat lim Ak ?
k→∞
−1
(e) Bestaat lim Ak w als w = 3 ?
k→∞
1
14. Bepaal van de volgende lineaire recurrentie problemen een formule voor pn .
(a) p0 = 0, p1 = 5 en pn+1 = 3pn + 4pn−1 .
3 5
(b) p0 = 10, p1 = −3 en pn+1 = pn + pn−1 . Bepaal ook lim pn .
8 8 n→∞
15. Los de
volgende gekoppelde differentiaal vergelijkingen op.
x′1 = x1 + 3x2
(a)
x′ = 2x1 + 2x2
′2
x1 = 2x1 − x2
(b)
x′2 = −x1 + 2x2
′
x1 = x2 −x3
(c) x′2 = x1 +x3
′
x3 = x1 +x2
′
x1 = x2 −x3
(d) x′2 = x1 +x3 met x1 (0) = 1, x2 (0) = 0 en x3 (0) = −1.
′
x3 = x1 +x2
180 Opgaven ter Lehring ende Vermaeck
Opgaven college 14
1. Stel dat de vectoren u, v en w in Rn gegeven zijn. Als u · v = u · w en u 6= 0, volgt dan dat
v = w? (Zo ja, bewijs dat dan. Zo nee, geef een tegenvoorbeeld.)
1 1
1 1 4
1 en v = 0 in R .
2. Gegeven zijn de vectoren u =
1 0
(a) Bepaal u · v, kuk, kvk.
(b) Bepaal de hoek tussen u en v.
(c) Normeer beide vectoren u en v tot u1 en v1 .
4. Laat u en v niet nulvectoren in Rn zijn, met normering u1 en v1 . Toon aan dat de hoek tussen u
en v gelijk is aan de hoek tussen u1 en v1
9. Bepaal of de verzameling vectoren {v1 , . . . , vk } orthogonaal is. Zo ja, kijk of de verzameling via
normeren tot een orthonormale verzameling {w1 , . . . , wk } te maken is.
−3 2 1
(a) 1 , 4 , −1
2 1 2
Opgaven ter Lehring ende Vermaeck 181
−3 2 0
(b) 1 , 4 , 0
2 1 0
1 0 1
0 −1 1
(c) ,
1 , 1
−1
1 1 0
2/3 1/3 2/3
10. Ga na dat B = {v1 , v2 , v3 } met v1 = 1/3 , v2 = 2/3 en v3 = −2/3 een or-
2/3 −2/3 −1/3
2
thonormale basis voor R3 vormen en schrijf de vector w = 0 als lineaire combinatie van
5
v1 , v2 , v3 .
182 Opgaven ter Lehring ende Vermaeck
Opgaven college 15
4 2
1. Ga na dat de vectoren v1 = 2 , v2 = 2 orthogonaal zijn en bepaal een vector v3 zó
−1 12
dat {v1 , v2 , v3 } een orthogonale basis is voor R3 . Gebruik deze vectoren om een orthogonale 3 × 3
matrix te maken.
√ √
1 1 −2 1/√2 1/ √2
2. Ga na of de matrices Q1 = 4 0 1 en Q2 = 1/ 2 −1/ 2 orthogonaal zijn. Als
1 −1 −2 0 0
uw antwoord nee is, waarom dan niet?
3. Laat zien dat het product Q1 Q2 van twee orthogonale n × n matrices Q1 en Q2 weer orthogonaal
is. En Q1 + Q2 ?
√ √
1/ 2 1/√3 ∗
6. Vul de kentallen van de matrix √0 1/√3 ∗ aan tot een orthogonale matrix. Hoeveel
−1/ 2 1/ 3 ∗
keuzes van kolommen zijn er?
1 1 2
2 −1 3
7. Beschouw de vectoren v1 =
3 , v2 = 1 en v3 = 7
en de deelruimte W =
2 2 6
Span{v1 , v2 , v3 }.
(a) Bepaal een basis voor W ⊥ .
(b) Verifieer dat iedere basisvector orthogonaal is met iedere vi (i = 1, 2, 3).
(c) Verifieer ook dat dim(W ) + dim(W ⊥ ) = 4.
(d) Bepaal een matrix A zodat W = Nul(A).
1 1 2 1
8. Beschouw de matrix A = en de deelruimte W = Nul(A).
−1 1 2 −1
(a) Bepaal een basis voor W ⊥ .
(b) Bepaal een matrix B zodat Nul(B) = W ⊥ .
Opgaven ter Lehring ende Vermaeck 183
1 1 1
1 1 1
9. Beschouw de vectoren v1 1 , v2 = 2
= en v3
−2 en de deelruimte V =
=
2 1 5
Span{v1 , v2 , v3 }.
2 1 0
2 0 4
Evenzo, beschouw de vectoren w1 = 3 , w2 = 1 en w3 = 2
en de deelruimte
3 1 2
W = Span{w1 , w2 , w3 }.
(a) Bepaal bases voor V en W .
(b) Bepaal bases voor V ⊥ en W ⊥ .
(c) Bepaal matrix A1 en A2 zodat Col(A1 ) = V en Col(A2 ) = W .
(d) Bepaal matrices B1 en B2 zodat Nul(B1 ) = V en Nul(B2 ) = W .
1
10. Beschouw de lijn L = Span{v} met v = 2 . L is een lineaire deelruimte van R3 .
3
(a) Bepaal een matrix A zodat Nul(A) = L.
(b) Beschrijf meetkundig wat bij onderdeel (a) gebeurd.
(c) Beschrijf een 5 × 3 matrix B zodat Nul(B) = L. Wat gebeurd hier meetkundig?
1 1 5
1 2
en x = 5 . W is de deelruimte Span{v1 , v2 }.
1 , v2 = 1
11. Beschouw de vectoren v1 =
0
1 1 1
2
5
2 de projectie van
(a) Gebruik de definitie van projectie om aan te tonen dat de vector p =
2
x op W is.
(b) Bepaal ook SW (x).
1 1 5
1 −1 1
12. Beschouw de vectoren v1 =
, v =
en x =
. W is de deelruimte
0 2 1 −1
1 0 0
Span{v1 , v2 }.
(a) Bepaal voor x de decompositie in vectoren uit W en W ⊥ . (Hint: v1 ⊥v2 .)
(b) Bepaal projW (x) en SW (x).
(c) Bepaal ook projW ⊥ (x) en SW ⊥ (x).
1 0 2
1 0 0
13. Bekijk de drie vectoren v1 0 , v2 = 1
= en v3
0 en de deelruimte W =
=
0 1 2
Span{v1 , v2 , v3 }.
5
−1 ⊥
3 de decompositie in vectoren uit W en W .
Bepaal voor x = (Hint: Pas op, {v1 , v2 , v3 } is
1
184 Opgaven ter Lehring ende Vermaeck
Opgaven college 16
1 1 5
1 −1 1
1. Beschouw nogmaals de vectoren v1 = 0 , v2 = 1 en x = 3 − 1 van opgave 12 van
1 0 0
College 15. W is de deelruimte Span{v1 , v2 }.
(a) Bepaal de projectiematrix [projW ] en de spiegelingsmatrix [SW ]. (Hint: v1 ⊥v2 .)
(b) Bepaal nogmaals, nu met behulp van deze matrices, projW (x) en SW (x).
0 1 2
Span{v1 , v2 , v3 }.
5
−1
3 .
Bepaal [projW ⊥ ] en daarmee [projW ]. Bepaal nu projW (x) voor de vector x =
4. (a) W = Rn is een deelruimte van Rn . Bepaal voor deze deelruimte de matrices [projW ] en [SW ].
(b) W = {0} is een deelruimte van Rn . Bepaal voor deze deelruimte de matrices [projW ] en [SW ].
5. (a) Gebruik de formule [projW ] = QQT om aan te tonen dat iedere projectiematrix [projW ]
symmetrisch is en idempotent. (De matrix P heet idempotent als P 2 = P .)
(b) Toon aan: als P een symmetrische en idempotente n × n matrix is, dat er een deelruimte W
in Rn bestaat met [projW ] = P .
(Hint: neem W gelijk aan Col(P ). Dan geldt zeker P x ∈ W , voor alle x ∈ Rn . Om in te zien dat P x de
projectie van x op W is het voldoende aan te tonen dat x − P x ∈ W ⊥ = (Col(P ))⊥ = Nul(P T )!!!!)
6. De vorige opgave laat zien dat de projectiematrices precies de symmetrische idempotente matrices
zijn. In deze opgave karakterizeren we spiegelingmatrices.
(a) Toon aan: als P een symmetrische idempotente matrix is, dan is 2P − I een symmetrische
orthogonale matrix.
(b) Toon aan: een spiegelingsmatrix [SW ] is symmetrisch en orthogonaal.
(c) Toon aan: als S een symmetrische orthogonale matrix is, dan is de matrix 12 (S+I) symmetrisch
en idempotent.
(d) Leg uit waarom geldt dat de spiegelingmatrices precies de symmetrisch en orthogonale matrices
zijn.
1 2 4 5 1 0 2 1
1 1 3 3 0 1 1 2
7. Beschouw de matrix A = 3
∼ .
4 10 11 0 0 0 0
0 −1 −1 −2 0 0 0 0
(a) Bepaal een orthogonale basis voor Col(A) ⊂ Rn . Bepaal ook een orthonormale basis.
186 Opgaven ter Lehring ende Vermaeck
Opgaven college 17
1 1 5
1 −1 1
1. Beschouw nogmaals de vectoren v1 = 0 , v2 = 1 en x = −1
van opgave 12 van
1 0 0
College 15. W is de deelruimte Span{v1 , v2 }.
(a) Bepaal d(x, W ).
(b) Bepaal d(x, W ⊥ ).
1 0 2
1 0 0
2. Beschouw nogmaals de vectoren v1 =
0 , v2 = 1
en v3
= 0 en de deelruimte
0 1 2
5
−1
W = Span{v1 , v2 , v3 } van opgave 13 van College 15. Tevens: x = .
3
1
(a) Bepaal d(x, W ).
(b) Bepaal d(x, W ⊥ ).
3. Bepaal voor de volgende stelsels Ax = b: (1) De normaal vergelijking (2) De kleinste kwadraat
oplossing(en); (3) De projectie van b op Col(A).
3 1 1
(a) A = 1 1 , b = 1 .
1 2 1
1 −2 4
0 −3
en b = 1 .
(b) A = 2 5 −2
3 0 4
1 1 0 1
1 1 0
en b = 3 .
(c) A = 1 0 1 8
1 0 1 2
4. Gegeven is dat het stelsel Ax = b de eigenschap heeft dat b orthogonaal is met iedere kolom ai
van A. Bepaal een kleinste kwadraat oplossing van dit stelsel.
5. Gegeven is dat de kolommen van de matrix A orthonormaal zijn. Bepaal de kleinste kwadraat
oplossing van stelsel Ax = b.
7. Laat A een reële matrix zijn met lineair onafhankelijke kolommen en beschouw P = A(AT A)−1 AT .
Toon aan.
(a) P is een symmetrische matrix.
188 Opgaven ter Lehring ende Vermaeck