Download Document 8475488

Document related concepts
no text concepts found
Transcript
Table des Matières
1 Nombres complexes
1.1
1.2
1.3
1.4
1.5
1
Rappel : équations de degré 2 . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.1
Théorie générale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.2
Exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
Nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2.1
Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2.2
Conjugué et module d’un nombre complexe. . . . . . . . . . . . . . .
7
1.2.3
Inverse d’un nombre complexe. . . . . . . . . . . . . . . . . . . . . .
8
1.2.4
Rappels de trigonométrie. . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.5
Coordonnées polaires. . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.6
Applications à la trigonométrie. . . . . . . . . . . . . . . . . . . . . . 15
Racine n-ième d’un nombre complexe
. . . . . . . . . . . . . . . . . . . . . 18
1.3.1
Racines n-ièmes de l’unité. . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2
Racines n-ièmes de z0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Équations de degré 2 à coefficients complexes . . . . . . . . . . . . . . . . . 20
1.4.1
Racines carrées d’un nombre complexe. . . . . . . . . . . . . . . . . 20
1.4.2
Résolution d’équations de degré 2. . . . . . . . . . . . . . . . . . . . 22
Exercices supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 Algèbre linéaire
25
2.1
Résolution de systèmes linéaires par la méthode de Gauss . . . . . . . . . . 25
2.2
Structure d’espace vectoriel sur R2 et R3 . . . . . . . . . . . . . . . . . . . . 29
2.2.1
Définition de R2 et de R3 . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.2
R2 et R3 comme espaces vectoriels. . . . . . . . . . . . . . . . . . . . 31
2.3
Vecteurs colinéaires dans R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4
Vecteurs colinéaires et coplanaires dans R3 . . . . . . . . . . . . . . . . . . . 34
2.4.1
Vecteurs colinéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.2
Vecteurs coplanaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5
Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6
Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.1
Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
i
0
TABLE DES MATIÈRES
2.7
2.8
2.6.2 Opérations sur les matrices. . . . . . . . . .
2.6.3 Matrices inversibles. . . . . . . . . . . . . .
2.6.4 Systèmes d’équations linéaires et matrices. .
Applications linéaires . . . . . . . . . . . . . . . . .
2.7.1 Applications linéaires et matrices. . . . . .
2.7.2 Opérations sur les applications linéaires. . .
Produit scalaire, produit vectoriel, produit mixte .
2.8.1 Produit scalaire. . . . . . . . . . . . . . . .
2.8.2 Produit vectoriel. . . . . . . . . . . . . . . .
2.8.3 Produit mixte. . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
44
46
48
48
51
54
54
59
61
Chapitre 1
Nombres complexes
1.1
1.1.1
Rappel : équations de degré 2
Théorie générale.
Dans de nombreux problèmes1 , on est amené à résoudre une équation du type :
ax2 + bx + c = 0
(E)
avec a, b, c des réels et a 6= 0. Pour résoudre cette équation, on “complète le carré” :
b
2
2
ax + bx + c =a x + x + c
a
b
=a x2 + 2 x + c
2a
et on reconnaı̂t le début du développement de
2
b 2
b
b
x+
= x2 + 2 x +
,
2a
2a
2a
d’où
#
b 2
b 2
b2
ax + bx + c =a
−
+c=a x+
+c−
2a
2a
4a
#
"
∆
b 2
− 2
=a x +
2a
4a
2
"
b
x+
2a
2
(1.1)
où ∆ = b2 − 4ac. On distingue alors trois cas :
√ !2
∆
∆
Premier cas, ∆ > 0 : Dans ce cas, on a 2 =
et (1.1) implique alors
4a
2a
√ !
√ !
b
∆
b
∆
a x+
+
x+
−
= 0.
2a
2a
2a
2a
1
Exemple: déterminer les longueurs des côtés des rectangles d’aire 8cm2 , de périmètre 24cm
1
(1.2)
2
CHAPITRE 1. NOMBRES COMPLEXES
Il y a alors 2 solutions distinctes
√
−b − ∆
x1 =
2a
√
−b + ∆
x2 =
2a
et
et (1.1) s’écrit
ax2 + bx + c = a(x − x1 )(x − x2 ).
Ceci permet également de déterminer le signe de ax2 + bx + c. Si on appelle r1 la plus
petite des deux racines x1 , x2 et r2 la plus grande, on a r2 > r1 , et le signe de ax2 + bx + c
est donné par2
r1
x
ax2
+ bx + c
sgn a
r2
−sgn a
0
0
sgn a
b 2
Deuxième cas, ∆ = 0 : Dans ce cas (1.1) s’écrit a x +
= 0. Il y a alors une seule
2a
b
solution (double) x0 = −
et on a la factorisation
2a
b 2
2
2
ax + bx + c = a(x − x0 ) = a x +
.
2a
Troisième cas, ∆ < 0 : Il n’y a pas de racine (réelle) puisque
"
#
2
b
−∆
ax2 + bx + c = a x +
+ 2 .
2a
4a
{z
}
|
positif car ∆<0
1.1.2
Exemples.
– Résoudre et factoriser 2x2 − 8x + 6 = 0.
Le discriminant de cette équation est ∆ = (−8)2 − 4 × 2 × 6 = 16 = 42 > 0. Les
solutions sont donc x1 = −(−8)−4
= 1 et x2 = −(−8)+4
= 3 d’où
2×2
2×2
2x2 − 8x + 6 = 2(x − 1)(x − 3).
– Résoudre et factoriser 3x2 − 12x + 12 = 0.
Le discriminant de cette équation est ∆ = (−12)2 − 4 × 3 × 12 = 0. Il y a donc une
−12
seule solution x0 = − 2×3
= 2 et
3x2 − 12x + 12 = 3(x − 2)2 .
2
si a est un réel non nul, on désigne son signe par sgn
1.2. NOMBRES COMPLEXES
3
– Résoudre et factoriser 2x2 + 8x + 9 = 0.
Le discriminant de cette équation est ∆ = 82 − 4 × 2 × 9 = −8 < 0. Il n’y a donc pas
de solution réelle. Toutefois
2x2 + 8x + 9 =2(x2 + 4x) + 9
=2 (x + 2)2 − 22 + 9 = 2(x + 2)2 − 8 + 9
=2(x + 2)2 + 1
(1.3)
Exercice -1- Résoudre et factoriser :
x2 + x − 6 = 0;
√
x2 − 2 2x + 2 = 0;
1.2
1.2.1
3x2 + 3x − 6 = 0; 6x2 − x − 1 = 0; x2 + x − 1 = 0;
√
1 2
3x2 − 2 3x + 1 = 0; x2 + x + 1 = 0;
x + 2x + 5 = 0.
2
Nombres complexes
Définitions.
Nous venons de voir qu’une équation de degré 2 n’admet pas nécessairement de racine
réelle3 . Par exemple, une équation aussi simple que x2 = −1 n’admet pas de solution
réelle. Afin de remédier à cela, les mathématiciens ont introduit un nombre “imaginaire”
appelé i tel que i2 = −1. On considère alors C, l’ensemble des “nombres” z = x + iy avec
x, y ∈ R. On dit que z est un nombre “complexe”.4
Il est pratique d’assimiler tout élément x + iy de C au vecteur (x, y) du plan R2 (muni
du repère orthonormé usuel (~e1 , ~e2 ) où ~e1 = (1, 0) et ~e2 = (0, 1)).5
L’addition de deux nombres complexes et la multiplication d’un nombre complexe par
un réel sont l’addition des vecteurs et la multiplication d’un vecteur par un réel. Pour
définir le produit de deux nombres complexes, on tient compte de la relation i2 = −1 et
des règles usuelles d’associativité et de distributivité.
Plus précisément, en notant z = x + iy et z 0 = x0 + iy 0 , on définit :
— l’addition,
z + z 0 =(x + iy) + (x0 + iy 0 ) = x + iy + x0 + iy 0
=(x + x0 ) + i(y + y 0 );
3
Cardan (1545, dans son Ars Magna) fut le premier à rencontrer des nombres complexes en cherchant
à déterminer les rectangles d’aire 40cm2 et de périmètre 20cm.
√
4
Le symbole i a été introduit par Euler en 1777. Avant on utilisait la notation −1, ce qui est encore
en usage dans certains livres mais vous est strictement interdit cette année.
5
Cette interprétation géométrique fondamentale apparaı̂t pour la première fois dans la thèse de Gauss
en 1799. C’est également Gauss qui a introduit le terme “nombre complexe”. Avant, on disait “nombre
imaginaire” ou “nombre impossible”.
4
CHAPITRE 1. NOMBRES COMPLEXES
z+z’
iz=-y+ix
x
i
y
z’
z=x+iy
x
-y
-y
z=z-iy
Figure 1.1: Le plan complexe : coordonnées cartésiennes
— La multiplication,
zz 0 =(x + iy)(x0 + iy 0 ) = xx0 + xiy 0 + iyx0 + iyiy 0
=xx0 + ixy 0 + iyx0 + i2 yy 0
=xx0 − yy 0 + i(yx0 + x0 y),
puisqu’on a posé i2 = −1. (On a en particulier, si λ ∈ R :
λz = λ (x + iy) = λx + iλy.)
Toutes les propriétés de + et × dans R restent vraies pour + et × dans C (il suffit de
se rappeler que i2 = −1). Ainsi
1. z + 0 = 0 + z = z, 1z = z1 = z et 0z = z0 = 0.
2. (Commutativité de l’addition et du produit) z + z 0 = z 0 + z et zz 0 = z 0 z.
3. (Associativité de l’addition) z + (z 0 + z 00 ) = (z + z 0 ) + z 00 qu’on note donc z + z 0 + z 00
(l’ordre n’a pas d’importance).
4. (Associativité du produit) z(z 0 z 00 ) = (zz 0 )z 00 qu’on note donc zz 0 z 00 (l’ordre n’a pas
d’importance).
5. (Distributivité du produit par rapport à l’addition) z(z 0 + z 00 ) = zz 0 + zz 00 .
6. (z + z 0 )(z − z 0 ) = z 2 − (z 0 )2 , (z + z 0 )2 = z 2 + 2zz 0 + (z 0 )2 .
Définition 1.2.1 Soit z = x + iy un nombre complexe. Alors x, qu’on note x = Re z, est
appelé partie réelle de z et y, qu’on note Im z, est appelé partie imaginaire de z.
Remarque 1.2.2
• Par définition, deux nombres complexes sont égaux si et seulement s’ils ont même partie réelle et même partie imaginaire. Autrement dit, soient
z = x + iy et z 0 = x0 + iy 0 ∈ C; alors z = z 0 si et seulement si x = x0 et y = y 0 .
1.2. NOMBRES COMPLEXES
5
• Comme i correspond au vecteur (0, 1), c’est-à-dire à l’image du vecteur ~e1 = (1, 0)
(assimilé au nombre complexe 1) par la rotation d’angle π2 , et que i × i = −1
correspond au vecteur (−1, 0), c’est-à-dire à l’image du vecteur ~e2 = (0, 1) (assimilé
au nombre complexe i) par la rotation d’angle π2 , la multiplication par i correspond
à la rotation d’angle π2 (voir figure 1.1).
Exercices -21. Montrer que si z = x + iy, alors zz = x2 + y 2 (en particulier, c’est un réel positif ).
2. Soient z, z 0 ∈ C. Montrer par récurrence que, pour n ≥ 1, on a
!
n
X
n k 0 n−k
0 n
(z + z ) =
z z
k
k=0
` ´
où les nk sont les coefficients du binôme.
(1.4)
Rappel.
Pour n ∈ N et 0 ≤ k ≤ n, les coefficients binômiaux nk sont définis par
n
n!
=
k!(n − k)!
k
où 0! = 1 et k! = 1 × 2 × . . . × (k − 1) × k si k > 0. On vérifie (à faire en exercice) que
n
n−1
n−1
n
k . Cette formule montre que les k se calculent à l’aide du triangle de
k = k−1 +
Pascal. On met des 1 sur le bord du triangle, et chaque élément est la somme des deux
éléments au-dessus de lui :
1
1
1
1
1
1
1
2
3
4
5
6
1
3
6
10
15
1
1
4
10
20
1
5
15
1
6
1
n
k
est alors le k-ième élément de la n-ième ligne (les lignes sont comptées à partir de 0,
de même que les éléments de chaque ligne, par exemple 62 = 15).
1.2.2
Conjugué et module d’un nombre complexe.
Définition 1.2.3 Soit z = x + iy un nombre complexe. Le nombre complexe z = x − iy
est appelé complexe conjugué de z. On note |z| et on appelle module de z la longueur du
p
vecteur associé à z. Autrement dit, on a |z| = x2 + y 2 .
Remarque 1.2.4 L’image (dans le plan R2 ) du conjugué de z est symétrique de l’image
de z par rapport à l’axe (Ox) (voir figure 1.1).
6
CHAPITRE 1. NOMBRES COMPLEXES
Proposition 1.2.5 Soit z ∈ C. On a
1
1
1. Re z = (z + z) ; Im z = (z − z) ;
2
2i
2. |z|2 = zz ; |z| = |z| ;
3. z = 0 ⇔ |z| = 0 ; z ∈ R ⇔ z = z.
Démonstration. À chercher comme exercice.
Proposition 1.2.6 Soient z, z 0 ∈ C. On a
1. z + z 0 = z + z 0 ; zz 0 = zz 0 ;
2. |zz 0 | = |z||z 0 | ;
3. |z + z 0 |2 = |z|2 + 2Re (zz 0 ) + |z 0 |2 .
Démonstration. Contentons-nous de démontrer la dernière formule. On a
z + z 0 2 = (z + z 0 )(z + z 0 ) = (z + z 0 )(z + z 0 ) = zz + z 0 z + zz 0 + z 0 z 0
2
2
= |z|2 + z 0 z + z 0 z + z 0 = |z|2 + 2Re (z 0 z) + z 0 .
Les autres relations sont laissées en exercice.
Proposition 1.2.7 Soient z, z 0 ∈ C. On a
1. |Re z| ≤ |z| ; |Im z| ≤ |z| ;
2. (Inégalité triangulaire) |z + z 0 | ≤ |z| + |z 0 | ;
3. |z − z 0 | ≤ |z| − |z 0 |.
Démonstration.
1. Écrivons z = x + iy. On a x2 ≤ x2 + y 2 et y 2 ≤ x2 + y 2 , d’où
p
p
p
√
|Re z| = |x| = x2 ≤ x2 + y 2 = |z| et |Im z| = |y| = y 2 ≤ x2 + y 2 = |z|,
car la fonction racine carrée est croissante.
2. Remarquons d’abord que puisque les nombres |z + z 0 | et |z| + |z 0 | sont positifs ou
nuls, on a |z + z 0 | ≤ |z| + |z 0 | si et seulement si |z + z 0 |2 ≤ (|z| + |z 0 |)2 . Or
2
2
2
(|z| + z 0 )2 − z + z 0 = |z|2 + 2|z|z 0 + z 0 − (|z|2 + 2Re (zz 0 ) + z 0 )
= 2 |z|z 0 − Re (zz 0 ) ≥ 0,
d’après 3. de la proposition 1.2.6 , puis 1. ci-dessus appliqué à zz 0 , puisque zz 0 = |z||z 0 |.
3. Pour démontrer 3., on applique l’inégalité triangulaire à z = (z − z 0 ) + z 0 , ce qui
donne |z| ≤ |z − z 0 | + |z 0 |, d’où |z| − |z 0 | ≤ |z − z 0 |. En échangeant z et z 0 , on obtient
|z 0 | − |z| ≤ |z 0 − z|. Mais z 0 − z = −(z − z 0 ), d’où |z 0 − z| = |z − z 0 |. En rassemblant les
inégalités obtenues, on voit que
−z − z 0 ≤ |z| − z 0 ≤ z − z 0 ce qui termine la démonstration.
1.2. NOMBRES COMPLEXES
1.2.3
7
Inverse d’un nombre complexe.
Théorème 1.2.8
1. Soient z et z 0 ∈ C. Si zz 0 = 0, on a alors z = 0 ou z 0 = 0.
2. Pour tout z ∈ C \ {0}, il existe un unique z 0 ∈ C tel que zz 0 = 1 et on a z 0 =
z
.
|z|2
Démonstration.
1. On a vu précédemment qu’un nombre complexe est nul si et seulement si il est de
module nul. Ainsi, si zz 0 = 0 alors |zz 0 | = 0. Par ailleurs, |zz 0 | = |z||z 0 |, or le produit de
deux nombres réels est nul si et seulement si au moins l’un d’entre eux est nul. On en
déduit que ou bien |z| = 0 et alors z = 0, ou bien |z 0 | = 0 et alors z 0 = 0.
2. Si zz 0 = 1, en multipliant cette égalité par z, on trouve |z|z 0 = z. Or on a |z|2 6= 0
z
z
puisque z 6= 0. 0n obtient donc que z 0 = 2 . Réciproquement, on a bien z 2 = 1. Ainsi,
|z|
|z|
z
l’équation zz 0 = 1 d’inconnue z 0 a z 0 = 2 comme seule solution.
|z|
1
Définition 1.2.9 Le nombre complexe z 0 ci-dessus est noté z 0 = ou z 0 = z −1 . On dit
z
que z 0 est l’inverse de z (pour la multiplication).
1
z1
= z1 ×
= z1 × z −1 .
Plus généralement, si z1 , z2 ∈ C et si z2 6= 0, on pose
z2
z2
Attention : Même dans C on ne peut pas diviser par 0. (En effet le produit de tout
nombre complexe par 0 vaut 0).
Remarque 1.2.10 Le calcul en coordonnées cartésiennes de
z2 = x2 + iy2 6= 0 s’obtient comme suit :
z1
avec z1 = x1 + iy1 et
z2
z1 z1 z2
z 1 z2
=
=
z2 z 2 z 2
|z2 |2
(x1 + iy1 )(x2 − iy2 )
x1 x2 + y1 y2 + i(x2 y1 − x1 y2 )
=
=
x22 + y22
x22 + y22
x1 x2 + y1 y2
x2 y1 − x1 y2
=
+i
.
2
2
x2 + y2
x22 + y22
Évidemment, seule la méthode est à connaı̂tre !
Proposition 1.2.11 Si z, z 0 sont deux nombres complexes avec z 6= 0, on a
0
z 0 |z 0 |
z0
z
=
et =
.
z
z
z
|z|
1
Démonstration. Il suffit de vérifier le résultat pour puis d’appliquer la proposition 1.2.6
z
1
au produit z 0 . Pour la première égalité on voit que
z
1
1
1
1
1
=
z = 2z =
z= .
2
z
zz
z
|z|
|z|
8
CHAPITRE 1. NOMBRES COMPLEXES
Pour la deuxième égalité, on a
1 2 1 1 1 1
1
= 2,
=
=
z
z z
zz
|z|
1
1
d’où =
en prenant la racine carrée.
z
|z|
z
avec
z0
√
√
√
√
1. z = 1 − i, z 0 = 2 + 2i ; z = 1 − i, z 0 = 1 + i 3 ; z = − 3 − i, z 0 = i.
Exercices -3- Calculer
2. z = 1 + 2i, z 0 = 3 − i ; z = 3 + 2i, z 0 = −1 + 3i ; z = 10 + 12 i, z 0 = 6 + 4i.
Une autre façon de représenter les nombres complexes est donnée par les coordonnées
polaires du vecteur associé à z. L’expérience montre que cette représentation facilite souvent les calculs faisant intervenir produits et quotients de nombres complexes. Une bonne
connaissance de la trigonométrie étudiée au lycée est ici indispensable.
1.2.4
Rappels de trigonométrie.
On note U le cercle du plan R2 de centre 0 et de rayon 1, c’est-à-dire l’ensemble des points
(x, y) ∈ R2 tels que x2 + y 2 = 1. Notons que U s’identifie aussi à l’ensemble des nombres
complexes de module 1.
Rappelons que pour tout θ ∈ R, on a bien sûr (cos θ, sin θ) ∈ U. De plus, on a
(cos θ, sin θ) = (cos α, sin α) pour deux nombres réels θ, α si et seulement si il existe k ∈ Z
tel que α − θ = 2kπ. Dans ce cas, on dit que α et θ sont égaux modulo 2π ou que α est
congru à θ modulo 2π. Cela s’écrit α ≡ θ [2π].
Rappelons aussi que pour tout M = (x, y) ∈ U, i.e. tel que x2 + y 2 = 1, il existe un
nombre réel θ tel que
cos θ = x et sin θ = y.
En général, on convient de prendre θ dans l’intervalle [0, 2π[, ce qui détermine θ de façon
−−→
unique. On dit que θ est la mesure en radians de l’angle orienté (~e1 , OM ).
On dit que U est le cercle trigonométrique. Le dessiner n’est jamais une perte de temps.
Par exemple les formules utiles suivantes :
sin(−θ) = − sin θ
cos(−θ) = cos θ
cos θ + π2 = − sin θ
sin(π + θ) = − sin θ
cos(π + θ) = − cos θ
sin θ + π2 = cos θ.
sin(π − θ) = sin θ
cos(π − θ) = − cos θ
se retrouvent RAPIDEMENT, en utilisant le cercle trigonométrique (voir figures 1.2 et
1.3).
1.2. NOMBRES COMPLEXES
9
sin
sin
π_ + θ
2
π−θ
θ
sin θ
θ+π
sin θ
− sin θ
− π_ −θ
2
Figure 1.2:
− cos θ
cos θ cos
−θ
− sin θ
−θ
- sin θ
θ
sin θ
cos θ cos
- cos θ
π_ − θ
2
cos θ
− π_ + θ
2
Figure 1.3:
Le tableau ci-dessous des valeurs de cos et sin est à retenir :
θ
0
cos θ
1
sin θ
0
π
6
√
3
2
1
2
π
4
√
2
2
√
2
2
π
3
1
2
√
3
2
π
2
0
1
Les deux formules suivantes doivent également être sues par cœur :
cos(θ + θ0 ) = cos θ cos θ0 − sin θ sin θ0 ,
(1.5)
sin(θ + θ0 ) = sin θ cos θ0 + cos θ sin θ0 .
(1.6)
Il faut savoir en déduire rapidement les autres formules. Par exemple
cos 2θ = cos2 θ − sin2 θ = 2 cos2 θ − 1 = 1 − 2 sin2 θ
=
1 − tan2 θ
,
1 + tan2 θ
sin 2θ = 2 sin θ cos θ =
2 tan θ
,
1 + tan2 θ
1
cos2 θ = (1 + cos(2θ)),
2
1
2
sin θ = (1 − cos(2θ)),
2
p+q
p−q
cos
,
cos p + cos q = 2 cos
2
2
p+q
p−q
sin p + sin q = 2 sin
cos
,
2
2
etc...
10
CHAPITRE 1. NOMBRES COMPLEXES
1.2.5
Coordonnées polaires.
Soit z un nombre complexe de module 1. D’après la section précédente, on sait qu’il existe
un unique réel θ ∈ [0, 2π[ tel que z = cos θ + i sin θ. Plus généralement, si z est un nombre
z
est de module 1, ce qui justifie la définition
complexe non nul, le nombre complexe
|z|
suivante.
Définition 1.2.12 Pour tout nombre complexe z différent de 0, l’unique réel θ ∈ [0, 2π[
tel que
z = |z|(cos θ + i sin θ)
s’appelle l’argument de z et se note Arg z. En particulier, si z = x + iy alors
cos θ = p
x
x2
+
y2
et
sin θ = p
y
x2
+ y2
.
Notation6 :
Pour tout θ ∈ R, on note eiθ = cos θ + i sin θ. Cette notation est justifiée par l’assertion 2.
de la proposition 1.2.13 ci-dessous.
iθ
z=re
y
r
π)
i (θ + __
2
iz = r e
i
θ
x
-z = r e-i θ
Figure 1.4: Le plan complexe : coordonnées polaires
Proposition 1.2.13
p
1. Pour tout θ ∈ R, on a eiθ = cos2 θ + sin2 θ = 1.
0
0
2. Pour tous θ, θ0 ∈ R, on a ei(θ+θ ) = eiθ eiθ .
0
3. Soient θ, θ0 ∈ R. On a eiθ = eiθ si et seulement si θ ≡ θ0 [2π].
6
due à Euler
1.2. NOMBRES COMPLEXES
11
Démonstration. L’assertion 1. est évidente. Pour 2. on a, en utilisant les formules trigonométriques
(1.5) et (1.6),
0
ei(θ+θ ) = cos(θ + θ0 ) + i sin(θ + θ0 )
= cos θ cos θ0 − sin θ sin θ0 + i(cos θ sin θ0 + sin θ cos θ0 )
0
= (cos θ + i sin θ)(cos θ0 + i sin θ0 ) = eiθ eiθ .
L’assertion 3. est immédiate, car
0
cos θ + i sin θ = eiθ = eiθ = cos θ0 + i sin θ0
si et seulement si cos θ = cos θ0 et sin θ = sin θ0 .
Proposition 1.2.14
1. Pour tout z ∈ C, différent de 0, on a z = |z|eiArg z .
2. Si un nombre complexe z est écrit sous le forme reiα avec r réel > 0, alors r = |z|
et α ≡ Arg z [2π].
3. Soient z, z 0 deux nombres complexes non nuls. On a
(z = z 0 ) ⇐⇒ (|z| = z 0 et Arg z ≡ Arg z 0 [2π]).
Démonstration. L’ assertion 1. est évidente, par définition du module et de l’argument.
Démontrons 2. Si z = reiα on voit que |z| = |r|eiα = r1 = r, puisque r > 0. On a
alors eiArg z = eiα , d’où la conclusion d’après la proposition précédente. L’assertion 3. est
maintenant immédiate.
0
0
Proposition 1.2.15 Si z = reiθ et z 0 = r0 eiθ , alors zz 0 = rr0 ei(θ+θ ) .
En particulier, on a
0
zz = rr0 et Arg(zz 0 ) ≡ Arg(z) + Arg z 0 [2π].
Démonstration. Résulte immédiatement des propositions 1.2.13 et 1.2.14.
Remarque 1.2.16 L’écriture z = x + iy avec x, y ∈ R est appelée la forme algébrique ou
aussi la forme cartésienne de z. Si z 6= 0, l’écriture z = reiθ (avec r > 0) est appelée la
forme polaire ou aussi la forme trigonométrique de z. Ces deux écritures sont reliées par
les relations

p



r = x2 + y 2


x = r cos θ

cos θ = √ 2x 2
et
x +y
y = r sin θ




sin θ = √ y
x2 +y 2
Insistons sur le fait que θ est seulement défini modulo 2π, sauf si on précise que θ = Arg z.
12
CHAPITRE 1. NOMBRES COMPLEXES
Exercices -41. Écrire sous forme polaire
√
√
1 − i, −1 + i, i, 1 + i 3, − 3 − i.
2. Écrire sous forme cartésienne
π
π
π
2ei 6 , 3e−2i 3 , e−i 6 , 3eiπ ,
√ iπ
3e 4 .
Réponse partielle :
p
√
iθ avec r = |z| =
2 + (−1)2 =
1Soit
z
=
1
−
i.
Alors
z
=
re
1
2. Ensuite, 1 − i =
√ 1
1
1
1
2 √2 − i √2 . Mais alors cos θ = √2 et sin θ = − √2 . On a donc θ = − π4 et 1 − i =
√ −i π
2e 4 .
π
2- Soit z = 2ei 6 . Alors
!
√
√
π
3
π
1
z = 2 cos + i sin
= 3 + i.
=2
+i
6
6
2
2
Exercices -50
1. Soient z = reiθ et z 0 = r0 eiθ deux nombres complexes avec r > 0 et r0 > 0. Déterminer la forme
z
polaire de 0 .
z
2. Soit z un nombre complexe non nul et n ∈ N. Démontrer que
`1´
≡ −Arg z [2π];
z
Arg(z n ) ≡ nArg z [2π].
Arg
1.2.6
Applications à la trigonométrie.
a) Formules d’Euler.
De la formule eiθ = cos θ + i sin θ, on déduit :
Proposition 1.2.17 (Formules d’Euler)

cos θ = eiθ +e−iθ
2
sin θ = eiθ −e−iθ .
2i
Démonstration. En effet, en additionnant les deux égalités
eiθ = cos θ + i sin θ,
(1.7)
e−iθ = cos(−θ) + i sin(−θ) = cos θ − i sin θ,
on obtient
eiθ + e−iθ = 2 cos θ
d’où
cos θ =
eiθ + e−iθ
.
2
d’où
sin θ =
eiθ − e−iθ
.
2i
Par ailleurs la soustraction donne
eiθ − e−iθ = 2i sin θ
(1.8)
1.2. NOMBRES COMPLEXES
13
Ces formules permettent de retrouver bon nombre de formules de trigonométrie. Par
exemple,
0
cos(θ + θ0 ) + i sin(θ + θ0 ) =ei(θ+θ ) = eiθ eiθ
0
=(cos θ + i sin θ)(cos θ0 + i sin θ0 )
= cos θ cos θ0 − sin θ sin θ0 + i(cos θ sin θ0 + sin θ cos θ0 ).
En comparant les parties réelles et imaginaires des deux membres, on retrouve
cos(θ + θ0 ) = cos θ cos θ0 − sin θ sin θ0
sin(θ + θ0 ) = cos θ sin θ0 + sin θ cos θ0 .
On peut en déduire cos(θ − θ0 ) et sin(θ − θ0 ), soit en remplaçant θ0 par −θ0 soit en
recommençant :
0
0
cos(θ − θ0 ) + i sin(θ − θ0 ) = ei(θ−θ ) = eiθ e−iθ = · · ·
La formule d’Euler sert aussi à exprimer cosn θ et sinn θ, n ≥ 1 (et plus généralement
des produits de cos et sin), en fonction linéaire de cos kθ ou sin kθ. Ce genre de linéarisation
est très utile pour calculer des primitives (voir cours du second semestre). Voyons sur des
exemples comment procéder.
Exemple (i) : Linéarisation de cos3 θ et sin3 θ
On écrit, grâce à la formule du binôme,
3
eiθ + e−iθ
(eiθ + e−iθ )3
cos θ =
=
2
23
h
i
1
= 3 e3iθ + 3e2iθ e−iθ + 3eiθ e−2iθ + e−3iθ
2
i
1h
= 3 e3iθ + e−3iθ + 3(eiθ + e−iθ )
2
1
3
= cos 3θ + cos θ
4
4
3
iθ
−iθ
e +e
(eiθ − e−iθ )3
3
sin θ =
=
2
23 i3
h
i
−1
= 3 e3iθ − e−3iθ + 3(eiθ − e−iθ )
2 i
−1
3
=
sin 3θ + sin θ.
4
4
3
Exemple (ii) Linéarisation de cos4 θ sin2 θ.
14
CHAPITRE 1. NOMBRES COMPLEXES
Pour transformer l’expression, on peut écrire
eiθ + e−iθ 4 eiθ − e−iθ 2
2
2i
2
1 iθ
= − (e + e−iθ )2 (eiθ + e−iθ )(eiθ − e−iθ )
64
1
= − (eiθ + e−iθ )2 (e2iθ − e−2iθ )2
64
1
= − (e2iθ + 2 + e−2iθ )(e4iθ − 2 + e−4iθ )
64
1
= − (e6iθ + e−6iθ + 2(e4iθ + e−4iθ ) − (e2iθ + e−2iθ ) − 4)
64
1
= − (cos 6θ + 2 cos 4θ − cos 2θ − 2).
32
cos4 θ sin2 θ =
(Remarquer qu’on prend bien soin de faire apparaı̂tre des quantités de la forme ekiθ +e−kiθ
ou ekiθ − e−kiθ .)
b) Formule de Moivre.
À l’inverse, cette formule sert à exprimer cos nθ et sin nθ, n ∈ N, en fonction de
puissances de cos θ et sin θ.
Proposition 1.2.18 (Formule de Moivre.) Pour tout θ ∈ R et tout entier n ∈ N, on a
(cos θ + i sin θ)n = cos nθ + i sin nθ.
Démonstration. La formule de Moivre s’écrit aussi (eiθ )n = einθ , mais elle est très utilisée
sous la forme donnée dans l’énoncé. On la démontre par récurrence. Elle est évidemment
vraie pour n = 1. Supposons la formule vraie pour l’entier n−1, c’est-à-dire que (eiθ )n−1 =
ei(n−1)θ . On en déduit que
(eiθ )n = eiθ (eiθ )n−1 = eiθ ei(n−1)θ = ei θ+(n−1)θ = einθ .
(L’hypothèse de récurrence est utilisée pour obtenir la deuxième égalité et la troisième
égalité résulte de l’assertion 2. dans la proposition 1.2.13.)
Exemple : Exprimer cos 3θ et sin 3θ en fonction de cos θ et sin θ.
On écrit cos 3θ + i sin 3θ = (cos θ + i sin θ)3 . Le développement de la puissance à l’aide de
la formule (1.4) et du triangle de Pascal donne
(cos θ + i sin θ)3 = cos3 θ + 3i cos2 θ sin θ + 3i2 cos θ sin2 θ + i3 sin3 θ
= cos3 θ − 3 cos θ sin2 θ + i(3 cos2 θ sin θ − sin3 θ).
En comparant les parties réelles et imaginaires des deux membres, on obtient
cos 3θ = cos3 θ − 3 cos θ sin2 θ
sin 3θ =3 cos2 θ sin θ − sin3 θ.
1.2. NOMBRES COMPLEXES
15
Exercice -6- En posant z = cos θ + i sin θ, démontrer à l’aide de la formule de Moivre que pour tout
n ∈ N, on a
1
1
2 cos nθ = z n + n et 2i sin nθ = z n − n .
(1.9)
z
z
Les formules (1.9) sont très pratiques pour linéariser. Par exemple, elles permettent de
retrouver immédiatement les expressions de cos3 θ et sin3 θ déjà déterminée plus haut :
1 3 1
1
1
1
3
3
z+
(z + 3 ) + 3(z + ) = cos 3θ + cos θ,
=
z
8
z
z
4
4
3
1
1
1
1
1
1
3
z−
=−
(z 3 − 3 ) − 3(z − ) = − sin 3θ + sin θ
sin3 θ =
3
(2i)
z
8i
z
z
4
4
1
cos θ =
8
3
Exercices -71. Linéariser cos4 θ, sin4 θ et cos3 θ sin2 θ.
2. Écrire cos 4θ, sin 4θ et cos 3θ sin 2θ en fonction de puissances de cos θ, sin θ.
c) Transformation de a cos x + b sin x.
On suppose que a et b ne sont pas tous les deux nuls. On écrit le nombre complexe
a + ib sous forme polaire reiθ = r cos θ + ir sin θ, c’est-à-dire a = r cos θ et b = r sin θ. On
en déduit alors que
a cos x + b sin x = r cos θ cos x + r sin θ sin x = r cos(x − θ).
Exemple :
Résoudre l’équation
cos x +
√
3 sin x =
√
3.
√
On écrit sous forme polaire, 1 + i 3 = 2 cos(π/3) + i sin(π/3) , et l’équation donnée
est donc équivalente à
√
3
cos(x − π/3) =
= cos(π/6).
2
Or, on a (dessiner le cercle trigonométrique !)
(cos α = cos β) ⇐⇒ (α ≡ ±β [2π]).
L’ensemble des solutions est donc
n
x−
c’est-à-dire x =
π
2
[2π] et x =
π
6
π
3
≡
[2π].
π
6
[2π], x −
π
3
≡ − π6 [2π],
16
1.3
CHAPITRE 1. NOMBRES COMPLEXES
Racine n-ième d’un nombre complexe
Les nombres complexes permettent de résoudre l’équation z 2 = −1 (solutions ±i). En fait,
il est possible de résoudre l’équation z n = z0 pour n’importe quel nombre complexe z0 ∈ C
et n’importe quel entier n ≥ 1. Les solutions sont appelées racines n-ièmes de z0 . Nous
allons commencer par le cas le plus important, celui où z0 = 1.
1.3.1
Racines n-ièmes de l’unité.
Théorème 1.3.1 Soit n ≥ 1. L’équation z n = 1 a exactement n solutions distinctes dans
C. Ce sont les nombres
ωk = ei
2kπ
n
où
k ∈ {0, 1, · · · , n − 1}.
Démonstration. En écrivant, sous forme polaire, z = reiθ , on a z n = rn einθ , d’où z n = 1 si
2kπ
avec
et seulement si rn = 1 et nθ ≡ 0 [2π], c’est-à-dire si et seulement si r = 1 et θ =
n
k ∈ {0, 1, · · · , n − 1} (les autres valeurs entières de k donnent les mêmes nombres, modulo
2π).
Remarque 1.3.2 Ces n nombres complexes sont appelés les racines n-ièmes de l’unité. .
Ce sont les sommets d’un polygone régulier à n côtés, inscrit dans le cercle trigonométrique.
A titre d’exercice, dessiner ces polygones pour n = 3, 4, 5.
1.3.2
Racines n-ièmes de z0 .
L’equation z n = 0 n’admet que 0 comme solution. Nous écartons désormais ce cas particulier évident z0 = 0.
Théorème 1.3.3 Soit n ≥ 1 et soit z0 = r0 eiθ0 un nombre complexe non nul écrit sous
forme polaire (on rappelle que r0 > 0). L’équation z n = z0 a exactement n solutions
distinctes dans C. Ce sont les nombres
√
n
“
”
θ
i n0 + 2kπ
n
r0 e
où
k ∈ {0, 1, · · · , n − 1}.
Démonstration. On écrit à nouveau, sous forme polaire, z = reiθ . L’équation z n = z0
devient rn einθ = r0 eiθ0 . Elle est donc équivalente aux deux équations rn = r0 et nθ ≡
θ0 [2π), ce qui donne le résultat annoncé.
Définition 1.3.4 Les solutions l’équation z n = z0 s’appellent les racines n-ièmes de z0 .
Chaque solution est appelée une racine n-ième de z0 (et non pas “ la racine n-ième de
z0 ”). Pour n = 2 on emploie le terme “racine carrée” au lieu de “racine 2-ième” Pour
n = 3, on dit “racine cubique”.
1.3. RACINE N -IÈME D’UN NOMBRE COMPLEXE
17
Remarques 1.3.5 -1- Les racines n-ièmes se cherchent en polaire (pour n = 2 on verra
toutefois dans la section suivante une autre méthode).
√
-2- La notation n z est INTERDITE. En effet elle est ambigüe puisqu’on ne sait
pas de laquelle des racines n-ièmes de z il s’agit.
√
Pour un nombre réel r > 0, par convention, n r est le seul nombre réel positif dont
la puissance n-ième vaut r. Dans C, une telle convention est impossible. Même si dans
√
certains livres vous recontrerez la notation −1 pour le nombre complexe i, nous vous
l’interdisons, car elle est source d’erreurs. Par exemple on pourrait croire, en utilisant les
√
√ 2 p
√ 2
√
règles usuelles pour ·, que −1 = (−1)2 = 1 = 1 alors que −1 = i2 = −1 !!!.
-3- Si z1 est une solution de l’équation z n = z0 , alors toutes les solutions sont de la
2kπ
forme z1 ωk , où k ∈ {0, 1, · · · n − 1} et ωk = ei n . En particulier, si n = 2, les deux
solutions de z 2 = z0 sont z1 et −z1 .
Exemple :
Calculons les racines quatrièmes de 1 − i.
√
π
En coordonnés polaires, on a 1−i = 2e−i 4 . Donc, si z = reiθ est solution de z 4 = 1−i,
√
π
alors z 4 = r4 e4iθ = 2e−i 4 , d’où
(
(
√
√
8
2
r =
2
r4 =
c’est-à-dire
,
π
π
4θ = − 4 + 2kπ
θ = − 16 + k π2
où k ∈ Z. Les 4 racines sont donc
z1 =
√
8
π
2e−i 16 ; z2 =
√
8
7π
2ei 16 ; z3 =
4
4
√
8
2ei
15π
16
; z4 =
π
7i--16
2e
π
15i--16
2e
4
4
π
2 e-i---16
π
-9i--16
2e
Figure 1.5: Les racines de z 4 = 1 − i.
Exercice -8- Calculer les racines cubiques de
1 − i,
−1 + i,
i,
√
1 + i 3,
√
− 3 − i.
√
8
9π
2e−i 16 .
18
CHAPITRE 1. NOMBRES COMPLEXES
1.4
1.4.1
Équations de degré 2 à coefficients complexes
Racines carrées d’un nombre complexe.
Soit z0 ∈ C différent de 0 et étudions l’équation z 2 = z0 . L’utilisation des coordonnées
polaires est très pratique si on connait z0 sous forme polaire z0 = r0 eiθ0 . Rappelons que
θ0
θ0
√
√
les deux racines carrées de z0 sont alors r0 ei 2 et r0 ei( 2 +π) .
Cette méthode est simple à condition qu’on puisse écrire facilement z0 sous forme
polaire.
On peut également chercher les solutions sous forme cartésienne. Pour cela écrivons
z = x + iy et z0 = x0 + iy0 .
Comme z 2 = x2 − y 2 + 2ixy, l’égalité z 2 = z0 équivaut à
(
x2 − y 2 = x0
.
2xy = y0
Remarquons par ailleurs que si z 2 = z0 , alors |z|2 = |z0 |, c’est-à-dire que x2 + y 2 = |z0 |.
On est donc amené à résoudre le système non linéaire de 3 équations à 2 inconnues.

2
2

= x0
x − y
2
2
x + y
= |z0 | .


2xy = y0
d’où
|z0 | + Re z0
|z0 | − x0
|z0 | − Re z0
x0 + |z0 |
=
et y 2 =
=
.
2
2
2
2
|z0 | + Re z0
|z0 | − Re z0
On observe ensuite que
≥ 0 et
≥ 0 car on a toujours |Re z0 | ≤ |z0 |.
2
2
On peut donc calculer les racines carrées dans R de ces nombres positifs ou nuls. On trouve
alors

q
x = ± |z0 |+Re z0
2
q
.
y = ± |z0 |−Re z0
x2 =
2
La condition 2xy = y0 = Im z0 permet maintenant de déterminer les signes ±.
Ainsi, si Im z0 ≥ 0, alors xy ≥ 0 et par conséquent x et y sont de même signe. Les
solutions sont alors z et −z avec
r
r
|z0 | + Re z0
|z0 | − Re z0
z = x + iy =
+i
.
2
2
Par contre, si Im z0 ≤ 0, alors xy ≤ 0 et par conséquent x et y sont de signe opposé. Les
solutions sont alors z et −z avec
r
r
|z0 | + Re z0
|z0 | − Re z0
z = x + iy =
−i
.
2
2
Ces formules ne sont évidemment pas à savoir, par contre la méthode est à connaı̂tre.
1.4. ÉQUATIONS DE DEGRÉ 2 À COEFFICIENTS COMPLEXES
19
Exemple :
Calculons les racines carrées de 1 − i par les deux méthodes.
-1- Par la méthode des coordonnées polaires.
√
π
On a 1 − i = 2e−i 4 . Donc si z = reiθ est solution de z 2 = 1 − i alors z 2 = r2 e2iθ =
√ −i π
2e 4 d’où
(
(
√
√
4
r2 =
2
r =
2
, c’est-à-dire
,
π
π
2θ = − 4 + 2kπ
θ = − 8 + kπ
où k ∈ Z. Les deux solutions sont donc
z1 =
√
4
π
2e−i 8
et
z2 =
√
4
2ei
7π
8
.
-2- Par la méthode des coordonnées cartésiennes.
Si z = x + iy est solution de z 2 = z0 alors z 2 = (x2 − y 2 ) + 2ixy = 1 − i donc x2 − y 2 = 1
et xy = − 12 .
√
2
2
2
Par
x2 − y 2 = 1, on trouve x2 =
√ ailleurs, |z| q= |1√− i| donne x +√y = 2 et avec
q
√
1+ 2
−1 + 2
d’où x = ± 1+2 2 et y 2 =
d’où y = ± −1+2 2 .
2
2
Enfin, comme 2xy = −1, x et y sont de signe opposé. Ainsi, les solutions sont
s
s
s
s
√
√
√
√
1+ 2
−1 + 2
1+ 2
−1 + 2
−i
et z2 = −
+i
= −z1 .
z1 =
2
2
2
2
q √
√
√
1+ 2
et 4 2 sin π8 =
En comparant les deux méthodes, on en déduit que 4 2 cos π8 =
2
q
√
q
−1+ 2
= 2(1+1√2) , soit
2
π
cos =
8
1.4.2
s
√
1+ 2
√
2 2
π
sin =
8
et
s
1
√
√ .
2 2(1 + 2)
Résolution d’équations de degré 2.
Nous sommes maintenant en mesure de résoudre l’équation az 2 +bz +c = 0 avec a, b, c ∈ C
et a 6= 0. Comme pour (1.1), on obtient (“en complétant les carrés”)
"
2
az + bz + c = a
b
z+
2a
2
∆
− 2
4a
#
(1.10)
où ∆ = b2 − 4ac ∈ C. Soit alors δ une racine carrée de ∆. On réécrit alors (1.10) comme
"
#
2
2
−b
δ
−b − δ
−b + δ
2
az + bz + c = a z −
− 2 =a z−
z−
2a
4a
2a
2a
Ainsi, les solutions de l’équation az 2 + bz + c sont
z1 =
−b − δ
2a
et
z2 =
−b + δ
,
2a
20
CHAPITRE 1. NOMBRES COMPLEXES
où δ est une racine de ∆ = b2 − 4ac. (L’autre racine de ∆ est −δ qui donne bien sûr le
même couple de solutions.)
Exemples :
-1- Résolution de l’équation x2 + x + 1 = 0.
√
√
une racine carrée est
δ = i 3. Les
On a ∆ = 12 − 4 × 1 × 1 = −3 = (i 3)2 dont
√
√
2iπ
2iπ
3
3
solutions de x2 + x + 1 = 0 sont donc x1 = −1−i
= e− 3 et x2 = −1+i
=e 3 .
2
2
√
-2- Résolution de l’équation z 2 + 2z + 1+i
4 = 0.
√ 2
√
π
1+i
On a ∆ = 2 − 4 × 1 × 4 = 1 − i dont une racine est 4 2e−i 8 . Les solutions de
√
√
√
√
π
√
4
−i π
− 2− 4 2e−i 8
z 2 + 2z + 1+i
et z2 = − 2+ 2 2e 8 .
4 = 0 sont donc z1 =
2
Si on recherche les solutions sous forme cartésienne, on écrit
√
√
4
4
√
√
π
2
π
1 √
π
2
π
1 √
4
4
sin , z2 = − ( 2 − 2 cos ) − i
sin .
z1 = − ( 2 + 2 cos ) + i
2
8
2
8
2
8
2
8
Exercices -91. Résoudre les équations suivantes :
2
a. 2x + 2x + 2 = 0 ;
4
b. x + 1 = 0 ;
2
c. x + 2ix − 5 = 0 ;
√
−1 + 2 3i
d. (1 − i)z − 2z +
= 0.
1−i
2
2. Discuter les solutions de l’équation z 2 − 2λz + 1 = 0 en fonction du paramètre λ ∈ R. Représenter
le lieu des racines dans le plan complexe z lorsque λ varie de −1 à +1.
2iπ
3. Montrer que l’équation z 4 − z 3 + z 2 + 2 = 0 admet pour racines z1 = 1 + i et z2 = e 3 . En déduire
les autres racines ainsi qu’une factorisation du polynôme z 4 − z 3 + z 2 + 2 sur R et sur C.
√
4. Déterminer les zéros complexes du polynôme x4 + 1. En déduire que x4 + 1 = (x2 + 2x + 1)(x2 −
√
2x + 1).
√
√
5. Montrer que z = 3 − i est une racine quatrième de Z = −8(1 + i 3). En déduire les solutions de
√
l’équation z 4 + 8 + 8i 3 = 0.
«n
„
z+1
= cos nx + i sin nx où x est un réel fixé.
6. Résoudre dans C l’équation
z−1
7. Déterminer les racines cubiques de (−i) (on donnera leur expression sous forme trigonométrique et
sous forme cartésienne). Quelles sont les solutions de l’équation ((1 + i)z)3 + i = 0 ?
1.5
Exercices supplémentaires
-1- Donner l’argument des nombres complexes suivants :
cos θ − i sin θ,
− sin θ + i cos θ,
sin θ + i cos θ,
− sin θ − i cos θ.
-2- Soient les nombres complexes suivants :
√
z1 = 1 + i 3,
√
z2 = 1 − i 3,
z3 = −1 + i,
√
z4 = − 3 − i.
a. Calculer z1 + z2 , z1 + z3 , z1 + z4 , z3 + z2 . Puis donner les solutions sous forme
géométrique.
1.5. EXERCICES SUPPLÉMENTAIRES
21
b. Donner z1 , z2 , z3 , z4 sous forme polaire.
c. Calculer z1 z2 , z1 z3 , z1 z4 , z3 z2 sous forme cartésienne et sous forme polaire. Donner
ensuite les solutions sous forme géométrique.
d. Calculer z14 + z23 + z32 + z4 .
e. Donner les complexes conjugués de z1 , z2 , z3 , z4 . Représenter-les dans le plan complexe.
√
√
f. Reprendre les questions ci-dessus avec z1 =
2
2
−i
2
2 ,
z2 =
1
2
√
−i
3
2
1+i
π
π
-3- Calculer de deux façons différentes √
. En déduire la valeur de cos
et sin .
12
12
3+i
iz + 2
-4- Trouver l’ensemble des points M d’affixe z tels que le nombre Z =
soit
(1 + i)z − 2
imaginaire pur.
z
|< 1.
-5- Montrer que pour tout z ∈ C on a Re (z) < 12 si et seulement si | z−1
0
0
2
0
2
-6- Montrer que pour tous z et z dans C on a | z + z | + | z − z | = 2(| z |2 + | z 0 |2 ).
Quelle est l’interprétation géométrique de ce résultat ?
1 + λi
est de module 1. Peut-on écrire sous cette forme
-7- Soit λ ∈ R. Montrer que z =
1 − λi
tout nombre complexe de module 1 ?
(
|z|
= 1
-8- Discuter de l’existence et du nombre de solutions du système d’équations
|z+a| = 1
où a ∈ C est donné.
22
CHAPITRE 1. NOMBRES COMPLEXES
Chapitre 2
Algèbre linéaire
2.1
Résolution de systèmes linéaires par la méthode de Gauss
Définition 2.1.1 Une équation de degré 1 ou (équation linéaire à n inconnues) est une
équation de la forme
a1 x1 + a2 x2 + · · · + an xn = bn .
Les nombres a1 , a2 , · · · , an , bn sont des nombres réels donnés. Les variables x1 , x2 , · · · , xn
sont les inconnues. Résoudre l’équation, c’est trouver tous les n-uplets (x1 , x2 , · · · , xn ) de
nombres réels, s’il en existe, tels que a1 x1 + a2 x2 + · · · + an xn = bn .
Un système de m équations de degré 1 (ou linéaires) à n inconnues est un système de
m équations, chacune étant linéaire à n inconnues. Résoudre le système, c’est trouver tous
les n-uplets (x1 , x2 , · · · , xn ) de nombres réels, s’il en existe, qui vérifient chaque équation
du système.
Exemple :
(
2x +5y −z = 2
,
x −5y
=3
(
2x2 +5y −z = 2
x −5y
=3
sont deux systèmes de 2 équations à 3 inconnues. Le premier est linéaire alors que le second
ne l’est pas.
La résolution d’un système d’équations de degré 1 est basée sur les principes suivants :
1. les solutions d’un système ne changent pas quand on échange deux lignes ;
2. les solutions d’un système ne changent pas quand on ajoute un multiple d’une ligne
à une autre ligne ;
3. Un système sous forme triangulaire (ou, plus généralement, échelonné) est extrêmement
simple à résoudre.
23
24
CHAPITRE 2. ALGÈBRE LINÉAIRE
Considérons par exemple:


2x +5y −z = 2
−y +2z = 1


+3z = 2
La dernière ligne donne z = 32 ; la seconde ligne donne alors −y + 2 23 = 1 et donc
y = 31 qui, reporté dans la première, donne x = 21 .
Définition 2.1.2 On dit qu’un système d’équations de degré 1 est échelonné si, pour
chaque ligne, la première inconnue qui apparaı̂t avec un coefficient non nul est affectée,
ainsi que les inconnues précédentes, d’un coefficient nul dans les lignes suivantes.
Exemple :


2x


+z +t = 1
y +2z −t = 0 ,
3t = 2


2x









+z +t = 1
y +2z −t = 0
−y +z −t = 0
3t = 2
Le premier système est échelonné alors que le deuxième ne l’est pas.
La résolution d’un système d’équations de degré 1 par la méthode de Gauss se fait en
trois étapes.
Première étape : Réduction sous forme échelonnée à l’aide de permutations et de combinaisons de lignes.
• On choisit une ligne pivot parmi les lignes qui contiennent la première inconnue (avec
un coefficient non nul) et on la place en premier. On prend la ligne la plus simple
possible.
• On retranche aux lignes suivantes un multiple de la première ligne de façon à éliminer
la première inconnue dans toute les lignes, sauf la ligne pivot.
Exemple : Résoudre


2x +5y −z −2t = 2



−x −y +2z +3t = 1

−x
+3z +4t = 2



 x +2y −z −2t = 0
(2.1)
La dernière ligne est un peu plus simple, car le coefficient de x est 1. Choisissons-la
comme ligne pivot et échangeons-la avec la première. Le système est donc équivalent
à




x
+2y
−z
−2t
=
0
x +2y −z −2t = 0






L
→L
+L
2
2
1
−x −y +2z +3t = 1

y
+z +t = 1
→ L1 ↔L4 →
→ L3 →L3 +L1 →
−x

+3z +4t = 2
2y +2z +2t = 2




L4 →L4 −2L1


 2x +5y −z −2t = 2

y
+z +2t = 2
2.1. RÉSOLUTION DE SYSTÈMES LINÉAIRES PAR LA MÉTHODE DE GAUSS 25
• On recommence avec la deuxième inconnue, puis la troisième,... jusqu’à obtenir un
système échelonné.
Exemple : Dans le système précédent, on a éliminé l’inconnue x des lignes 2 à 4.
Éliminons maintenant y des lignes 3 et 4 et ensuite z de la ligne 4 :


x +2y −z −2t




y
+z +t

2y +2z +2t




y
+z +2t


=0
x +2y −z −2t = 0




=1
L3 →L3 −2L2
y
+z +t = 1
→
→

=2
L4 →L4 −L2
0 =0




=2
t
=1
Comme l’équation 0 = 0 est toujours vérifiée, on
équivalent au système échelonné


x +2y −z −2t
y
+z +t


t
peut l’éliminer et le système est
=0
=1
=1
Deuxième étape : Séparation des inconnues.
• On sépare les inconnues en deux parties :
– celles qui restent sur la “diagonale” : inconnues principales
– les autres : inconnues secondaires.
• On fait passer les inconnues secondaires au second membre : elles serviront de paramètre.
Exemple : Dans le système


x +2y −z −2t = 0
y
+z +t = 1 ,


t
=1
les inconnues principales sont x, y et t et la seule inconnue secondaire est z. Le
système est alors équivalent à


z
x + 2y − 2t =
y + t = 1−z .


t =
1
Troisième étape :
• On remonte le système de la dernière inconnue à la première.
Exemple : Dans le système


z
x + 2y − 2t =
y + t = 1−z ,


t =
1
26
CHAPITRE 2. ALGÈBRE LINÉAIRE
la dernière équation donne t = 1, puis la deuxième équation donne y + 1 = 1 − z,
soit y = −z. Enfin la première équation donne x − 2z − 2 = z, soit x = 3z + 2.
L’ensemble des solutions du système


2x +5y −z −2t = 2



−x −y +2z +3t = 1

−x
+3z +4t = 2



 x +2y −z −2t = 0
est donc S = {(3z + 2, −z, z, 1) : z ∈ R}.
Remarque 2.1.3 Pour un système linéaire, on a trois possibilités :
• Soit il n’a aucune solution. Par exemple, la résolution du système


2x +5y −z −2t = 0



−x −y +2z +3t = 0

−x
+3z +4t = 3



 x +2y −z −2t = 0
par les opérations ci-dessus conduit à


x +2y −z −2t = 0




y
+z +t = 0

0 =3




t
=0
Ce système n’a pas de solution puisque 0 6= 3!
• Soit il a une infinité de solutions (l’exemple (2.1 ci-dessus).
• Soit il a une solution unique. C’est le cas si et seulement si il n’y a pas d’inconnues
secondaires, par exemple pour le système


x + 2y − 2z = 0
y + z = 1.


z = 1
Exercices -1- Résoudre
8
>
+ 2y + z =
<x
x
− 2y − z =
>
:
−x + y − z =
8
>
<x + 2y + z =
x − 2y − z =
>
:
x + 6y + 3z =
les systèmes suivants :
8
>
0
+ 2y + z = 1
<x
0
x
− 2y − z = 3
>
:
0
−x + y − z = 2
8
+ 2y + 2z + t =
>x
>
1 >
< 2x + 4y + 4z − 2t =
3
>−x − 2y − 2z + t =
>
2 >
:
x
+ y + z − 2t =
Pour le dernier système, il faut discuter suivant a ∈ R.
8
>
<x
x
>
:
x
2
0
0
1
+
−
+
2y
2y
6y
+
−
+
z
z
3z
8
>
x + ay + a2 z = α
>
<
a2 x + y + az = β
>
>
:
ax + a2 y + z = γ
=
=
=
.
0
0
0
2.2. STRUCTURE D’ESPACE VECTORIEL SUR R2 ET R3
z
u = (x,y)
y
27
(0,y,z)
(x,0,z)
u = (x,y,z)
k
j
x
i
IR
i
projection de
u sur les axes
projection de
u sur les plans
de coordonnees
y
j
2
x
(x,y,0)
IR
3
Figure 2.1: Les vecteurs du plan et de l’espace
2.2
2.2.1
Structure d’espace vectoriel sur R2 et R3
Définition de R2 et de R3 .
On désigne par R2 l’ensemble des couples (x, y) avec x, y ∈ R. Ces couples sont appelés
vecteurs du plan. On peut alors définir l’addition de deux couples (x, y) et (x0 , y 0 ) ainsi que
la multiplication d’un couple par un scalaire λ ∈ R à l’aide des opérations correspondantes
sur les vecteurs. Plus précisément pour
• l’addition : si ~u = (x, y), ~u0 = (x0 , y 0 ) ∈ R2 , alors ~u + ~u0 ∈ R2 est défini par
~u + ~u0 = (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
• la multiplication par un scalaire : si ~u = (x, y), λ ∈ R, alors λ~u ∈ R2 est défini par
λ~u = λ(x, y) = (λx, λy).
On désigne par R3 l’ensemble des triplets (x, y, z) avec x, y, z ∈ R. C’est l’ensemble des
vecteurs de l’espace. On définit alors l’addition et la multiplication par un scalaire comme
ci-dessus :
• l’addition : si ~u = (x, y, z), ~u0 = (x0 , y 0 , z 0 ) ∈ R3 , alors
~u + ~u0 = (x, y, z) + (x0 , y 0 , z 0 ) = (x + x0 , y + y 0 , z + z 0 ) ∈ R3
• la multiplication par un scalaire : si ~u = (x, y, z), λ ∈ R, alors
λ~u = λ(x, y, z) = (λx, λy, λz) ∈ R3 .
On notera les vecteurs nuls ~02 = (0, 0) ∈ R2 et ~03 = (0, 0, 0) ∈ R3 . Si aucune confusion
n’est possible on notera indifféremment ~0 pour ~02 ou ~03 .
Remarque 2.2.1 La multiplication de deux vecteurs n’est pas définie !
28
CHAPITRE 2. ALGÈBRE LINÉAIRE
u
u+v
v
v
λu
u
Figure 2.2: Opérations sur les vecteurs, ici λ > 1
2.2.2
R2 et R3 comme espaces vectoriels.
Les additions et multiplications définies ci-dessus ont les mêmes propriétés que l’addition
et la multiplication dans R, à savoir, pour ~u, ~v , w
~ ∈ Rn , (n = 2 ou n = 3) et λ, µ ∈ R :
1. ~u + ~0 = ~0 + ~u = ~u.
2. ~u + ~v = ~v + ~u.
3. ~u + (~v + w)
~ = (~u + ~v ) + w.
~
4. 1~u = ~u, 0~u = ~0.
5. λ(µ~u) = (λµ)~u = µ(λ~u).
6. λ(~u + ~v ) = λ~u + λ~v .
7. (λ + µ)~u = λ~u + µ~u.
En particulier ~u − ~u = 1~u + (−1)~u = (1 − 1)~u = 0~u = ~0.
Définition 2.2.2 Un ensemble E sur lequel on peut définir une opération + et une multiplication par λ ∈ R et contenant un élément ~0 tels que les propriétés 1. à 7. ci-dessus
soient vérifiées s’appelle un R-espace vectoriel.
On notera que, par définition, un espace vectoriel n’est jamais vide. Il contient au
moins l’élément ~0.
Par exemple F([0, 1]), l’espace des fonctions sur [0, 1] à valeurs dans R, avec les
opérations usuelles, est un espace vectoriel.
Dans la suite, nous verrons aussi que les solutions de certaines équations différentielles
et l’ensemble des matrices (n, m) sont également des espaces vectoriels.
2.3. VECTEURS COLINÉAIRES DANS R2
2.3
29
Vecteurs colinéaires dans R2
Définition 2.3.1 On dit que deux vecteurs ~u, ~v de R2 sont colinéaires (ou liés) s’il
existe λ, µ ∈ R, non tous deux nuls, tels que λ~u + µ~v = ~0.
Si les vecteurs ne sont pas colinéaires, on dit qu’ils sont linéairement indépendants.
Ainsi, ~u et ~v sont linéairement indépendants si et seulement si
∀λ, µ ∈ R,
(λ~u + µ~v = ~0
⇒
λ = 0 et µ = 0).
On pose
Vect(~u) = {λ~u : λ ∈ R}.
Si ~u 6= ~0, alors Vect(~u) est une droite vectorielle, notée aussi D~u . On dit qu’elle est
engendrée par ~u.
Proposition 2.3.2 Soient ~u et ~v deux vecteurs de R2 .
1. Si ~v = ~0, alors les vecteurs ~u et ~v sont liés.
2. Si ~v 6= ~0, les vecteurs ~u et ~v sont liés si et seulement si il existe λ ∈ R tel que ~u = λ~v .
Démonstration. Si ~v = ~0, l’égalité λ~u + µ~v = ~0 est vérifiée avec λ = 0 et µ = 1, et par
conséquent ~u et ~v sont liés.
Supposons maintenant que ~v 6= ~0. Supposons que ~u et ~v sont liés : il existe α et β non
tous deux nuls tels que α~u + β~v = ~0. On a nécessairement α 6= 0. En effet si α = 0, on a
β~v = ~0, d’où β = 0 puisque ~v 6= 0, ce qui est impossible (car α et β ne peuvent pas être
tous deux nuls). Comme α 6= 0, le vecteur ~u s’écrit ~u = − αβ ~v , d’où ~u = λ~v avec λ = − αβ .
Réciproquement, si ~u = λ~v , alors ~u − λ~v = ~0 et par conséquent ~u et ~v sont liés.
Remarque 2.3.3 On remarquera que ~u et ~v sont liés dès que l’un de ces deux vecteurs
est nul.
Proposition 2.3.4 Soient ~u = (a, b) et ~v = (a0 , b0 ) deux vecteurs de R2 . Alors ~u et ~v sont
colinéaires si et seulement si ab0 − a0 b = 0.
Démonstration. Nous nous plaçons dans le cas où ~v 6= ~0 (dans le cas où ~v = ~0 on a bien
sûr ab0 − a0 b = 0 et on sait d’autre part que ~u et ~v sont colinéaires).
Supposons par exemple que a0 6= 0. Alors
– si ab0 − a0 b = 0, on vérifie immédiatement que ~u = aa0 ~v ;
– s’il existe λ tel que ~u = λ~v , on a a = λa0 et b = λb0 . On obtient λ = aa0 puis b = aa0 b0 ,
c’est-à-dire ab0 − a0 b = 0 en remplaçant λ par sa valeur dans l’égalité b = λb0 .
Si b0 6= 0, on raisonne de façon analogue.
a a0 0
0
Notation : On pose det(~u, ~v ) = ab − a b = . Ce nombre est appelé le déterminant
b b0 de ~u et ~v .
30
CHAPITRE 2. ALGÈBRE LINÉAIRE
D’après la proposition précédente les vecteurs ~u et ~v sont linéairement indépendants
si et seulement si leur déterminant est non nul. Dans le cas où a0 6= 0 et b0 6= 0, cette
a
b
condition s’écrit aussi 0 = 0 .
a
b
Exercice -2- Soient ~
u et ~v deux vecteurs de R2 . Vérifier que det(~
u, ~v ) = − det(~v , ~
u) et que pour tout
λ ∈ R on a det(λ~
u, ~v ) = λ det(~
u, ~v ) = det(~
u, λ~v ).
Proposition 2.3.5 (Équation cartésienne de droite.) Soit ~u = (a, b) un vecteur non
nul. La droite D~u est l’ensemble
des points (x, y) ∈ R2 qui vérifient l’équation xb − ya = 0,
x a c’est-à-dire aussi = 0.
y b Démonstration. C’est une conséquence immédiate de la proposition 2.3.4.
La droite D~u a donc comme équation cartésienne xb − ya = 0.
Exercice -3- Soient α, β deux réels non nuls tous les deux. Démontrer que l’ensemble des points (x, y)
vérifiant l’équation αx + βy = 0 est la droite engendrée par le vecteur ~
u = (β, −α).
Proposition 2.3.6 Soient ~u, ~v ∈ R2 deux vecteurs linéairement indépendants. Alors, pour
tout w
~ ∈ R2 , il existe un unique couple (x, y) ∈ R2 tel que w
~ = x~u + y~v .
Démonstration. Si ~u = (a, b), ~v = (a0 , b0 ) et w
~ = (α, β), l’égalité x~u +y~v = w
~ est équivalente
au système de deux équation à deux inconnues

ax + a0 y = α
bx + b0 y = β
Comme ~u et ~v sont indépendants, on a en particulier ~u 6= ~0. On suppose par exemple
que a 6= 0 (si b 6= 0, on raisonne de façon analogue). En remplaçant la ligne L2 du système
par L2 − ab L1 , on voit que le système est équivalent à

ax + a0 y
(b0 − b a0 )y
a
=α
= β − ab α
aβ − bα
Comme ~u et ~v sont indépendants, on a ab0 − ba0 6= 0. On en déduit que y = 0
ab − ba0
puis, en remplaçant y par la valeur trouvée dans la première équation, on obtient x =
αb0 − βa0
. Ceci montre l’existence et l’unicité du couple (x, y) tel que w
~ = x~u + y~v .
ab0 − ba0
Définition 2.3.7 Un couple (~u, ~v ) de vecteurs de R2 tel que tout vecteur w
~ s’écrive de
façon unique sous la forme w
~ = x~u + y~v (avec x, y ∈ R) s’appelle une base de R2 .
On dit que les nombres x, y sont les coordonnées de w
~ dans la base (~u, ~v ).
Exemple : (~i, ~j), avec ~i = (1, 0) et ~j = (0, 1) est une base de R2 , dite naturelle ou
canonique
2.4. VECTEURS COLINÉAIRES ET COPLANAIRES DANS R3
31
Remarque 2.3.8 La proposition 2.3.6 montre que si les vecteurs ~u et ~v sont linéairement
indépendants, alors ils forment une base de R2 .
Réciproquement, toute base (~u, ~v ) de R2 est formée de vecteurs indépendants. En effet,
supposons que λ~u + µ~v = ~0. Comme ~0 s’écrit aussi ~0 = 0~u + 0~v , l’unicité de l’écriture de
~0 comme combinaison linéaire de ~u et ~v donne λ = 0 et µ = 0.
a a0 Remarque 2.3.9 Soient a, b, c, d quatre nombres réels tels que 6= 0. La propo b b0 sition précédente énonce que pour tout w
~ = (α, β) ∈ R2 le système

ax + a0 y = α
bx + b0 y = β
admet une unique solution. La démonstration a de plus montré que cette solution est
donnée par les formules
det(w,
~ ~v )
det(~u, w)
~
x=
, y=
.
det(~u, ~v )
det(~u, ~v )
Ces formules sont connues sous le nom de formules de Cramer.
2.4
2.4.1
Vecteurs colinéaires et coplanaires dans R3
Vecteurs colinéaires.
La définition de la colinéarité dans R3 est la même que dans R2 (et elle se généralise à
tout espace vectoriel). Nous reproduisons donc ce qui a été dit dans la section précédente.
Définition 2.4.1 On dit que deux vecteurs ~u, ~v de R3 sont colinéaires (ou liés) s’il
existe λ, µ ∈ R, non tous deux nuls, tels que λ~u + µ~v = ~0.
Si les vecteurs ne sont pas colinéaires, on dit qu’ils sont linéairement indépendants.
Ainsi, ~u et ~v sont linéairement indépendants si et seulement si
∀λ, µ ∈ R,
(λ~u + µ~v = ~0
⇒
λ = 0 et µ = 0).
On pose
Vect(~u) = {λ~u : λ ∈ R}.
Si ~u 6= ~0, alors Vect(~u) est une droite vectorielle, notée aussi D~u . On dit qu’elle est
engendrée par ~u.
Proposition 2.4.2 Soient ~u et ~v deux vecteurs de R3 .
1. Si ~v = ~0, alors les vecteurs ~u et ~v sont liés.
2. Si ~v 6= ~0, les vecteurs ~u et ~v sont liés si et seulement si il existe λ ∈ R tel que ~u = λ~v .
32
CHAPITRE 2. ALGÈBRE LINÉAIRE
Pour la démonstration voir celle de 2.3.2. L’énoncé 2.3.4 est remplacé par le suivant :
Proposition 2.4.3 Soient ~u = (a, b, c) et u~0 = (a0 , b0 , c0 ) deux vecteurs de R3 . Ces vecteurs
sont liés si et seulement si
b b0 a a0 a a0 = =
= 0.
0
0
0
b b c c c c Démonstration. De même que dans R2 , le seul cas intéressant à traiter est celui où les
vecteurs ne sont pas nuls. Nous supposons ainsi que ~v 6= 0 et que a0 6= 0 (les cas b0 6= 0 ou
c0 6= 0 ou ~u 6= 0 se traitant de façon analogue).
Dans le cas où les trois déterminants de l’énoncé sont nuls, on voit que
~u = (a, b, c) =
a
a 0 0 0
(a , b , c ) = 0 ~v .
a0
a
Réciproquement, supposons qu’il existe λ = R tel que ~u = λ~v , c’est-à-dire tel que
a
a = λa0 , b = λb0 , c = λc0 . En reportant la valeur λ = 0 dans les deux dernières égalités, on
a
trouve ab0 − ba0 = 0 et ac0 − ca0 = 0. On en déduit que ab0 c0 − ba0 c0 = 0 puis en remplaçant
ac0 par ca0 on trouve a0 (b0 c − bc0 ) = 0, d’où bc0 − cb0 = 0 en simplifiant par a0 6= 0. On
conclut que les trois déterminants s’annulent.
Remarque 2.4.4 Si a0 , b0 et c0 sont tous différents de 0, la condition énoncée dans la
proposition précédente se lit bien sûr :
b
c
a
= 0 = 0.
0
a
b
c
2.4.2
Vecteurs coplanaires.
Définition 2.4.5 On dit que trois vecteurs ~u, ~v , w
~ sont coplanaires (ou liés) s’il existe
α, β, γ ∈ R, non tous nuls, tels que α~u + β~v + γ w
~ = ~0.
Si les vecteurs ne sont pas coplanaires, on dit qu’ils sont linéairement indépendants.
Ainsi, ~u, ~v et w
~ sont linéairement indépendants si et seulement si
∀λ ∈ R, ∀µ ∈ R, ∀ν ∈ R,
(λ~u + µ~v + ν w
~ = ~0
⇒
λ = 0, µ = 0 et ν = 0).
Exercice -4- Soient ~v et w
~ deux vecteurs non colinéaires dans R3 et soit ~
u ∈ R3 . Démontrer que
~
u, ~v , w
~ sont coplanaires si et seulement si il existe λ, µ dans R tel que ~
u = λ~v + µw.
~
On note Vect(~u, ~v ) l’ensemble des vecteurs de la forme λ~u + µ~v . On se trouve dans
l’une des trois situations suivantes :
• ~u et ~v sont nuls : alors Vect(~u, ~v ) = {~0} ;
• ~u et ~v sont liés mais pas tous les deux nuls : alors Vect(~u, ~v ) est une droite vectorielle ;
2.4. VECTEURS COLINÉAIRES ET COPLANAIRES DANS R3
33
• ~u, ~v ne sont pas colinéaires : alors Vect(~u, ~v ) est un plan vectoriel. C’est l’ensemble
des vecteurs w
~ tels que ~u, ~v , w
~ soient coplanaires.
Dans ce dernier cas, Vect(~u, ~v ) est aussi noté P~u,~v . On dit que P~u,~v est le plan engendré
par les vecteurs ~u et ~v .
Proposition 2.4.6 (Représentation paramétrique de P~u,~v .) Soient ~u = (a, b, c) et
~v = (a0 , b0 , c0 ) deux vecteurs de R3 non colinéaires. Alors w
~ = (x, y, z) ∈ P~u,~v si et seulement si il existe λ, µ ∈ R tel que



x = λa + µa0


(∗)
y = λb + µb0



z = λc + µc0
Démonstration. Immédiat, compte-tenu de l’exercice 4.
Nous allons maintenant chercher une condition faisant seulement intervenir (x, y, z)
(et pas de paramètres) nécessaire et suffisante pour que w
~ = (x, y, z) appartienne à P~u,~v .
Proposition 2.4.7 (Équation cartésienne d’un plan vectoriel de R3 .) Soient ~u =
(a, b, c) et ~v = (a0 , b0 , c0 ) deux vecteurs de R3 non colinéaires. Alors w
~ = (x, y, z) ∈ P~u,~v si
et seulement si
x(bc0 − cb0 ) − y(ac0 − a0 c) + z(ab0 − ba0 ) = 0.
Démonstration. Comme ~u et ~v ne sont pas colinéaires, d’après 2.4.3 l’une au moins des
trois quantités ab0 − ba0 , ac0 − ca0 , bc0 − cb0 n’est pas nulle. Nous pouvons supposer par
exemple que ab0 − ba0 6= 0.
Soit w
~ = (x, y, z) ∈ R3 . D’après la remarque 2.3.9, le système

x = λa + µa0
y = λb + µb0
possède une unique solution
λ=
xb0 − ya0
,
ab0 − ba0
µ=
ay − bx
.
ab0 − ba0
Alors w
~ ∈ P~u,~v si et seulement si la dernière équation du système (*) est satisfaite lorsqu’on
remplace λ et µ par les valeurs trouvées ci-dessus, c’est-à-dire si et seulement si
z=
xb0 − ya0
ay − bx 0
c+ 0
c.
0
0
ab − ba
ab − ba0
Cette condition s’écrit aussi
x(bc0 − cb0 ) − y(ac0 − a0 c) + z(ab0 − ba0 ) = 0.
Nous allons indiquer une autre façon d’écrire cette équation utilisant la définition
suivante.
34
CHAPITRE 2. ALGÈBRE LINÉAIRE
Définition 2.4.8 Soient ~u = (a, b, c),~v = (a0 , b0 , c0 ), w
~ = (a00 , b00 , c00 ) trois vecteurs de R3 .
On appelle déterminant des vecteurs ~u, ~v , w,
~ le nombre réel noté det(~u, ~v , w)
~ ou encore
a a0 a00 b b0 b00 ,
c c0 c00 défini par
b0 b00 a0 a00 a0 a00 det(~u, ~v , w)
~ = a 0 00 − b 0 00 + c 0 00 .
c c c c b b Exercice -5- Soient ~
u,~v , w
~ trois vecteurs de R3 . Vérifier que det(~
u, ~v , w)
~ change de signe lorsqu’on
permute deux vecteurs (par exemple det(~
u, ~v , w)
~ = − det(w,
~ ~v , ~
u)) et que pour tout λ ∈ R on a det(λ~
u, ~v , w)
~ =
λ det(~
u, ~v , w)
~ = det(~
u, λ~v , w)
~ = det(~
u, ~v , λw).
~
Remarque 2.4.9 D’après la proposition 2.4.7, l’équation cartésienne du plan engendré
par deux vecteurs indépendants ~u = (a, b, c) et ~v = (a0 , b0 , c0 ) est
x a a0 y b b0 = 0.
z c c0 Proposition 2.4.10 Soit (a, b, c) un élément non nul de R3 . Alors ax + by + cz = 0 est
l’équation cartésienne d’un plan vectoriel de R3 .
Démonstration. Supposons par exemple que a 6= 0. Alors (x, y, z) satisfait à l’équation
c
b
ax + by + cz = 0 si et seulement si x = − y − z, donc si et seulement si
a
a
b
c
(x, y, z) = y(− , 1, 0) + z(− , 0, 1).
a
a
Par conséquent, ax + by + cz = 0 est l’équation cartésienne du plan vectoriel engendré par
b
c
les vecteurs indépendants (− , 1, 0) et (− , 0, 1).
a
a
Proposition 2.4.11 Les plans P d’équation ax + by + cz = 0 et P 0 d’équation a0 x + b0 y +
c0 z = 0 sont confondus si et seulement si il existe un réel λ 6= 0 tel que a = λa0 , b = λb0 ,
c = λc0 .
Démonstration. S’il existe λ 6= 0 tel que a = λa0 , b = λb0 , c = λc0 alors les deux équations
ax + by + cz = 0 et 0 = a0 x + b0 y + c0 z = λ1 (ax + by + cz) ont les mêmes solutions et donc
P = P 0.
Réciproquement supposons que P = P 0 . Comme (a0 , b0 , c0 ) 6= 0 nous pouvons par
exemple supposer que a0 6= 0. Les vecteurs (−b0 , a0 , 0) et (−c0 , 0, a0 ) appartiennent à P 0 et
a
donc aussi à P . Il en résulte que −b0 a + a0 b = 0 et −c0 a + a0 c = 0, c’est-à-dire b = 0 b0 et
a
a
a
c = 0 c0 . Comme a = 0 a0 , on voit que (a, b, c) = λ(a0 , b0 , c0 ) avec λ = a/a0 . De plus, on a
a
a
λ 6= 0 car (a, b, c) 6= ~0.
2.5. SOUS-ESPACES VECTORIELS
35
Remarque 2.4.12 Si les trois nombres a0 , b0 et c0 sont tous différents de 0, la condition
a
b
c
énoncée dans la proposition précédente s’écrit aussi 0 = 0 = 0 .
a
b
c
Proposition 2.4.13 Soient ~u, ~v , w
~ trois vecteurs de R3 . Alors ~u, ~v , w
~ sont coplanaires si
et seulement si det(~u, ~v , w)
~ = 0.
Démonstration. Dans le cas où ~v et w
~ sont liés, quelque soit ~u, les vecteurs ~u, ~v , w
~ sont
coplanaires, et d’autre part det(~u, ~v , w)
~ = 0 puisque
b0 b00 a0 a00 a0 a00 0 00 = 0 00 = 0 00 = 0.
c c c c b b Nous écartons donc ce cas et nous supposons que ~v et w
~ ne sont pas colinéaires. On
sait (voir l’exercice 4) que ~u, ~v , w
~ sont coplanaires si et seulement si il existe λ et µ tels
que ~u = λ~v + µw.
~ D’après la proposition 2.4.7 et la remarque 2.4.9 ceci est réalisé si et
seulement si det(~u, ~v , w)
~ = 0.
Proposition 2.4.14 Soient ~u, ~v , w
~ trois vecteurs linéairement indépendants. Alors pour
3
~
tout t ∈ R , il existe un unique (x, y, z) ∈ R3 tel que ~t = x~u + y~v + z w.
~
Ceci peut se montrer à l’aide de la méthode de Gauss (comme on l’a fait en 2.3.6),
mais les calculs sont plus laborieux.
Définition 2.4.15 Un triplet (~u, ~v , w)
~ de vecteurs de R3 tel que tout vecteur ~t ∈ R3
s’écrive de façon unique sous la forme ~t = x~u + y~v + z w
~ (avec x, y, z ∈ R) s’appelle une
3
base de R .
On dit que les nombres x, y, z sont les coordonnées de ~t dans la base (~u, ~v , w).
~
Exemple : (~i, ~j, ~k), avec ~i = (1, 0, 0), ~j = (0, 1, 0) et ~k = (0, 01) est une base de R3 ,
dite naturelle ou canonique
Remarque 2.4.16 Comme dans la remarque 2.3.8, on observe que (~u, ~v , w)
~ est une base
3
de R si et seulement si les vecteurs ~u, ~v et w
~ sont linéairement indépendants.
2.5
Sous-espaces vectoriels
Définition 2.5.1 On dit qu’une partie F d’un espace vectoriel E est un sous-espace
vectoriel de E si
1. on a ~0 ∈ F ;
2. pour tout ~u ∈ F , pour tout ~v ∈ F , on a ~u + ~v ∈ F ;
3. pour tout ~u ∈ F , pour tout λ ∈ R, on λ~u ∈ F .
36
CHAPITRE 2. ALGÈBRE LINÉAIRE
On remarquera qu’un sous-espace vectoriel n’est jamais vide : il contient toujours ~0.
Liste des sous-espaces vectoriels de R3 :
• ~0 et R3 sont des sous-espaces vectoriels de R3 ;
• Les droites vectorielles de R3 sont des sous-espaces vectoriels de R3 ;
• Les plans vectoriels de R3 sont des sous-espaces vectoriels de R3 .
Il n’y a pas d’autres sous-espaces vectoriels de R3 . En effet, soit F un sous-espace vectoriel
de R3 ; alors
• ou bien F = {~0} ;
• ou bien F contient un vecteur non nul. Dans ce cas
– ou bien tous les éléments de F sont colinéaires à ~u et alors F est la droite D~u .
– ou bien F contient deux vecteurs ~u et ~v non colinéaires. Deux cas peuvent encore
se présenter : soit tout élément w
~ ∈ F est tel que ~u, ~v , w
~ soient coplanaires et
alors F est le plan P~u,~v ; soit il existe w
~ ∈ F tel que ~u, ~v , w
~ soient linéairement
3
indépendants, et alors F = R par la proposition 2.4.14.
Exercice -6- Démontrer que tout plan vectoriel est un sous-espace vectoriel de R3 .
Exercice -7- Soient ~
u1 et ~v1 deux vecteurs linéairement indépendants du plan Pu~ ,~v . Démontrer que
tout èlément w
~ ∈ Pu~ ,~v s’écrit de façon unique sous la forme w
~ = x1 ~
u1 + y1~v1 où x1 , y1 ∈ R. On dit que
(~
u1 , ~v1 ) est une base du plan et que x1 , y1 sont les coordonnées de w
~ dans cette base.
Exercice -8- Étudier les sous-espaces vectoriels de R2 .
Proposition 2.5.2 L’intersection de deux sous-espaces vectoriels F et F 0 d’un espace
vectoriel E est un sous-espace vectoriel de E.
Démonstration. Il faut vérifier que F ∩ F 0 satisfait aux conditions 1, 2 et 3 de la définition
2.5.1. Comme ~0 appartient à F et F 0 , on a ~0 ∈ F ∩F 0 , d’où 1. Soient maintenant ~u ∈ F ∩F 0
et ~v ∈ F 0 . Comme F et F 0 vérifient 2, on a ~u + ~v ∈ F et ~u + ~v ∈ F 0 , d’où ~u + ~v ∈ F ∩ F 0 .
Ainsi F ∩ F 0 satisfait à la condition 2. La vérification de la condition 3 pour F ∩ F 0 est
également facile et laissée en exercice.
Proposition 2.5.3 L’intersection D de deux plans vectoriels P et P 0 distincts dans R3
est une droite vectorielle.
Démonstration. Soient ax+by +cz = 0 une équation cartésienne de P et a0 x+b0 y +c0 z = 0
une équation cartésienne de P 0 . Les vecteurs (x, y, z) de l’intersection sont les solutions du
système

ax + by + cz
=0
a0 x + b0 y + c0 z
= 0.
2.6. MATRICES
37
b
c
En supposant par exemple a 6= 0, la première équation donne x = − y − z. En reportant
a
a
la valeur trouvée dans la deuxième équation, on trouve que l’intersection est formée des
vecteurs (x, y, z) avec
b
c
x=− y− z
a
a
et
(ab0 − ba0 )y + (ac0 − ca0 )z = 0.
L’une des deux quantités ab0 − ba0 , ac0 − ca0 est non nulle (sinon (a, b, c) et (a0 , b0 , c0 )
0
seraient proportionnels, avec (a0 , b0 , c0 ) = aa (a, b, c), ce qui est impossible d’après la proposition 2.4.11 puisque P et P 0 sont distincts).
Supposons par exemple ab0 − ba0 6= 0. L’égalité (ab0 − ba0 )y + (ac0 − ca0 )z = 0 donne
bc0 − cb0
ca0 − ac0
z
d’où
x
=
z. Comme z est arbitraire, l’intersection est formée des
y= 0
ab − ba0
ab0 − ba0
bc0 − cb0 ca0 − ac0 vecteurs multiples de
,
, 1 . C’est donc une droite vectorielle.
ab0 − ba0 ab0 − ba0
Définition 2.5.4 Si P et P 0 sont deux plans vectoriels distincts, d’équation cartésienne
ax + by + cz = 0 et a0 x + b0 y + c0 z = 0 respectivement, on dit que

ax + by + cz
=0
a0 x + b0 y + c0 z = 0.
est un système d’équations cartésiennes de la droite D = P ∩ P 0 .
Exercice -9- Soit ~
u = (a, b, c) un vecteur non nul de R3 . Déterminer un système d’équations cartésiennes
de la droite Du~ .
2.6
2.6.1
Matrices
Généralités.
Définition 2.6.1 Une matrice de taille m × n à coefficients réels est un “tableau”
A à m-lignes et n colonnes de nombres réels ai,j , 1 ≤ i ≤ m, 1 ≤ j ≤ n. On la note
A = (ai,j )1≤i≤m,1≤j≤n ou encore




a1,1 a1,2 . . . a1,n
a1,1 a1,2 . . . a1,n




 a2,1 a2,2 . . . a2,n 
 a2,1 a2,2 . . . a2,n 

A=
..
.. 
..
.. 
..
..
 ..
 ou aussi  ..
.
.
.
.
. 
.
. 
 .
 .
am,1 am,2
. . . am,n
am,1 am,2
. . . am,n
Les nombres ai,j s’appellent les coefficients de la matrice. Le premier indice est celui de la
ligne et le second celui de la colonne.
Définition 2.6.2 Une matrice qui a le même nombre de lignes et de colonnes est dite
carrée. Dans ce cas les nombres ai,i s’appellent les coefficients diagonaux. Une matrice à une ligne s’appelle une matrice-ligne et une matrice à une colonne s’appelle une
38
CHAPITRE 2. ALGÈBRE LINÉAIRE
matrice-colonne. Si A = (ai,j )1≤i≤m,1≤j≤n
est une matrice
de taille m × n, la i-ème
ligne de la matrice A est la matrice-ligne ai,1 . . . ai,n et la j-ème colonne de A est la
matrice-colonne


a1,j
 . 
 ..  .


am,j
On note Mm,n l’ensemble des matrices à m lignes et n colonnes.
2.6.2
Opérations sur les matrices.
a) Multiplication par un scalaire
La multiplication d’une matrice par un scalaire est définie terme à terme : si A =
(ai,j )1≤i≤m,1≤j≤n et si λ ∈ R, alors
λA = (λai,j )1≤i≤m,1≤j≤n .


1 2 3 4


Exemple : Si A = 5 6 7 8  alors
9 10 11 12

 

2×1 2×2 2×3 2×4
2 4 6 8

 

2A = 2 × 5 2 × 6 2 × 7 2 × 8  = 10 12 14 16 .
2 × 9 2 × 10 2 × 11 2 × 12
18 20 22 24
b) Addition de deux matrices de même taille
L’addition de deux matrices de même taille est définie terme à terme : si A = (ai,j )1≤i≤m,1≤j≤n
et B = (bi,j )1≤i≤m,1≤j≤n alors
A + B = (ai,j + bi,j )1≤i≤m,1≤j≤n .




1 2 3 4
0 1 2 3




Exemple : Si A = 5 6 7 8  et B = 1 2 3 4 alors
9 10 11 12
2 3 4 5

 

1+0 2+1 3+2 4+3
1 3 5 7

 

A + B = 5 + 1 6 + 2 7 + 3 8 + 4  =  6 8 10 12 .
9 + 2 10 + 3 11 + 4 12 + 5
11 13 15 17
Remarque 2.6.3 On ne peut pas additionner des matrices de taille différente.
c) Multiplication de deux matrices de tailles compatibles
La multiplication de deux matrices est plus compliquée. On ne peut définir le
produit AB de deux matrices A et B que si leurs tailles sont “compatibles”.
Celà signifie que le nombre de colonnes de A doit être égal au nombre de lignes
2.6. MATRICES
39
de B : autrement dit, A = (ai,j ) est de taille m × n et B = (bi,j ) est de taille n × p. Dans
ce cas la matrice AB = (ci,j ) sera de taille m × p et définie par
ci,j =
n
X
ai,k bk,j .
k=1
Exemple :
!
!
1 2 3 4
0 1
Soit A =
et B =
. On ne peut pas calculer AB car A est de taille
5 6 7 8
1 2
2 × 4 et B est de taille 2 × 2. En revanche on peut calculer BA qui sera de taille 2 × 4. On
a
BA =
=
=
0 1
1 2
!
!
1 2 3 4
5 6 7 8
!
0×1+1×5 0×2+1×6 0×3+1×7 1×4+1×8
1×1+2×5 1×2+2×6 1×3+2×7 1×4+2×8
!
5 6 7 8
11 14 17 20
L’intérêt de cette multiplication apparaı̂tra dans la section 2.7.
Exercice -10- Parmi les matrices suivantes, quelles multiplications peut-on effectuer, quelle est la
taille des matrices obtenues, calculer ces matrices :
0
1
0
1
0
1
0 1
1 2
3
0 1 2
2 3 0 4
1
“
”
B
C
B
C
B
C
B C
A = @5 6
7 A , B = @1 2 3A , C = @0 1 2 0A , D = 1 1 1 , E = @1A.
9
10
11
2
3
4
1
1
0
1
1
Remarque 2.6.4 Même si A et B sont toutes deux carrées et
peut avoir AB 6= BA. Par exemple si



1 1 1
0 1



A = 1 0 π 
et
B= 1 0
1 1 1
2/3 0
de même taille n × n, on

2

1 ,
1
on trouve


5/3 1
4


AB = 2π/3 1 2 + π 
5/3 1
4

et

3
2 2+π


BA =  2
2
2 .
5/3 5/3 5/3
Remarque 2.6.5 Considérons les matrices
A=
!
1 0 1
0 1 0
√ 
1 − 2


B= 0
0 .
√
−1
2

et
40
CHAPITRE 2. ALGÈBRE LINÉAIRE
On a
AB =
!
0 0
.
0 0
Une matrice dont tous les coefficients sont nuls est dite nulle. Cet exemple montre que le
produit de deux matrices non nulles peut être nul !
En revanche le produit est associatif. Si A, B et C sont des matrices de taille m×n,
n × p et p × q respectivement, alors on a A(BC) = (AB)C, et par conséquent le produit
des trois matrices sera écrit ABC, sans aucune ambiguı̈té.
Le produit est également distributif par rapport à l’addition. Si A est une matrice de
taille m × n et si B et C sont de taille n × p, on a A(B + C) = AB + AC. De même si B
et C sont de taille n × p et si A est de taille p × q, on a (B + C)A = BA + CA.
d) Transposition d’une matrice
Définition 2.6.6 La transposée d’une matrice A = (ai,j ) de taille m × n , notée t A, est
la matrice de taille n × m donnée par t A = (aj,i ) :

a1,1

 a2,1
si A = 
 ..
 .
a1,2
a2,2
..
.
...
...

a1,n

a2,n 
.. 

. 

alors
a1,1

 a1,2
t
A=
 ..
 .
am,1 am,2 . . . am,n
a2,1
a2,2
..
.

. . . am,1

. . . am,2 
.. 
.
. 
a1,n a2,n . . . am,n
Elle est obtenue en échangeant les lignes et les colonnes et, dans le cas d’une matrice
carrée, par symétrie par rapport à la diagonale.
Exemple
 :



1 2 3
1 4 7




Si A = 4 5 6, alors t A = 2 5 8. Si B =
7 8 9
3 6 9
2.6.3


1 4
1 2 3


, alors t B = 2 5.
4 5 6
3 6
!
Matrices inversibles.
Dans ce paragraphe, on ne s’intéresse qu’aux matrices carrées, c’est à dire aux matrices
de taille n × n avec n entier, n ≥ 1. On note Mn l’ensemble des matrices carrées de taille
n × n.


1 0 ... 0


0 1 . . . 0

Dans Mn une matrice est d’un intérêt particulier : la matrice In =  . . .
.
.
 .. .. . . .. 
0 0 ... 1
En effet, pour toute matrice A ∈ Mn , on a AIn = In A = A. Ainsi, la matrice In joue le
même rôle que 1 dans R. On dit que c’est un élément neutre pour la multiplication et on
l’appelle matrice unité.
2.6. MATRICES
41


0 0 ... 0


0 0 . . . 0

Si 0n =  . . .
.. 
 désigne la matrice nulle de Mn , alors pour toute matrice
.
.
.
.
.
. .
0 0 ... 0
A ∈ Mn , on a A0n = 0n A = 0n et A + 0n = 0n + A = A. Ainsi, la matrice 0n est un
élément neutre pour l’addition.
On écrira plus simplement 0 et I au lieu de 0n et In si n est fixé.
On peut maintenant se demander si on peut diviser une matrice par une matrice
non nulle.
La réponse
à cette question est malheureusement NON ! Par exemple, soit


0 0 1


N = 0 0 0, alors N 2 = N.N = 0, on ne peut donc pas diviser par N (sinon, on
0 0 0
aurait N =
N2
N
=
0
N
= 0, une contradiction).
Ceci nous conduit à introduire la définition suivante :
Définition 2.6.7 On dit qu’une matrice A ∈ Mn est inversible s’il existe une matrice
B ∈ Mn telle que AB = I = BA. On note alors A−1 = B et on a
A−1 A = AA−1 = I.
Si une matrice A est inversible, la multiplication à droite BA−1 ou à gauche A−1 B par
A−1 joue alors le rôle de la division.
Attention : La multiplication à droite et la multiplication à gauche par A−1 ne donnent
pas le même résultat en général : on peut avoir A−1 B 6= BA−1 .
Par exemple, si A, B et C sont trois éléments de Mn tels que CA = B et si A et
inversible, alors C = BA−1 . Pour le voir, il suffit de multiplier à droite les deux membres
de l’égalité CA = B par A−1 . En utilisant l’associativité du produit on obtient C(AA−1 ) =
BA−1 , c’est-à-dire C = BA−1 . Mais on n’a pas en général C = A−1 B et il ne faut surtout
pas écrire C = B
A.
Exemple :
— La matrice N ci-dessus n’est pas inversible. En effet, s’il existait B tel que I = N B, alors
en multipliant par N à gauche, on aurait N = N I = N 2 B = 0B = 0, une contradiction.
Exercice -11- On considère les matrices
0
1
1 −1 0
B
C
A = @1
1
1A
0
1
1
0
et
0
B
B = @−1
1
1
1
−1
1
−1
C
−1A .
2
Vérifier que AB = BA = I. Par conséquent, A est inversible et A−1 = B.
On va voir dans le paragraphe suivant une méthode pour calculer l’inverse d’une matrice.
42
2.6.4
CHAPITRE 2. ALGÈBRE LINÉAIRE
Systèmes d’équations linéaires et matrices.
La résolution d’une équation ax = b avec a, b, x ∈ R est très facile. Si a 6= 0, en divisant
par a, il vient x = ab . Si a = 0 et b 6= 0, l’équation n’a pas de solution. Si a = b = 0, tous
les nombres réels sont solution.
L’équation AX = B avec A ∈ Mn , X, B ∈ Mn,1 n’est pas aussi aisée à résoudre
puisqu’on ne peut pas 
diviser
Pour résoudre une telle équation, notons
 par unematrice.

b1
x1
 
 
 b2 
 x2 



A = (ai,j )1≤i,j≤n , X =  .  et B = 
 .. . Alors l’équation AX = B n’est autre qu’une
.
 .. 
bn
xn
réécriture du système

a1,1 x1 + a1,2 x2 + . . . + a1,n xn = b1




 a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2
(2.2)
..
..
..
..


.
.
.
.



an,1 x1 + an,2 x2 + . . . + an,n xn = bn
On dit alors que la matrice A est la matrice du système (2.2) et la résolution d’un tel
système par la méthode de Gauss a déjà été vue.
Dans le cas où la matrice A est inversible, alors en multipliant l’équation AX = B
à gauche par A−1 , il vient
X = IX = A−1 AX = A−1 B
On trouve alors X = A−1 B qui est donc la seule solution de (2.2) (comme on l’a déjà dit
plus haut, la multiplication “à gauche” par A−1 remplace la division par A).
Cette remarque permet de donner une méthode efficace pour calculer les inverses de
matrices

 : il suffit de résoudre (par la méthode de Gauss) le système AX = B avec B =
b1
.
 ..  (voir l’exemple ci-dessous).
 
bn
Un problème important est d’avoir des critères permettant de déterminer quand une
matrice carrée A est inversible. L’un de ces critères fait intervenir le déterminant det(A)
de A. En toute
Pour une matrice
! généralité cette notion sera vue au second semestre.
0
0
a a
a a A=
de
taille
2
×
2
le
déterminant
de
A
est
det(A)
=
. Pour une matrice
b b0 b b0


a a0 a00 a a0 a00


A =  b b0 b00  de taille 3 × 3 le déterminant de A est det(A) = b b0 b00 .
c c0 c00 c c0 c00
Proposition 2.6.8 Soit A ∈ Mn (avec n = 2 ou n = 3). Les conditions suivantes sont
équivalentes :
2.7. APPLICATIONS LINÉAIRES
43
1. A est inversible.
2. Pour tout B ∈ Mn,1 le système AX = B a une solution unique.
3. det(A) 6= 0.
Démonstration. Admis.
Exemple. Inversion
d’unematrice par la méthode
de Gauss

 
 :
1 1 −1
x
b


 
 0
Soit P = −1 1 −1 . Posons X = y  et B =  b . Pour inverser P on résoud
0 1 2
z
b00
le système P X = B :




x
+
y
−
z
=
b

x + y − z = b
0
→L2 →L2 +L1
−x + y − z =
b
2y − 2z = b +b0




y + 2z =
b00
y + 2z =
b00


b
x + y − z =
→L3 →L3 − 1 L2
2y − 2z =
b
+b0
2


3z = − 21 b − 12 b0 +b00
Il faut ensuite “remonter” le système :


x +




b
y − z =
b
x + y − z =
1
0
→
y
= 3b
2y − 2z =
b
+b


1 0
1 00
1
z = − 16 b
z = −6b −6b +3b


= 21 b − 12 b0
x
→
y
= 31 b + 13 b0


z = − 61 b − 16 b0
+ 13 b0 + 13 b00
− 16 b0 + 13 b00
+ 13 b00
+ 13 b00
et la matrice P −1 est alors la matrice du système P −1 B = X :


 1

1
−
0
3
−3
0
2
2


1
1 = 1 
P −1 =  13
2 2 .
2
3
3
6
− 16 − 16 31
−1 −1 2
2.7
2.7.1
Applications linéaires
Applications linéaires et matrices.
Dans cette section, on désignera par n, p, q des entiers compris entre 1 et 3 (mais la théorie
est valable quels que soient les entiers n, p, q, ainsi que vous le verrez au second semestre).
Définition 2.7.1 On dit qu’une application f : Rn → Rp est linéaire si les deux conditions suivantes sont vérifiées :
44
CHAPITRE 2. ALGÈBRE LINÉAIRE
1. Pour tous ~u et ~v dans Rn on a f (~u + ~v ) = f (~u) + f (~v ); ;
2. Pour tout ~u ∈ Rn et tout λ ∈ R, on a f (λ~u) = λf (~u) .
.
Ces deux conditions peuvent évidemment se résumer par la seule condition :
pour tous ~u, ~v ∈ Rn et tous λ, µ ∈ R, on a f (λ~u + µ~v ) = λf (~u) + µf (~v ).
Exemples :
• L’application id : Rn → Rn définie par id(~u) = ~u est l’inéaire.
• Pour a ∈ R, l’application f : R → R définie par f(x) = ax est linéaire.
• Soit f : R3 → R une application linéaire. Posons a = f (~i), b = f (~j) et c = f (~k).
Alors on a f (x, y, z) = ax + by + zy pour tout (x, y, z) ∈ R3 . Réciproquement, étant
donnés trois nombres réels a, b, c, l’application (x, y, z) 7→ ax + by + cz est linéaire.
On a ainsi décrit toutes les applications linéaires de R3 dans R.
• Soit θ ∈ R. L’application f : R2 → R2 définie par
∀(x, y) ∈ R2 , f (x, y) = (x cos θ − y sin θ, x sin θ + y cos θ),
est linéaire.
!
cos θ − sin θ
.
sin θ cos θ
Considérons le dernier exemple ci-dessus. Notons R(θ) la matrice
!
x
et le vecteur (x0 , y 0 ) =
Écrivons le vecteur (x, y) sous forme de matrice-colonne X =
y
!
0
x
. Alors l’égalité
f (x, y) sous forme de matrice-colonne X 0 =
y0
(x0 , y 0 ) = f (x, y) = (x cos θ − y sin θ, x sin θ + y cos θ)
se représente matriciellement sous la forme X 0 = R(θ)X.
Nous allons voir que toute application linéaire admet une expression matricielle de
ce type, une fois qu’une base de l’espace de départ et qu’une base de l’espace
d’arrivée ont été fixées (dans l’exemple ci-dessus, on a travaillé relativement aux bases
canoniques, ce que l’on fait souvent, mais parfois, on a besoin de changer de base).
Avant de donner la définition générale de la matrice d’une application linéaire relativement à des bases fixées, nous allons par exemple considérer le cas d’une application
linéaire f de R3 dans R2 et définir sa matrice relativement aux bases canoniques. Nous
noterons ici (~i 0 , ~j 0 ) la base canonique de R2 , pour la distinguer, au niveau des notations,
2.7. APPLICATIONS LINÉAIRES
45
de la base (~i, ~j, ~k) de R3 . Nous commençons par écrire les trois vecteurs f (~i), f (~j), f (~k)
dans la base (~i 0 , ~j 0 ) :
f (~i) = a1,1 ~i 0 + a2,1 ~j 0 ,
f (~j) = a1,2 ~i 0 + a2,2 ~j 0 ,
f (~k) = a1,3 ~i 0 + a2,3 ~j 0 .
Soit alors ~u = (x, y, z) un vecteur de R3 . On a, par linéarité,
f (~u) = f (x~i + y~j + z~k) = xf (~i) + yf (~j) + zf (~k),
d’où en remplaçant les vecteurs f (~i), f (~j), f (~k) par leur expression, et en regroupant les
coefficients de ~i 0 et ~j 0 ,
f (~u) = a1,1 x + a1,2 y + a1,3 z ~i 0 + a2,1 x + a2,2 y + a2,3 z ~j 0 .
(2.3)
On obtient donc l’expression de (x0 , y 0 ) = f (~u) sous forme du produit matriciel suivant :
x0
y0
!
=
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3
!
 
x
 
y  .
z
 
!
x
0
x
a
a
a


1,1
1,2
1,3
En posant X 0 =
, X = y  , A =
, l’application linéaire f
y0
a2,1 a2,2 a2,3
z
est donc représentée par la formule X 0 = AX. Par exemple la valeur de f en (1, 0, −1)
s’obtient en faisant le produit
!
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3
!


1
 
 0 ,
−1
ce qui donne f (1, 0, −1) = (a1,1 − a1,3 , a2,1 − a2,3 )
Remarque 2.7.2 L’écriture (2.3) montre que, pour décrire l’applinéaire f : R3 → R2 , il
suffit de connaı̂tre l’image par f de la base (~i, ~j, ~k) de l’espace de départ R3 , c’est-à-dire
les coordonnées des vecteurs f (~i), f (~i) et f (~i) dans une base de l’espace d’arrivée R2 .
Cette observation très importante reste valable lorsqu’on remplace les entiers 3 et 2 par
des entiers n et p quelconques.
Donnons-nous plus généralement une base (~e1 , . . . , ~en ) de Rn , une base (~e1 0 , . . . , ~ep 0 )
de Rp et f : Rn → Rp une application linéaire. Pour 1 ≤ j ≤ n, posons
f (~ej ) = a1,j ~e1 0 + · · · + ap,j ~ep 0 .
46
CHAPITRE 2. ALGÈBRE LINÉAIRE
Définition 2.7.3 On dit que la matrice A = (ai,j )1≤i≤p,1≤j≤n de taille p × n est la matrice de f dans les bases (~e1 , . . . , ~en ) et (~e1 0 , . . . , ~ep 0 ). 1
Proposition 2.7.4 Soit A la matrice de f dans les bases (~e1 , . . . , ~en ) et (~e1 0 , . . . , ~ep 0 ). Soit
~u ∈ Rn , x1 , . . . , xn ses coordonnées dans la base 
(~e1 , .
. . , ~en ) et 
y1 , . 
. . , yp les coordonnées
x1
y1




.
..  et Y =  ... . Alors
de f (~u) dans la base (~e1 0 , . . . , ~ep 0 ). Posons X = 
 
 
xn
yp
Y = AX.
Démonstration. On procède exactement comme dans le cas particulier traité plus haut
avec n = 3 et p = 2.
Exemple :
On considère l’application linéaire f : R3 → R2 définie par
f (x, y, z) = (x + y + z, x + 2y + 3z).
Sa matrice dans les bases (~i, ~j, ~k) de R3 et (~i 0 , ~j 0 ) de R2 s’obtient de la façon suivante :
f (~i) =f (1, 0, 0) = (1, 1) = 1~i 0 + 1~j 0
f (~j) =f (0, 1, 0) = (1, 2) = 1~i 0 + 2~j 0
f (~k) =f (0, 0, 1) = (1, 3) = 1~i 0 + 3~j 0
!
1 1 1
La matrice de f dans ces bases est donc
.
1 2 3
Cherchons maintenant la matrice de f dans la base (~e1 , ~e2 , ~e3 ) de R3 et (~i 0 , ~j 0 ) de R2
où ~e1 = √12 (1, 1, 0), ~e2 = √12 (−1, 1, 0), ~e3 = (0, 0, 1). On a
2
3
2 3
f (~e1 ) =( √ , √ ) = √ ~i 0 + √ ~j 0
2 2
2
2
1
1
0
0
f (~e2 ) =(0, √ ) = 0~i + √ ~j
2
2
0
0
~
~
f (~e3 ) =(1, 3) = 1i + 3j
√2
2
√3
2
0
1
!
.
3
On notera que la matrice d’une application linéaire dépend des bases données de
l’espace de départ et de l’espace d’arrivée, et qu’il importe donc que celles-ci soient toujours
bien précisées.
et la matrice de f dans ces bases est
1
√1
2
(~e1 , . . . , ~en ) est une base de l’espace de départ et (~e1 0 , . . . , ~ep 0 ) est une base de l’espace d’arrivée.
2.7. APPLICATIONS LINÉAIRES
2.7.2
47
Opérations sur les applications linéaires.
On note L(Rn , Rp ) l’ensemble des applications linéaires de Rn dans Rp . On peut effectuer
sur les applications linéaires les mêmes opérations (multiplication par un nombre réel et
addition) que sur les fonctions numériques (et on obtient encore des applications linéaires) :
— Si f : Rn → Rp est une application linéaire et si λ ∈ R, on définit λf : Rn 7→ Rp par
(λf )(~u) = λ.f (~u).
— Si f, g : Rn → Rp sont des applications linéaires, on définit f + g : Rn → Rp par
(f + g)(~u) = f (~u) + g(~u).
On montre que λf et f + g, définies ci-dessus, sont aussi des applications linéaires
(exercice). L’ensemble L(Rn , Rp ) muni de ces deux opérations est un espace vectoriel.
Une autre opération couramment employée est la composition :
— Si f : Rn → Rp et g ; Rp → Rq sont deux applications linéaires, on définit g ◦ f :
Rn → Rq par
(g ◦ f )(~u) = g f (~u) .
C’est une application linéaire : si ~u, ~v ∈ Rn et λ, µ ∈ R alors, par linéarité de f et g,
on a
(g ◦ f )(λ~u + µ~v ) = g f (λ~u + µ~v ) = g λf (~u) + µf (~v ) = λg f (~u) + µg f (~v ) .
Ainsi (g ◦ f )(λ~u + µ~v ) = λ(g ◦ f )(~u) + µ(g ◦ f )(~v ) et g ◦ f est bien linéaire.
Notez que la dimension de l’espace d’arrivée de f est la dimension de l’espace de
départ de g.
Les opérations définies sur les matrices en 2.6.2 correspondent aux opérations sur les
applications linéaires. La correspondance est donnée par :
Théorème 2.7.5 Soient B = (~e1 , . . . , ~en ) une base de Rn , B 0 = (~e1 0 , . . . , ~ep 0 ) une base de
Rp et B 00 = (~e1 00 , . . . , ~eq 00 ) une base de Rq .
1. Soit f : Rn → Rp une application linéaire et soit A la matrice de f dans les bases B
et B 0 . Alors la matrice de λf dans ces bases est λA.
2. Soient f, g : Rn → Rp deux applications linéaires. Soient respectivement A et B les
matrices de f et g dans les bases B et B 0 . Alors la matrice de f + g dans ces bases
est A + B.
48
CHAPITRE 2. ALGÈBRE LINÉAIRE
3. Soient f : Rn → Rp , g : Rp → Rq deux applications linéaires. Soit A la matrice de
f dans les bases B et B 0 . Soit B la matrice de g dans les bases B 0 et B 00 . Alors la
matrice de g ◦ f dans les bases B et B 00 est BA.
Remarque 2.7.6 L’ordre du produit des matrices est le même que celui de la composition
des applications linéaires.
Démonstration. La formule pour l’addition et la multiplication par un scalaire résultent
directement de la définition de la matrice.
Pour la composition, il suffit d’utiliser la proposition 2.7.4. Soit ~u ∈ Rn et soit X la
matrice des coordonnées de ~u dans la base B. Alors la matrice des coordonnées de f (~u)
dans la base B 0 est AX et donc la matrice des coordonnées de g f (~u) dans la base B 00 est
B(AX) = (BA)X. Ainsi, la matrice de g ◦ f dans les bases B et B 00 est BA.
Exercice-type. Montrer que f : R3 → R3 définie par f (x, y, z) = (x+4y+7z, 2x+5y+8z, 3x+6y+z)
est une application linéaire. Déterminer sa matrice dans la base (~i, ~j, ~k).
Solution. Montrons d’abord que f est linéaire :
— soit ~
u = (x, y, z) ∈ R3 et λ ∈ R. Alors λ~
u = (λx, λy, λz) et donc
f (λ~
u) =f (λx, λy, λz) = (λx + 4λy + 7λz, 2λx + 5λy + 8λz, 3λx + 6λy + λz)
`
´
= λ(x + 4y + 7z), λ(2x + 5y + 8z), λ(3x + 6y + z)
=λ(x + 4y + 7z, 2x + 5y + 8z, 3x + 6y + z)
=λf (~
u).
— Soient ~
u = (x, y, z) ∈ R3 et ~v = (x0 , y 0 , z 0 ) ∈ R3 . Alors ~
u + ~v = (x + x0 , y + y 0 , z + z 0 ) et donc
f (~
u + ~v ) =f (x + x0 , y + y 0 , z + z 0 )
=(x + 4y + 7z + x0 + 4y 0 + 7z 0 , 2x + 5y + 8z + 2x0 + 5y 0 + 8z 0 , 3x + 6y + z + 3x0 + 6y 0 + z 0 )
=(x + 4y + 7z, 2x + 5y + 8z, 3x + 6y + z) + (x0 + 4y 0 + 7z 0 , 2x0 + 5y 0 + 8z 0 , 3x0 + 6y 0 + z 0 )
=f (~
u) + f (~v ).
Ainsi f est linéaire.
Calculons maintenant la matrice de f dans la base (~i, ~j, ~k) de R3 (au départ et à l’arrivée). On a
f (~i) = f (1, 0, 0) = (1, 2, 3) =1~i + 2~j + 3~k
f (~j) = f (0, 1, 0) = (4, 5, 6) =4~i + 5~j + 6~k
f (~k) = f (0, 0, 1) = (7, 8, 1) =7~i + 8~j + 1~k;
donc la matrice de f dans la base (~i, ~j, ~k) est
0
1
B
@2
3
1
7
C
8A .
1
4
5
6
Ceci termine l’exercice.
Commentaire. Regardons comment cela peut être utilisé. Par exemple, si on veut calculer f (1, 1, 1) dans
la base (~i, ~j, ~k), il suffit de faire le produit de matrices :
0
10 1 0 1
1 4 7
1
12
B
CB C B C
@2 5 8A @1A = @15A .
3
6
1
1
10
2.8. PRODUIT SCALAIRE, PRODUIT VECTORIEL, PRODUIT MIXTE
49
On trouve donc f (1, 1, 1) = 12~i + 15~j + 10~k = (12, 15, 10).
Soit maintenant g : R3 → R2 donné par g(x, y, z) = (x + y!+ z, x + 2y + 3z). La matrice de g dans les
1 1 1
.
bases (~i, ~j, ~k) de R3 et (~i0 , ~j 0 ) de R2 est donnée par
1 2 3
La matrice de g ◦ f dans les bases (~i, ~j, ~k) de R3 et (~i0 , ~j 0 ) de R2 est alors donnée par
1
0
!
! 1 4 7
6 15 16
1 1 1 B
C
=
.
@2 5 8A
14 32 26
1 2 3
3 6 1
Si on veut calculer par exemple g ◦ f (1, 0, −1) dans la base canonique, il suffit à nouveau de faire le
produit de matrices :
0 1
!
! 1
−10
6 15 16 B C
.
@ 0 A=
−12
14 32 26
−1
2.8
2.8.1
Produit scalaire, produit vectoriel, produit mixte
Produit scalaire.
Les ensembles R2 et R3 ont une structure plus riche que leur structure d’espace vectoriel :
ils ont un produit scalaire naturel. Dans ces espaces, on peut en particulier parler de la
longueur d’un vecteur, de l’orthogonalité de deux vecteurs.
Définition 2.8.1 Le produit scalaire de deux vecteurs ~u = (x, y) et ~v = (x0 , y 0 ) de
R2 est défini par
h~u, ~v i = xx0 + yy 0 .
On emploie aussi la notation ~u · ~v = h~u, ~v i = xx0 + yy 0 .
p
La norme euclidienne d’un vecteur ~u = (x, y) de R2 est définie par k~uk = x2 + y 2 .
Le produit scalaire de deux vecteurs2 ~u = (x, y, z) et ~v = (x0 , y 0 , z 0 ) de R3 est défini
par
h~u, ~v i = xx0 + yy 0 + zz 0 .
La norme euclidienne3 d’un vecteur ~u = (x, y, z) de R3 est définie par k~uk =
p
x2 + y 2 + z 2 .
Deux vecteurs ~u, ~v de R2 (ou R3 ) sont dits orthogonaux si h~u, ~v i = 0. On note alors
~u ⊥ ~v .
Remarque 2.8.2
— Souvent, on dit simplement “norme” au lieu de norme euclidienne.
p
— On a kuk = h~u, ~ui.
— La norme d’un vecteur est sa longueur.
— Le vecteur ~0 est le seul vecteur orthogonal à tous les vecteurs.
2
ces produits scalaires introduits sur R2 et R3 sont dits “canoniques” ou “naturels” ; il en existe d’autres.
de même, ces normes euclidiennes introduites sur R2 et R3 sont dites “canoniques” ou “naturelles”. Il
existe d’autres normes euclidiennes. On peut aussi définir des normes non “euclidiennes”.
3
50
CHAPITRE 2. ALGÈBRE LINÉAIRE
Proposition 2.8.3 Pour tous ~u, ~v , w
~ ∈ R2 (ou ∈ R3 ) et pour tout λ ∈ R, on a
1. h~u + ~v , wi
~ = h~u, wi
~ + h~v , wi
~ ;
2. h~u, ~v + wi
~ = h~u, ~v i + h~u, wi
~ ;
3. hλ~u, ~v i = h~u, λ~v i = λh~u, ~v i ;
4. h~u, ~v i = h~v , ~ui ;
5. h~u, ~ui ≥ 0 ;
6. h~u, ~ui = 0 si et seulement si ~u = ~0.
Démonstration. Laissée en exercice.
Proposition 2.8.4 Si ~u, ~v ∈ R2 (ou R3 ) et si λ ∈ R, alors
1. k~uk ≥ 0 ;
2. k~uk = 0 si et seulement si ~u = ~0 ;
3. kλ~uk = |λ|k~uk ;
4. |h~u, ~v i| ≤ k~ukk~v k ( inégalité de Cauchy-Schwarz). De plus on a |h~u, ~v i| = k~ukk~v k
si et seulement si ~u et ~v sont colinéaires ;
5. k~u + ~v k ≤ k~uk + k~v k (inégalité triangulaire) ;
6. k~uk − k~v k ≤ k~u + ~v k.
Démonstration. La vérification des points 1,2 et 3 est laissée en exercice. Démontrons le
point 4. Le cas où ~v = ~0 est évident. Supposons ~v 6= ~0. Pour tout λ ∈ R, on a
k~u + λ~v k2 =h~u + λ~v , ~u + λ~v i = h~u, ~ui + h~u, λ~v i + hλ~v , ~ui + hλ~v , λ~v i
=λ2 k~v k2 + 2λh~u, ~v i + k~uk2 .
Posons P (λ) = aλ2 + bλ + c avec a = k~v k2 , b = 2h~u, ~v i et c = k~uk2 . D’après ce qui précède
on a P (λ) = k~u + λ~v k2 ≥ 0 pour tout λ ∈ R. Le polynôme P n’a donc pas deux racines
réelles distinctes. Par conséquent son discriminant ∆ = b2 − 4ac est ≤ 0, c’est-à-dire qu’on
a 4h~u, ~v i2 − 4k~uk2 k~v k2 ≤ 0. Il en résulte que |h~u, ~v i| ≤ k~ukk~v k.
Supposons que |h~u, ~v i| = k~ukk~v k. Alors le discriminant de P est nul et P a une racine
réelle double λ0 . Donc P (λ0 ) = k~u + λ0~v k2 = 0 et par suite ~u + λ0~v = ~0 : ~u et ~v sont bien
colinéaires.
Réciproquement, supposons que ~u et ~v sont colinéaires, avec ~u = α~v par exemple. On
a alors |h~u, ~v i| = |α|kvk2 = k~ukk~v k.
2.8. PRODUIT SCALAIRE, PRODUIT VECTORIEL, PRODUIT MIXTE
51
L’inégalité triangulaire est une conséquence facile de l’inégalité de Cauchy-Schwarz.
On a en effet
k~u + ~v k2 =k~uk2 + k~v k2 + 2h~u, ~v i
2
≤k~uk2 + k~v k2 + 2k~ukk~v k = k~uk + k~v k ,
d’où k~u + ~v k ≤ k~uk + k~v k.
En appliquant l’inégalité triangulaire à ~u + ~v et −~v , on obtient
k~uk = k~u + ~v − ~v k ≤ k~u + ~v k + k~v k
et donc k~uk − k~v k ≤ k~u + ~v k. En échangeant ~u et ~v on obtient k~v k − k~uk ≤ k~u + ~v k et
donc k~uk − k~v k ≤ k~u + ~v k. Ceci démontre 5.
Exercice -12- Démontrer la proposition 2.8.3 ainsi que les points 1 et 2 de la proposition 2.8.4
Proposition 2.8.5 (Théorème de Pythagore.) Soient ~u et ~v deux vecteurs orthogonaux dans R2 (ou R3 ). Alors k~u + ~v k2 = k~uk2 + k~v k2 .
Démonstration. Il suffit de développer k~u + ~v k2 . On trouve
k~u + ~v k2 = k~uk2 + 2h~u, ~v i + k~v k2
puis on remarque que h~u, ~v i = 0.
Exercice -13- Soient ~
u, ~v et w
~ trois vecteurs deux à deux orthogonaux dans R3 . Démontrer que
k~
u + ~v + wk
~ 2 = k~
uk2 + k~v k2 + kwk
~ 2.
Proposition 2.8.6 Soient ~u, ~v des vecteurs non nuls de R3 (ou de R2 ). Il existe un unique
θ ∈ [0, π] tel que
h~u, ~v i = k~ukk~v k cos θ.
On dit que θ est l’angle géométrique entre ~u et ~v .
Démonstration. D’après l’inégalité de Cauchy-Schwarz, on a −1 ≤
donc un unique θ ∈ [0, π] tel que cos θ =
h~u, ~v i
≤ 1. Il existe
k~ukk~v k
h~u, ~v i
.
k~ukk~v k
Proposition 2.8.7 Si ~e1 , ~e2 ∈ R2 ou R3 sont deux vecteurs orthogonaux non nuls alors
ils ne sont pas colinéaires. Par conséquent, (~e1 , ~e2 ) est une base de R2 .
De même, si ~e1 , ~e2 , ~e3 ∈ R3 sont deux à deux orthogonaux et sont non nuls, alors ils
ne sont pas coplanaires. Par conséquent, (~e1 , ~e2 , ~e3 ) est une base de R3 .
52
CHAPITRE 2. ALGÈBRE LINÉAIRE
Démonstration. En effet, si λ~e1 + µ~e2 = ~0 alors kλ~e1 + µ~e2 k = 0. Mais, comme ~e1 , ~e2 sont
orthogonaux, λ~e1 et µ~e2 le sont aussi, et on a
kλ~e1 + µ~e2 k2 = λ2 k~e1 k2 + µ2 k~e2 k2
et donc λk~e1 k = 0 et µk~e2 k = 0. Puisque ~e1 et ~e2 ne sont pas nuls on a k~e1 k 6= 0 et
k~e2 k =
6 0, d’où λ = µ = 0. Ainsi ~e1 et ~e2 ne sont pas colinéaires.
La démonstration pour trois vecteurs de R3 est similaire (exercice).
Définition 2.8.8 Une base orthogonale de R2 est un système (~e1 , ~e2 ) de deux vecteurs
non nuls de R2 tels que ~e1 ⊥ ~e2 . On dit que la base est orthonormale (ou encore orthonormée) si de plus k~e1 k = k~e2 k = 1.
Une base orthogonale de R3 est un système (~e1 , ~e2 , ~e3 ) de trois vecteurs non nuls de
R3 tels que ~e1 ⊥ ~e2 , ~e1 ⊥ ~e3 et ~e2 ⊥ ~e3 . On dit que la base est orthonormale (ou encore
orthonormée) si de plus k~e1 k = k~e2 k = k~e3 k = 1.
Exemple :
— Dans R2 , soit ~i = (1, 0) et ~j = (0, 1). Alors (~i,D~j) est
de R2 . On
E une base
D orthonormée
E
remarque que si ~u = (x, y) ∈ R2 , alors on a x = ~u,~i et y = ~u, ~j , c’est-à-dire que
D E
D E
~u = x~i + y~j = ~u,~i ~i + ~u, ~j ~j.
En particulier
p
k~uk = x2 + y 2 =
rD
E2 D E 2
~u,~i + ~u, ~j .
— Dans R3 , soit ~i = (1, 0, 0) et ~j = (0, 1, 0), ~k = (0, 0, 1). Alors (~i, ~j, ~k) est une base
orthonormée de R3 . De plus, si ~u = (x, y, z) ∈ R3 , alors
D E
D E
D
E
~u = x~i + y~j + z~k = ~u,~i ~i + ~u, ~j ~j + ~u, ~k ~k.
En particulier
p
k~uk = x2 + y 2 + z 2 =
rD
E 2 D E2 D
E2
~u,~i + ~u, ~j + ~u, ~k .
Ces calculs restent valables en général :
Théorème 2.8.9
1. Soit (~e1 , ~e2 ) une base orthonormée de R2 et soit ~u un vecteur de R2 . Alors les coordonnées x, y de ~u dans cette base sont données par les formules
x = h~u, ~e1 i,
y = h~u, ~e2 i, et on a k~uk =
p
x2 + y 2 .
2. Soit (~e1 , ~e2 , ~e3 ) une base orthonormée de R3 et soit ~u un vecteur de R3 . Alors les
coordonnées x, y, z de ~u dans cette base sont données par les formules
2.8. PRODUIT SCALAIRE, PRODUIT VECTORIEL, PRODUIT MIXTE
x = h~u, ~e1 i,
y = h~u, ~e2 i,
z = h~u, ~e3 i, et on a k~uk =
53
p
x2 + y 2 + z 2 .
Démonstration. Démontrons par exemple ce théorème dans le cas de R2 . D’après la proposition 2.3.6, le vecteur ~u s’écrit de façon unique ~u = x~e1 + y~e2 . On a alors
h~u, ~e1 i = hx~e1 + y~e2 , ~e1 i = xh~e1 , ~e1 i + yh~e2 , ~e1 i = x
puisque h~e1 , ~e1 i = 1 et h~e2 , ~e1 i = 0. Le calcul de y s’effectue de façon analogue. Le fait que
p
k~uk = x2 + y 2 résulte du théorème de Pythagore. En effet, x~e1 et y~e2 sont orthogonaux
puisque ~e1 et ~e2 le sont, d’où kuk2 = kx~e1 k2 + kx~e2 k2 = x2 + y 2 .
Remarque 2.8.10 Ce théorème montre tout l’intérêt des bases orthonormales : on peut
facilement calculer les coordonnées d’un vecteur dans une base orthonormale. Ensuite il
est aisé de calculer la norme d’un vecteur comme on l’a vu dans le théorème précédent.
De même le calcul du produit scalaire de deux vecteurs à l’aide de leurs coordonnées dans
cette base est immédiat :
• Soit (~e1 , ~e2 ) est une base orthonormale de R2 . Si ~u = x~e1 + y~e2 et ~v = x0~e1 + y 0~e2 ,
alors
h~u, ~v i = xx0 + yy 0 .
• Soint (~e1 , ~e2 , ~e3 ) une base orthonormale de R3 . Si ~u = x~e1 + y~e2 + z~e3 et ~v =
x0~e1 + y 0~e2 + z 0~e3 , alors
h~u, ~v i = xx0 + yy 0 + zz 0 .
Exemple :
~e1 = √13 (1, 1, 1), ~e2 =
√1 (1, 0, −1),
2
~e3 = 12 (1, −2, 1) est une base orthonormale de R3 .
Remarque 2.8.11 Soit (~e1 , ~e2 ) une base orthogonale de R2 . Posons ~ε1 =
~e1
et ~ε2 =
k~e1 k
~e1
. Alors (~ε1 , ~ε2 ) est une base orthonormée de R2 . De même, on fabrique facilement
k~e2 k
une base orthonormée de R3 à partir d’une base orthogonale de R3 .
2.8.2
Produit vectoriel.
Dans R2 , il est très facile de construire des bases orthogonales. Il suffit de prendre un
vecteur ~e1 = (a, b) 6= ~0 et de se rendre compte que le vecteur ~e2 = (−b, a) est orthogonal
à ~e1 .
Dans R3 , ceci est plus compliqué. On peut à nouveau prendre un vecteur ~e1 = (a, b, c) 6=
~0 et se rendre compte que le vecteur ~e2 = (−b, a, 0) est orthogonal à ~e1 (tout comme les
vecteurs (−c, 0, a), (0, −c, b) et bien d’autres...). La difficulté consiste à construire un
troisième vecteur. Le produit vectoriel permet de le faire.
54
CHAPITRE 2. ALGÈBRE LINÉAIRE
Définition 2.8.12 On appelle produit vectoriel des vecteurs ~u = (a, b, c) et ~v = (a0 , b0 , c0 )
de R3 , le vecteur
!
b b0 c c0 a a0 ~u ∧ ~v = , , = (bc0 − cb0 , ca0 − ac0 , ab0 − ba0 ) ∈ R3 .
c c0 a a0 b b0 Proposition 2.8.13 Soient ~u, ~v , w
~ ∈ R3 et λ ∈ R. Alors
1. (λ~u) ∧ ~v = ~u ∧ (λ~v ) = λ(~u ∧ ~v ),
2. (~u + ~v ) ∧ w
~ = ~u ∧ w
~ + ~v ∧ w,
~
3. ~u ∧ (~v + w)
~ = ~u ∧ ~v + ~u ∧ w,
~
4. ~u ∧ ~v = −~v ∧ ~u
5. ~u ∧ ~v = ~0 si et seulement si ~u et ~v sont colinéaires. En particulier ~u ∧ ~u = ~0.
6. ~u ∧ ~v ⊥ ~u et ~u ∧ ~v ⊥ ~v .
Démonstration. Les quatre premiers points sont laissés en exercice. Pour le point 5, on
renvoie à la proposition 2.4.3 où le résultat a déjà été vu.
Démontrons maintenant 6. Notons toujours ~u = (a, b, c) et ~v = (a0 , b0 , c0 ), alors
h~u ∧ ~v , ~ui = (bc0 −cb0 )a+(ca0 −ac0 )b+(ab0 −ba0 )c = abc0 −acb0 +bca0 −abc0 +acb0 −bca0 = 0.
On a donc bien ~u ∧ ~v ⊥ ~u. De même on montre que ~u ∧ ~v ⊥ ~v .
Proposition 2.8.14 Soient ~e1 , ~e2 ∈ R3 des vecteurs orthogonaux non nuls. Alors
(~e1 , ~e2 , ~e1 ∧ ~e2 )
est une base orthogonale de R3 .
Démonstration. Comme ~e1 , ~e2 sont orthogonaux non nuls, ils ne sont pas colinéaires et
donc ~e1 ∧ e~2 n’est pas nul. Par suite, ~e1 , ~e2 , ~e1 ∧~e2 sont trois vecteurs non nuls deux à deux
orthogonaux ; ils forment donc une base orthogonale.
Proposition 2.8.15 Soient ~u, ~v ∈ R3 . On a alors
(h~u, ~v i)2 + k~u ∧ ~v k2 = k~uk2 k~v k2 .
(2.4)
En particulier, si ~e1 , ~e2 ∈ R3 sont orthogonaux et si k~e1 k = k~e2 k = 1, alors (~e1 , ~e2 , ~e1 ∧ ~e2 )
est une base orthonormale de R3 .
2.8. PRODUIT SCALAIRE, PRODUIT VECTORIEL, PRODUIT MIXTE
55
Démonstration. L’égalité (2.4) résulte d’un calcul direct (exercice). Si maintenant k~e1 k =
k~e2 k = 1 et si ~e1 ⊥ ~e2 alors h~e1 , ~e2 i = 0. On déduit donc de (2.4) que k~e1 ∧ ~e2 k =
k~e1 kk~e2 k = 1. Comme on sait déjà que (~e1 , ~e2 , ~e1 ∧ ~e2 ) est une base orthogonale, il en
résulte que c’est une base orthonormale.
Remarque 2.8.16 Soient ~u, ~v des vecteurs non nuls de R3 et soit θ leur angle géométrique.
On déduit immédiatement de la formule (2.4) et de la définition de θ que k~u ∧ ~v k =
k~ukk~v k sin θ (on remarquera que sin θ ≥ 0 car θ ∈ [0, π]).
R3 .
Nous avons maintenant un moyen très efficace de construire des bases orthogonales de
Il se trouve qu’elles sont toutes de cette forme :
Proposition 2.8.17 Soit (~e1 , ~e2 , ~e3 ) une base orthogonale de R3 . Alors il existe c ∈ R∗
tel que ~e3 = c~e1 ∧ ~e2 .
Si de plus, (~e1 , ~e2 , ~e3 ) est orthonormée, alors c = ±1 .
Démonstration. On peut écrire ~e1 ∧~e2 = x~e1 +y~e2 +z~e3 . Alors comme ~e1 ∧~e2 est orthogonal
à ~e1 , on a
0 = h~e1 ∧ ~e2 , ~e1 i = hx~e1 + y~e2 + z~e3 , ~e1 i = xh~e1 , ~e1 i + yh~e2 , ~e1 i + zh~e3 , ~e1 i = xk~e1 k2
puisque ~e1 , ~e2 , ~e3 sont orthogonaux. Comme ~e1 6= ~0, on a x = 0. De même, en prenant le
produit scalaire avec ~e2 , on trouve y = 0 et donc
~e1 ∧ ~e2 = z~e3 .
(2.5)
Enfin, ~e1 , ~e2 ne sont pas colinéaires, donc ~e1 ∧ ~e2 6= ~0 donc z 6= 0 et le c cherché est z1 .
Si de plus la base est orthonormée, en comparant les normes dans (2.5), on obtient
1 = k~e1 ∧ ~e2 k = kz~e3 k = |z|k~e3 k = |z|
d’où |c| = 1.
Remarque 2.8.18 On dit qu’une base orthonormée (~e1 , ~e2 , ~e3 ) est directe si
~e3 = ~e1 ∧ ~e2 .
On montre qu’on a alors aussi ~e1 = ~e2 ∧ ~e3 et ~e2 = ~e3 ∧ ~e1 .
Par exemple, la base (~i, ~j, ~k) est directe.
Exercice -14- Montrer, à partir de la définition, la formule du “double produit vectoriel” :
~
u ∧ (~v ∧ w)
~ = h~
u, wi~
~ v − h~
u, ~v iw.
~
56
CHAPITRE 2. ALGÈBRE LINÉAIRE
2.8.3
Produit mixte.
Définition 2.8.19 Soient ~u, ~v , w
~ trois vecteurs de R3 . On appelle produit mixte de ces
vecteurs le réel h~u, ~v ∧ wi.
~ On le note [~u, ~v , w],
~ ou (~u, ~v , w).
~
Remarque 2.8.20 Si ~u = (a, b, c), ~v = (a0 , b0 , c0 ), w
~ = (a00 , b00 , c00 ) alors
b0 b00 c0 c00 a0 a00 h~u, ~v ∧ wi
~ = a 0 00 + b 0 00 + c 0 00 = a(b0 c00 − c0 b00 ) + b(c0 a00 − a0 c00 ) + c(a0 b00 − b0 a00 ).
c c a a b b Ainsi le produit mixte [~u, ~v , w]
~ n’est autre que le déterminant det(~u, ~v , w)
~ des vecteurs
~u, ~v , w.
~
Les propriétés du produit mixte proviennent directement des propriétés du produit
scalaire et du produit vectoriel (et on retrouve ainsi certaines propriétés du déterminant
mentionnées dans l’exercice 5) :
Proposition 2.8.21 Soient ~u, ~v , w
~ trois vecteurs de R3 . Alors
1. h~u, ~v ∧ wi
~ = h~u ∧ ~v , wi.
~
2. Quand on permute deux éléments dans [~u, ~v , w],
~ on change le signe :
[~v , ~u, w]
~ = −[~u, ~v , w],
~
[w,
~ ~v , ~u] = −[~u, ~v , w],
~
[~u, w,
~ ~v ] = −[~u, ~v , w]
~
Donc, quand on permute deux fois on ne change pas le produit mixte (ce qui revient
à faire une permutation circulaire) :
[~u, ~v , w]
~ = [w,
~ ~u, ~v ] = [~v , w,
~ ~u].
3. Soient de plus λ, µ ∈ R et ~u 0 , ~v 0 , w
~ 0 ∈ R3 , alors
[λ~u + µ~u 0 , ~v , w]
~ =λ[~u, ~v , w]
~ + µ[~u 0 , ~v , w]
~
[~u, λ~v + µ~v 0 , w]
~ =λ[~u, ~v , w]
~ + µ[~u, ~v 0 , w]
~
[~u, ~v , λw
~ + µw
~ 0 ] =λ[~u, ~v , w]
~ + µ[~u, ~v , w
~ 0 ].
Remarque 2.8.22 Il en résulte que [~u, ~u, w]
~ = 0, car d’après le point 2 de la proposition
précédente, [~u, ~u, w]
~ = −[~u, ~u, w].
~ De même [~u, ~v , ~u] = [~u, ~v , ~v ] = 0. En résumé, si deux
des vecteurs dans un produit mixte sont égaux, alors le produit mixte est nul. Rappelons
qu’on a démontré plus généralement dans la proposition 2.4.13 que les vecteurs ~u, ~v , w
~
sont coplanaires si et seulement si det(~u, ~v , w)
~ = 0, c’est-à-dire si et seulement si le produit
mixte [~u, ~v , w]
~ = 0.