Sous-sections
Considérons les trois vecteurs suivants de l'espace vectoriel :
|
(1.23) |
Effectuons une combinaison linéaire de ces vecteurs :
(
)
et cherchons pour quelles valeurs de
,
,
,
cette combinaison linéaire est égale au vecteur nul
=(0,0,0). On a :
=
(1,0,0)+
(0,1,0)+
(0,0,1)=(0,0,0)
La multiplication par les scalaires donne :
|
(1.24) |
Manifestement, cette relation vectorielle est vérifiée si et seulement si :
|
(1.25) |
On dit que ces trois vecteurs
,
,
sont
linéairement
.
Par contre, si l'on prend les deux vecteurs suivants :
=(3,4,-2) et
=(6,8,-4), et que l'on cherche
et
tels que
, on obtient, en remarquant que
:
|
(1.26) |
ce qui implique que
puisque
n'est pas
nul. Tous les nombres
et
qui vérifient
permettent de satisfaire la relation vectorielle
précédente. On dit que les vecteurs
et
sont linéairement
: l'un peut se déduire de l'autre.
Pour plus de deux vecteurs, on dira qu'ils sont linéairement
dépendants si l'un d'entre eux peut être déterminé à partir des
autres.
Considérons vecteurs
d'un espace vectoriel et écrivons
qu'une combinaison linéaire de ces vecteurs est égale au vecteur nul,
soit :
|
(1.27) |
Si la seule combinaison linéaire qui vérifie cette égalité correspond
à des scalaires
tous nuls, on dit que ces vecteurs sont
linéairement indépendants. On a un système de vecteurs
indépendants.
Dans le cas contraire, les vecteurs sont linéairement dépendants et l'un
au moins d'entre eux est une combianaison linéaire des autres. Supposons par
exemple que
soit différent de zéro dans l'égalité
précédente, on a alors :
|
(1.28) |
En prélevant un certain nombre de vecteurs dans un espace vectoriel , on
peut former des ensembles de vecteurs indépendants. Il existe des espaces
vectoriels où le nombre de vecteurs formant un système linéairement
indépendant n'est pas fini mais nous ne les considérons pas ici.
On suppose donc que le nombre maximum de vecteurs indépendants est borné et
l'on appelle ce nombre maximum. Cela signifie, qu'après avoir choisi
vecteurs indépendants, si l'on ajoute un vecteur quelconque, le système
devient dépendant. Un tel système de vecteurs indépendants est
appelé une base de l'espace vectoriel E.
Ces vecteurs indépendants sont appelés des vecteurs de base. Ils
forment un système de vecteurs qui sera noté sous la forme
ou plus brièvement
. Pour rappeler
que l'espace vectoriel comporte vecteurs de base, on le note .
Le nombre est appelé la dimension de l'espace vectoriel . Un
espace vectoriel de dimension sera noté .
Exemple - Les trois vecteurs
,
,
, constituent une base de l'espace vectoriel . La
dimension de cet espace est égale à trois.
Soient
une base d'un espace vectoriel . Le
système suivant de vecteurs :
est
formé de vecteurs linéairement dépendants ; si l'on a :
|
(1.29) |
On peut ainsi décomposer sur la base le vecteur
qui peut être
représenté par une combinaison linéaire des vecteurs de base :
|
(1.30) |
avec
. Cette combinaison est unique, car si
l'on avait une autre décomposition :
|
(1.31) |
on en déduirait :
|
(1.32) |
Les vecteurs
étant indépendants, une telle relation n'est
possible que si tous les termes
sont nuls, donc si
, ce qui correspond à deux décompositions identiques.
Les nombres sont les
du vecteur
par rapport à
la base
. D'où le théorème suivant : Dans un espace
vectoriel où existe une base
, tout vecteur peut
s'exprimer d'une manière et d'une seule par une combinaison linéaire des
vecteurs formant cette base.
Exemple 1 - Tout vecteur
de l'espace vectoriel
peut être décomposé sur la base
. On obtient :
Dans cette base, les composantes du vecteur sont identiques aux nombres qui
figurent dans le triplet qui définit le vecteur lui-même. Il n'en est
évidemment pas de même lorsque la base est quelconque.
Exemple 2 - L'espace vectoriel des polynômes de degré 2 admet, par
exemple, la base suivante :
,
,
. Tout
polynôme de degré deux se décompose sur cette base sous la forme :
,
avec
.
Soient deux bases (
) et (
) d'un
espace vectoriel . Chaque vecteur d'une base peut être décomposé
sur l'autre base sous la forme suivante :
|
(1.33) |
|
(1.34) |
où l'on utilise la convention de sommation pour
.
Changement des composantes d'un vecteur - Un vecteur
de peut
être décomposé sur chaque base sous la forme :
|
(1.35) |
Cherchons les relations entre les composantes et .
Remplaçons les vecteurs
et
dans la relation
(1.35) par leur expression respective (1.33) et (1.34); il vient :
|
(1.36) |
Par suite de l'unicité de la décomposition d'un vecteur sur une base, on
peut égaler les coefficients des vecteurs
et l'on obtient :
|
(1.37) |
De même, les coefficients des vecteurs
donnent :
|
(1.38) |
Ce sont les formules de changement de base des composantes d'un vecteur. On
remarque que les composantes d'un vecteur quelconque se transforment de
façon contraire de celle des vecteurs de base (voir (1.33) et
(1.34)), les grandeurs et s'échangeant. Par suite de ce genre de
transformation, ces composantes sont appelées des composantes
contravariantes.
Matrice de changement de base - Les relations (1.33) et (1.34) nous donnent :
|
(1.39) |
d'òu :
|
(1.40) |
La matrice de changement de base
a donc pour matrice inverse
. On a la relation :
, où est la matrice
unité. En vertu de la règle donnant le déterminant du produit des
matrices, on a :
|
(1.41) |
Les déterminants de deux matrices inverses sont inverses l'un de l'autre.
|