| 
 Sous-sections
 
 
 Considérons les trois vecteurs suivants de l'espace vectoriel
  : 
 
|  | (1.23) |  
 
Effectuons une combinaison linéaire de ces vecteurs :
(
 )
et cherchons pour quelles valeurs de  ,  ,  , 
cette combinaison linéaire est égale au vecteur nul  =(0,0,0). On a : 
 =
  (1,0,0)+
  (0,1,0)+
  (0,0,1)=(0,0,0)
 
La multiplication par les scalaires donne : 
|  | (1.24) |  
 
Manifestement, cette relation vectorielle est vérifiée si et seulement si : 
|  | (1.25) |  
 
On dit que ces trois vecteurs 
 ,  ,  sont
linéairement  . 
Par contre, si l'on prend les deux vecteurs suivants : 
 =(3,4,-2) et  =(6,8,-4), et que l'on cherche  et  tels que  , on obtient, en remarquant que  : 
|  | (1.26) |  
 
ce qui implique que 
 puisque  n'est pas
nul. Tous les nombres  et  qui vérifient  permettent de satisfaire la relation vectorielle
précédente. On dit que les vecteurs  et  sont linéairement  : l'un peut se déduire de l'autre. 
 
Pour plus de deux vecteurs, on dira qu'ils sont linéairement
dépendants si l'un d'entre eux peut être déterminé à partir des
autres. 
Considérons  vecteurs  d'un espace vectoriel  et écrivons
qu'une combinaison linéaire de ces  vecteurs est égale au vecteur nul,
soit : 
|  | (1.27) |  
 
Si la seule combinaison linéaire qui vérifie cette égalité correspond
à des scalaires 
 tous nuls, on dit que ces  vecteurs sont
linéairement indépendants. On a un système de  vecteurs
indépendants. 
 
Dans le cas contraire, les vecteurs sont linéairement dépendants et l'un
au moins d'entre eux est une combianaison linéaire des autres. Supposons par 
exemple que 
 soit différent de zéro dans l'égalité
précédente, on a alors : 
|  | (1.28) |  
 
En prélevant un certain nombre de vecteurs dans un espace vectoriel  , on
peut former des ensembles de vecteurs indépendants. Il existe des espaces 
vectoriels où le nombre de vecteurs formant un système linéairement
indépendant n'est pas fini mais nous ne les considérons pas ici. On suppose donc que le nombre maximum de vecteurs indépendants est borné et
l'on appelle
  ce nombre maximum. Cela signifie, qu'après avoir choisi  vecteurs indépendants, si l'on ajoute un vecteur quelconque, le système
devient dépendant. Un tel système de  vecteurs indépendants est 
appelé une base de l'espace vectoriel E. Ces
  vecteurs indépendants sont appelés des vecteurs de base. Ils 
forment un système de  vecteurs qui sera noté sous la forme  ou plus brièvement  . Pour rappeler
que l'espace vectoriel comporte  vecteurs de base, on le note  . Le nombre
  est appelé  la dimension de l'espace vectoriel  . Un
espace vectoriel de dimension  sera noté  . 
 
Exemple - Les trois vecteurs 
 ,  ,  , constituent une base de l'espace vectoriel  . La
dimension de cet espace est égale à trois. 
Soient 
 une base d'un espace vectoriel  . Le
système suivant de  vecteurs :  est
formé de vecteurs linéairement dépendants ; si l'on a : 
 
|  | (1.29) |  
 
On peut ainsi décomposer sur la base  le vecteur  qui peut être
représenté par une combinaison linéaire des vecteurs de base : 
 
|  | (1.30) |  
 
avec 
 . Cette combinaison est unique, car si 
l'on avait une autre décomposition : 
|  | (1.31) |  
 
on en déduirait : 
|  | (1.32) |  
 
Les vecteurs 
 étant indépendants, une telle relation n'est
possible que si tous les termes  sont nuls, donc si  , ce qui correspond à deux décompositions identiques. Les nombres
  sont les  du vecteur  par rapport à
la base  . D'où le théorème suivant : Dans un espace
vectoriel  où existe une base  , tout vecteur peut
s'exprimer d'une manière et d'une seule par une combinaison linéaire des
vecteurs formant cette base. 
 
Exemple 1 - Tout vecteur 
 de l'espace vectoriel  peut être décomposé sur la base  . On obtient : 
 
 
Dans cette base, les composantes du vecteur sont identiques aux nombres qui
figurent dans le triplet qui définit le vecteur lui-même. Il n'en est
évidemment pas de même lorsque la base est quelconque.
 
Exemple 2 - L'espace vectoriel des polynômes  de degré 2 admet, par
exemple, la base suivante :  ,  ,  . Tout
polynôme de degré deux se décompose sur cette base sous la forme :  ,
avec  . 
Soient deux bases (
 ) et (  ) d'un
espace vectoriel  . Chaque vecteur d'une base peut être décomposé
sur l'autre base sous la forme suivante : 
|  | (1.33) |  
 
|  | (1.34) |  
 
où l'on utilise la convention de sommation pour 
 . 
 
Changement des composantes d'un vecteur - Un vecteur 
 de  peut
être décomposé sur chaque base sous la forme : 
|  | (1.35) |  
 
Cherchons les relations entre les composantes  et  .
Remplaçons les vecteurs  et  dans la relation
 (1.35) par leur expression respective (1.33) et (1.34); il vient : 
|  | (1.36) |  
 
Par suite de l'unicité de la décomposition d'un vecteur sur une base, on
peut égaler les coefficients des vecteurs 
 et l'on obtient : 
|  | (1.37) |  
 
De même, les coefficients des vecteurs 
 donnent : 
|  | (1.38) |  
 
Ce sont les formules de changement de base des composantes d'un vecteur. On
remarque que les composantes d'un vecteur quelconque se transforment de
façon contraire de celle des vecteurs de base (voir (1.33) et
 (1.34)), les grandeurs  et  s'échangeant. Par suite de ce genre de
transformation, ces composantes sont appelées des composantes
contravariantes. 
 
Matrice de changement de base - Les relations (1.33) et (1.34) nous donnent : 
|  | (1.39) |  
 
d'òu : 
|  | (1.40) |  
 
La matrice de changement de base 
![$ A=[A'^{k}_{i}]$](img152.gif) a donc pour matrice inverse ![$ A^{-1}=[A^{i}_{k}]$](img153.gif) . On a la relation :  , où  est la matrice
unité. En vertu de la règle donnant le déterminant du produit des
matrices, on a : 
|  | (1.41) |  
 
Les déterminants de deux matrices inverses sont inverses l'un de l'autre.
 
 
 |