DOURNAC.ORG
Français  English
 
   

Sciences > Cours de Calcul Tensoriel - Les vecteurs - Bases d'un espace vectoriel


 
next up previous contents

suivant: Produit scalaire monter: Les vecteurs précédent: Généralisation de la notion   Table des matières

Sous-sections


Bases d'un espace vectoriel

Exemples de vecteurs indépendants et dépendants

Considérons les trois vecteurs suivants de l'espace vectoriel $ E_{3}$ :

$\displaystyle \mathbf{e_{1}}=(1,0,0), \mathbf{e_{2}}=(0,1,0), \mathbf{e_{3}}=(0,0,1)$ (1.23)

Effectuons une combinaison linéaire de ces vecteurs : ( $ \lambda_{1}\,\mathbf{e_{1}}+\lambda_{2}\,\mathbf{e_{2}}+\lambda_{3}\,\mathbf{e_{3}}$) et cherchons pour quelles valeurs de $ \lambda_{1}$, $ \lambda_{2}$, $ \lambda_{3}$, cette combinaison linéaire est égale au vecteur nul $ \mathbf{0}$=(0,0,0). On a :

$ \lambda_{1}\,\mathbf{e_{1}}+\lambda_{2}\,\mathbf{e_{2}}+\lambda_{3}\,\mathbf{e_{3}}$= $ \lambda_{1}$(1,0,0)+ $ \lambda_{2}$(0,1,0)+ $ \lambda_{3}$(0,0,1)=(0,0,0)

La multiplication par les scalaires donne :

$\displaystyle (\lambda_{1},0,0)+(0,\lambda_{2},0)+(0,0,\lambda_{3})=(0,0,0)$ (1.24)

Manifestement, cette relation vectorielle est vérifiée si et seulement si :

$\displaystyle \lambda_{1}=\lambda_{2}=\lambda_{3}=0$ (1.25)

On dit que ces trois vecteurs $ \mathbf{e_{1}}$, $ \mathbf{e_{2}}$, $ \mathbf{e_{3}}$ sont linéairement $ ind\acute{e}pendants$.

Par contre, si l'on prend les deux vecteurs suivants : $ \mathbf{x}$=(3,4,-2) et $ \mathbf{y}$=(6,8,-4), et que l'on cherche $ \lambda_{1}$ et $ \lambda_{2}$ tels que $ \lambda_{1}\,\mathbf{x}+\lambda_{2}\mathbf{y}=\mathbf{0}$, on obtient, en remarquant que $ \mathbf{y}=2\mathbf{x}$ :

$\displaystyle \lambda_{1}\,\mathbf{x}+\lambda_{2}\,\mathbf{y}=(\lambda_{1}+2\lambda_{2})\,\mathbf{x}=\mathbf{0}$ (1.26)

ce qui implique que $ (\lambda_{1}+2\lambda_{2})=0$ puisque $ \mathbf{x}$ n'est pas nul. Tous les nombres $ \lambda_{1}$ et $ \lambda_{2}$ qui vérifient $ \lambda_{1}=-2\lambda_{2}$ permettent de satisfaire la relation vectorielle précédente. On dit que les vecteurs $ \mathbf{x}$ et $ \mathbf{y}$ sont linéairement $ d\acute{e}pendants$ : l'un peut se déduire de l'autre.

Pour plus de deux vecteurs, on dira qu'ils sont linéairement dépendants si l'un d'entre eux peut être déterminé à partir des autres.

Vecteurs de base

Considérons $ p$ vecteurs $ \mathbf{x_{i}}$ d'un espace vectoriel $ E$ et écrivons qu'une combinaison linéaire de ces $ p$ vecteurs est égale au vecteur nul, soit :

$\displaystyle \lambda_{1}\,\mathbf{x_{1}}+\lambda_{2}\,\mathbf{x_{2}}+...+\lambda_{i}\,\mathbf{x_{i}}=\mathbf{0}$ (1.27)

Si la seule combinaison linéaire qui vérifie cette égalité correspond à des scalaires $ \lambda_{i}$ tous nuls, on dit que ces $ p$ vecteurs sont linéairement indépendants. On a un système de $ p$ vecteurs indépendants.

Dans le cas contraire, les vecteurs sont linéairement dépendants et l'un au moins d'entre eux est une combianaison linéaire des autres. Supposons par exemple que $ \lambda_{1}$ soit différent de zéro dans l'égalité précédente, on a alors :

$\displaystyle \mathbf{x_{1}}=(-1/\lambda_{1})\,(\lambda_{2}\,\mathbf{x_{2}}+...+\lambda_{p}\,\mathbf{x_{p}})$ (1.28)

En prélevant un certain nombre de vecteurs dans un espace vectoriel $ E$, on peut former des ensembles de vecteurs indépendants. Il existe des espaces vectoriels où le nombre de vecteurs formant un système linéairement indépendant n'est pas fini mais nous ne les considérons pas ici.
On suppose donc que le nombre maximum de vecteurs indépendants est borné et l'on appelle $ n$ ce nombre maximum. Cela signifie, qu'après avoir choisi $ n$ vecteurs indépendants, si l'on ajoute un vecteur quelconque, le système devient dépendant. Un tel système de $ n$ vecteurs indépendants est appelé une base de l'espace vectoriel E.
Ces $ n$ vecteurs indépendants sont appelés des vecteurs de base. Ils forment un système de $ n$ vecteurs qui sera noté sous la forme $ \mathbf{(e_{1},e_{2},...,e_{n})}$ ou plus brièvement $ \mathbf{(e_{i})}$. Pour rappeler que l'espace vectoriel comporte $ n$ vecteurs de base, on le note $ E_{n}$.
Le nombre $ n$ est appelé la dimension de l'espace vectoriel $ E$. Un espace vectoriel de dimension $ n$ sera noté $ E_{n}$.

Exemple - Les trois vecteurs $ \mathbf{e_{1}}=(1,0,0)$, $ \mathbf{e_{2}}=(0,1,0)$, $ \mathbf{e_{3}}=(0,0,1)$, constituent une base de l'espace vectoriel $ E_{3}$. La dimension de cet espace est égale à trois.

Décomposition d'un vecteur sur une base

Soient $ \mathbf{(e_{1},e_{2},e_{3})}$ une base d'un espace vectoriel $ E_{n}$. Le système suivant de $ (n+1)$ vecteurs : $ \mathbf{(x,e_{1},e_{2},...,e_{n})}$ est formé de vecteurs linéairement dépendants ; si l'on a :

$\displaystyle \lambda_{0}\,\mathbf{x}+\lambda_{1}\,\mathbf{e_{1}}+\lambda_{2}\,\mathbf{e_{2}}+...+\lambda_{p}\,\mathbf{e_{p}}=\mathbf{0}$ (1.29)

On peut ainsi décomposer sur la base $ E_{n}$ le vecteur $ \mathbf{x}$ qui peut être représenté par une combinaison linéaire des vecteurs de base :

$\displaystyle \mathbf{x}=x^{1}\,\mathbf{e_{1}}+x^{2}\,\mathbf{e_{2}}+...+x^{n}\,\mathbf{e_{n}}=x^{i}\,\mathbf{e_{i}}$ (1.30)

avec $ x^{i}=(-\lambda_{i}/\lambda_{0})$. Cette combinaison est unique, car si l'on avait une autre décomposition :

$\displaystyle \mathbf{x}=a^{1}\,\mathbf{e_{1}}+a^{2}\,\mathbf{e_{2}}+...+a^{n}\,\mathbf{e_{n}}=a^{i}\,\mathbf{e_{i}}$ (1.31)

on en déduirait :

$\displaystyle (x^{1}-a^{1})\,\mathbf{e_{1}}+(x^{2}-a^{2})\,\mathbf{e_{2}}+...+(x^{n}-a^{n})\,\mathbf{e_{n}}=(x^{i}-a^{i})\,\mathbf{e_{i}}=\mathbf{0}$ (1.32)

Les vecteurs $ \mathbf{e_{i}}$ étant indépendants, une telle relation n'est possible que si tous les termes $ (x^{i}-a^{i})$ sont nuls, donc si $ x^{i}=a^{i}$, ce qui correspond à deux décompositions identiques.
Les nombres $ x^{i}$ sont les $ composantes$ du vecteur $ \mathbf{x}$ par rapport à la base $ \mathbf{(e_{i})}$. D'où le théorème suivant : Dans un espace vectoriel $ E_{n}$ où existe une base $ \mathbf{(e_{1},e_{2},...,e_{n})}$, tout vecteur peut s'exprimer d'une manière et d'une seule par une combinaison linéaire des vecteurs formant cette base.

Exemple 1 - Tout vecteur $ \mathbf{x}=(a^{1},a^{2},a^{3})$ de l'espace vectoriel $ E_{3}$ peut être décomposé sur la base $ \mathbf{e_{1}}=(1,0,0),
\mathbf{e_{2}}=(0,1,0),\mathbf{e_{3}}=(0,0,1)$. On obtient :

\begin{displaymath}\begin{array}[b]{lcl}
\mathbf{x}&=&(a^{1},a^{2},a^{3})=(a^{1}...
...{e_{1}}+a^{2}\,\mathbf{e_{2}}+a^{3}\,\mathbf{e_{3}}
\end{array}\end{displaymath}

Dans cette base, les composantes du vecteur sont identiques aux nombres qui figurent dans le triplet qui définit le vecteur lui-même. Il n'en est évidemment pas de même lorsque la base est quelconque.

Exemple 2 - L'espace vectoriel des polynômes $ P_{2}(t)$ de degré 2 admet, par exemple, la base suivante : $ \mathbf{e_{1}}=3$, $ \mathbf{e_{2}}=4t$, $ \mathbf{e_{3}}=2t^{2}$. Tout polynôme de degré deux se décompose sur cette base sous la forme : $ P_{2}(t)=a^{1}+a^{2}t+a^{3}t^{2}=c^{1}\,\mathbf{e_{1}}+c^{2}\,\mathbf{e_{2}}+c^{3}\,\mathbf{e_{3}}$, avec $ a^{1}=3c^{1}, a^{2}=4c^{2}, a^{3}=2c^{3}$.

Changement de base

Soient deux bases ( $ \mathbf{e_{1},e_{2},e_{3}}$) et ( $ \mathbf{e'_{1},e'_{2},e'_{3}}$) d'un espace vectoriel $ E_{n}$. Chaque vecteur d'une base peut être décomposé sur l'autre base sous la forme suivante :

$\displaystyle \mathbf{e_{i}}=A'^{k}_{i}\,\mathbf{e'_{k}}$ (1.33)

$\displaystyle \mathbf{e'_{k}}=A^{i}_{k}\,\mathbf{e_{i}}$ (1.34)

où l'on utilise la convention de sommation pour $ i,k=1,2...,n$.

Changement des composantes d'un vecteur - Un vecteur $ \mathbf{x}$ de $ E_{n}$ peut être décomposé sur chaque base sous la forme :

$\displaystyle \mathbf{x}=x^{i}\,\mathbf{e_{i}}=x'^{k}\,\mathbf{e'_{k}}$ (1.35)

Cherchons les relations entre les composantes $ x^{i}$ et $ x'^{k}$. Remplaçons les vecteurs $ \mathbf{e_{i}}$ et $ \mathbf{e'_{k}}$ dans la relation  (1.35) par leur expression respective (1.33) et (1.34); il vient :

$\displaystyle \mathbf{x}=x^{i}\,\mathbf{e_{i}}=x^{i}\,A'^{k}_{i}\,e'_{k}=x'^{k}\,\mathbf{e'_{k}}=x'^{k}\,A^{i}_{k}\,\mathbf{e_{i}}$ (1.36)

Par suite de l'unicité de la décomposition d'un vecteur sur une base, on peut égaler les coefficients des vecteurs $ \mathbf{e'_{k}}$ et l'on obtient :

$\displaystyle x'^{k}=A'^{k}_{i}\,x^{i}$ (1.37)

De même, les coefficients des vecteurs $ \mathbf{e_{i}}$ donnent :

$\displaystyle x^{i}=A^{i}_{k}\,x'^{k}$ (1.38)

Ce sont les formules de changement de base des composantes d'un vecteur. On remarque que les composantes d'un vecteur quelconque se transforment de façon contraire de celle des vecteurs de base (voir (1.33) et  (1.34)), les grandeurs $ A$ et $ A'$ s'échangeant. Par suite de ce genre de transformation, ces composantes sont appelées des composantes contravariantes.

Matrice de changement de base - Les relations (1.33) et (1.34) nous donnent :

$\displaystyle \mathbf{e_{i}}=A'^{k}_{i}\,A^{j}_{k}\,\mathbf{e_{j}}$ (1.39)

d'òu :

$\displaystyle A'^{k}_{i}\,A^{j}_{k}=\delta^{j}_{i}$ (1.40)

La matrice de changement de base $ A=[A'^{k}_{i}]$ a donc pour matrice inverse $ A^{-1}=[A^{i}_{k}]$. On a la relation : $ A\,A^{-1}=I$, où $ I$ est la matrice unité. En vertu de la règle donnant le déterminant du produit des matrices, on a :

$\displaystyle (d\acute{e}t\,A)(d\acute{e}t\,A^{-1})=1$ (1.41)

Les déterminants de deux matrices inverses sont inverses l'un de l'autre.

next up previous contents

suivant: Produit scalaire monter: Les vecteurs précédent: Généralisation de la notion   Table des matières

ps : contribuez comme moi au projet Cosmology@Home dont le but est d'affiner le modèle décrivant le mieux notre Univers.

   Accueil | Astronomie | Sciences | Philosophie | Informatique | Cv   
- dournac.org © 2003 by fab -

Haut de Page