Comment déterminer si un ensemble de vecteurs est linéairement dépendant ou indépendant ?
Pour établir si un ensemble de vecteurs est linéairement dépendant ou indépendant, il suffit d’examiner l’existence d’une combinaison linéaire de ces vecteurs donnant le vecteur nul :
$$ a_1 v_1 + \dots + a_n v_n = 0 $$
Si une telle combinaison existe avec au moins un coefficient non nul, l’ensemble est linéairement dépendant.
Et dans le cas contraire ? Si la seule combinaison qui s’annule est la combinaison triviale (tous les coefficients nuls), alors les vecteurs sont linéairement indépendants.
Exercice pratique
Exemple 1
Dans l’espace vectoriel $\mathbb{R}^4$, sur le corps $\mathbb{K} = \mathbb{R}$, considérons le sous-espace $W$ engendré par trois vecteurs :
$$ W = L_{\mathbb{R}} (w_1, w_2, w_3) \:\:\: \text{avec} \begin{cases} w_1 = (1,1,0,0) \\ w_2 = (1,2,0,1) \\ w_3 = (0,1,0,1) \end{cases} $$
Nous cherchons à savoir s’il existe une combinaison linéaire nulle d’un vecteur arbitraire $v \in W$ :
$$ v = a_1 w_1 + a_2 w_2 + a_3 w_3 = 0 $$
$$ a_1 \cdot \begin{pmatrix} 1 \\ 1 \\ 0 \\ 0 \end{pmatrix} + a_2 \begin{pmatrix} 1 \\ 2 \\ 0 \\ 1 \end{pmatrix} + a_3 \begin{pmatrix} 0 \\ 1 \\ 0 \\ 1 \end{pmatrix} = 0 $$
$$ \begin{pmatrix} a_1 \\ a_1 \\ 0 \\ 0 \end{pmatrix} + \begin{pmatrix} a_2 \\ 2a_2 \\ 0 \\ a_2 \end{pmatrix} + \begin{pmatrix} 0 \\ a_3 \\ 0 \\ a_3 \end{pmatrix} = 0 $$
$$ \begin{pmatrix} a_1 + a_2 \\ a_1 + 2a_2 + a_3 \\ 0 \\ a_2 + a_3 \end{pmatrix} = 0 $$
L’équation $0=0$ étant une identité, on peut l’écarter sans perte d’information.
On obtient alors le système suivant :
$$ \begin{cases} a_1 + a_2 = 0 \\ a_1 + 2a_2 + a_3 = 0 \\ a_2 + a_3 = 0 \end{cases} $$
Pour analyser ce système, calculons le déterminant de la matrice des coefficients (règle de Cramer) :
$$ \det \begin{pmatrix} 1 & 1 & 0 \\ 1 & 2 & 1 \\ 0 & 1 & 1 \end{pmatrix} = 0 $$
Le déterminant étant nul, le système n’admet pas de solution unique.
Il en résulte qu’aucune solution autre que la triviale n’est possible : les vecteurs sont donc linéairement dépendants.
Remarque. La même conclusion peut être obtenue plus rapidement en examinant le rang de la matrice des coefficients : $$ \begin{pmatrix} 1 & 1 & 0 \\ 1 & 2 & 1 \\ 0 & 0 & 0 \\ 0 & 1 & 1 \end{pmatrix} $$ Le plus grand mineur de déterminant non nul est d’ordre deux, alors que la dimension de l’espace est $n = 4$ :
$$ \det \begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix} \ne 0 $$
$$ \det \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix} \ne 0 $$
$$ \det \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} \ne 0 $$
On observe donc que les vecteurs sont indépendants pris deux à deux (par exemple $w_1$ et $w_2$), mais que, considérés ensemble, ils sont linéairement dépendants, puisque le rang est strictement inférieur à la dimension de l’espace vectoriel.