Théorème ou formule de Grassmann
Énoncé du théorème de Grassmann
Soit V un espace vectoriel de dimension finie sur un corps K. Si A et B sont deux sous-espaces de V, alors la dimension de leur somme est donnée par la formule suivante :
$$ \mathrm{dim}_K(A + B) = \\ \mathrm{dim}_K(A) + \mathrm{dim}_K(B) - \mathrm{dim}_K(A \cap B) $$
Autrement dit, pour déterminer la dimension du sous-espace somme A + B, on additionne les dimensions de A et de B, puis on soustrait la dimension de leur intersection.
En général, la dimension de la somme de deux sous-espaces n’est donc pas égale à la somme de leurs dimensions respectives :
$$ \mathrm{dim}_K(A + B) \ne \mathrm{dim}_K(A) + \mathrm{dim}_K(B) $$
L’égalité ne se vérifie que lorsque les sous-espaces sont en somme directe.
Remarque. Le théorème de Grassmann est analogue à un principe fondamental de la théorie des ensembles : la cardinalité de l’union de deux ensembles non disjoints s’obtient en additionnant les cardinalités de chaque ensemble et en retranchant celle de leur intersection, afin de ne pas compter deux fois les éléments communs :
$$ |A \cup B| = |A| + |B| - |A \cap B| $$

Démonstration
Soient U et W deux sous-espaces vectoriels de l’espace V.
L’intersection U∩W contient tous les vecteurs appartenant simultanément aux deux sous-espaces :
$$ U \cap W $$
Par hypothèse, la base du sous-espace U ∩ W est constituée de r vecteurs :
$$ B_{U \cap W} = \{ \vec{v}_1 , \vec{v}_2 , \dots , \vec{v}_r \} $$
Sa dimension vaut donc :
$$ \dim(U \cap W) = r $$
Ces vecteurs appartiennent à la fois à U et à W, puisqu’ils sont dans leur intersection.
Supposons à présent que la base de U soit composée de r + s vecteurs, c’est-à-dire :
$$ \dim(U) = r + s $$
Une base possible de U est :
$$ B_U = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s \} $$
Les vecteurs $\vec{v}_1, \dots, \vec{v}_r$ forment une base de $U \cap W$ et sont donc linéairement indépendants :
$$ B_U = \{ \underbrace{\vec{v}_1, \dots, \vec{v}_r}_{\text{l.i.}}, \vec{u}_1, \dots, \vec{u}_s \} $$
De façon analogue, supposons que la base de W soit formée de r + t vecteurs :
$$ \dim(W) = r + t $$
Une base possible est alors :
$$ B_W = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{w}_1, \dots, \vec{w}_t \} $$
Les vecteurs $\vec{v}_1, \dots, \vec{v}_r$ y sont également linéairement indépendants :
$$ B_W = \{ \underbrace{\vec{v}_1, \dots, \vec{v}_r}_{\text{l.i.}}, \vec{w}_1, \dots, \vec{w}_t \} $$
Nous cherchons maintenant une base du sous-espace somme $U + W$, formé de tous les vecteurs qui peuvent s’écrire comme la somme d’un vecteur de U et d’un vecteur de W.
Les générateurs de U et de W sont :
$$ B_U = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s \} $$
$$ B_W = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{w}_1, \dots, \vec{w}_t \} $$
Par conséquent, un système générateur de $U + W$ est :
$$ G_{U+W} = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s, \vec{w}_1, \dots, \vec{w}_t \} $$
Pour que cet ensemble soit une base, il faut vérifier que ses éléments sont linéairement indépendants.
On sait déjà que $\vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s$ sont linéairement indépendants (car ils forment une base de U), et de même que $\vec{v}_1, \dots, \vec{v}_r, \vec{w}_1, \dots, \vec{w}_t$ le sont dans W :
$$ G_{U+W} = \{ \underbrace{\vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s}_{\text{l.i. dans } U}, \underbrace{\vec{w}_1, \dots, \vec{w}_t}_{\text{l.i. dans } W} \} $$
Considérons une combinaison linéaire de ces vecteurs égale au vecteur nul :
$$ \alpha_1 \vec{v}_1 + \dots + \alpha_r \vec{v}_r + \beta_1 \vec{u}_1 + \dots + \beta_s \vec{u}_s + \lambda_1 \vec{w}_1 + \dots + \lambda_t \vec{w}_t = \vec{0} $$
Regroupons les termes pour isoler les vecteurs de W :
$$ (\alpha_1 \vec{v}_1 + \dots + \alpha_r \vec{v}_r + \beta_1 \vec{u}_1 + \dots + \beta_s \vec{u}_s) = -(\lambda_1 \vec{w}_1 + \dots + \lambda_t \vec{w}_t) $$
Les deux membres de l’égalité appartiennent à $U \cap W$.
Or, la base de $U \cap W$ est $\{\vec{v}_1, \dots, \vec{v}_r\}$, de sorte qu’aucun vecteur $\vec{u}_i$ ni $\vec{w}_j$ ne peut s’exprimer comme combinaison linéaire de ceux-ci. On en déduit :
$$ \beta_1 = \dots = \beta_s = 0 \quad \text{et} \quad \lambda_1 = \dots = \lambda_t = 0 $$
L’égalité se réduit alors à :
$$ \alpha_1 \vec{v}_1 + \dots + \alpha_r \vec{v}_r = \vec{0} $$
Et comme les $\vec{v}_i$ sont linéairement indépendants :
$$ \alpha_1 = \dots = \alpha_r = 0 $$
La seule solution est donc la solution triviale : tous les coefficients sont nuls.
On a ainsi démontré que les vecteurs $\vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s, \vec{w}_1, \dots, \vec{w}_t$ sont linéairement indépendants.
Par conséquent, l’ensemble $G_{U+W}$ forme bien une base de $U + W$ :
$$ G_{U+W} = B_{U+W} = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s, \vec{w}_1, \dots, \vec{w}_t \} $$
La dimension de $U + W$ correspond alors au nombre de vecteurs de cette base :
$$ \dim(U + W) = r + s + t $$
Nous connaissons déjà les dimensions des trois sous-espaces :
- $ \dim(U) = r + s $
- $ \dim(W) = r + t $
- $ \dim(U \cap W) = r $
Vérifions maintenant la validité de la formule de Grassmann :
$$ \dim(U + W) = \dim(U) + \dim(W) - \dim(U \cap W) $$
En remplaçant les valeurs :
$$ \underbrace{\dim(U + W)}_{r + s + t} = (r + s) + (r + t) - r $$
$$ r + s + t = r + s + r + t - r = r + s + t $$
L’égalité confirme ainsi la justesse de la formule de Grassmann.
Le cas des sous-espaces en somme directe
Lorsque les sous-espaces A et B sont en somme directe, la dimension du sous-espace somme coïncide exactement avec la somme des dimensions de A et de B :
$$ \mathrm{dim}_K(A \oplus B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) $$
Cela se produit lorsque l’intersection de A et B est triviale, c’est-à-dire qu’elle ne contient que le vecteur nul :
$$ A \cap B = \{0\} $$
Dans ce cas, la formule de Grassmann se simplifie naturellement :
$$ \mathrm{dim}_K(A + B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) - \mathrm{dim}_K(A \cap B) $$
$$ \mathrm{dim}_K(A + B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) - \mathrm{dim}_K(\{0\}) $$
$$ \mathrm{dim}_K(A + B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) $$
Ce qui conclut la démonstration.