Teorema o Fórmula de Grassmann
Qué establece el Teorema de Grassmann
Sea V un espacio vectorial de dimensión finita sobre un campo K. Si A y B son dos subespacios de V, entonces la dimensión de la suma de A y B viene dada por la siguiente fórmula:
$$ \mathrm{dim}_K(A + B) = \\ \mathrm{dim}_K(A) + \mathrm{dim}_K(B) - \mathrm{dim}_K(A \cap B) $$
En otras palabras, para calcular la dimensión del subespacio suma A + B, se suman las dimensiones de A y B y se resta la dimensión de su intersección.
Esto implica que, en general, la dimensión de la suma de dos subespacios no coincide con la suma de sus dimensiones individuales:
$$ \mathrm{dim}_K(A + B) \ne \mathrm{dim}_K(A) + \mathrm{dim}_K(B) $$
La igualdad solo se cumple cuando los subespacios están en suma directa.
Nota. El teorema de Grassmann es análogo a un principio básico de la teoría de conjuntos: la cardinalidad de la unión de dos conjuntos no disjuntos se obtiene sumando las cardinalidades de cada conjunto y restando la de su intersección, para no contar los elementos comunes dos veces: $$ |A \cup B| = |A| + |B| - |A \cap B| $$ 
Demostración
Sean U y W dos subespacios vectoriales del espacio V.
La intersección U∩W contiene todos los vectores que pertenecen simultáneamente a ambos subespacios:
$$ U \cap W $$
Por hipótesis, la base del subespacio U ∩ W está formada por r vectores:
$$ B_{U \cap W} = \{ \vec{v}_1 , \vec{v}_2 , \dots , \vec{v}_r \} $$
Por tanto, su dimensión es:
$$ \dim(U \cap W) = r $$
Como pertenecen a la intersección, estos vectores están contenidos tanto en U como en W.
Supongamos ahora que la base de U está compuesta por r + s vectores, por lo que:
$$ \dim(U) = r + s $$
Una posible base de U es:
$$ B_U = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s \} $$
Los vectores $\vec{v}_1, \dots, \vec{v}_r$ forman una base de $U \cap W$ y, por tanto, son linealmente independientes:
$$ B_U = \{ \underbrace{\vec{v}_1, \dots, \vec{v}_r}_{\text{l.i.}}, \vec{u}_1, \dots, \vec{u}_s \} $$
De forma análoga, supongamos que la base de W está formada por r + t vectores:
$$ \dim(W) = r + t $$
Y una base posible es:
$$ B_W = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{w}_1, \dots, \vec{w}_t \} $$
Nuevamente, los vectores $\vec{v}_1, \dots, \vec{v}_r$ son linealmente independientes:
$$ B_W = \{ \underbrace{\vec{v}_1, \dots, \vec{v}_r}_{\text{l.i.}}, \vec{w}_1, \dots, \vec{w}_t \} $$
Queremos ahora encontrar una base del subespacio suma $U + W$, que está formado por todos los vectores que pueden escribirse como suma de un vector de U y uno de W.
Los generadores de U y W son:
$$ B_U = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s \} $$
$$ B_W = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{w}_1, \dots, \vec{w}_t \} $$
Por tanto, un sistema generador de $U + W$ es:
$$ G_{U+W} = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s, \vec{w}_1, \dots, \vec{w}_t \} $$
Para que este conjunto sea una base, debemos comprobar si sus elementos son linealmente independientes.
Sabemos que $\vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s$ son linealmente independientes, ya que forman una base de U, y lo mismo ocurre con $\vec{v}_1, \dots, \vec{v}_r, \vec{w}_1, \dots, \vec{w}_t$ en W:
$$ G_{U+W} = \{ \underbrace{\vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s}_{\text{l.i. en } U}, \underbrace{\vec{w}_1, \dots, \vec{w}_t}_{\text{l.i. en } W} \} $$
Supongamos una combinación lineal de estos vectores igual al vector nulo:
$$ \alpha_1 \vec{v}_1 + \dots + \alpha_r \vec{v}_r + \beta_1 \vec{u}_1 + \dots + \beta_s \vec{u}_s + \lambda_1 \vec{w}_1 + \dots + \lambda_t \vec{w}_t = \vec{0} $$
Reagrupamos para aislar los vectores de W:
$$ (\alpha_1 \vec{v}_1 + \dots + \alpha_r \vec{v}_r + \beta_1 \vec{u}_1 + \dots + \beta_s \vec{u}_s) = -(\lambda_1 \vec{w}_1 + \dots + \lambda_t \vec{w}_t) $$
Ambos lados de la igualdad pertenecen a $U \cap W$.
Pero la base de $U \cap W$ es $\{\vec{v}_1, \dots, \vec{v}_r\}$, por lo que ningún vector $\vec{u}_i$ ni $\vec{w}_j$ puede expresarse como combinación de estos. En consecuencia:
$$ \beta_1 = \dots = \beta_s = 0 \quad \text{y} \quad \lambda_1 = \dots = \lambda_t = 0 $$
La igualdad se reduce a:
$$ \alpha_1 \vec{v}_1 + \dots + \alpha_r \vec{v}_r = \vec{0} $$
Y como los $\vec{v}_i$ son linealmente independientes:
$$ \alpha_1 = \dots = \alpha_r = 0 $$
Así, la única solución es la trivial: todos los coeficientes son cero.
Hemos demostrado que los vectores $\vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s, \vec{w}_1, \dots, \vec{w}_t$ son linealmente independientes.
Por tanto, el conjunto $G_{U+W}$ es una base de $U + W$:
$$ G_{U+W} = B_{U+W} = \{ \vec{v}_1, \dots, \vec{v}_r, \vec{u}_1, \dots, \vec{u}_s, \vec{w}_1, \dots, \vec{w}_t \} $$
La dimensión de $U + W$ es igual al número de vectores en esta base:
$$ \dim(U + W) = r + s + t $$
Ya conocemos las dimensiones de los tres subespacios:
- $ \dim(U) = r + s $
- $ \dim(W) = r + t $
- $ \dim(U \cap W) = r $
Comprobamos ahora la validez de la fórmula de Grassmann:
$$ \dim(U + W) = \dim(U) + \dim(W) - \dim(U \cap W) $$
Sustituyendo los valores:
$$ \underbrace{\dim(U + W)}_{r + s + t} = (r + s) + (r + t) - r $$
$$ r + s + t = r + s + r + t - r = r + s + t $$
La igualdad confirma que la fórmula de Grassmann es válida.
El Caso de Subespacios en Suma Directa
Cuando los subespacios A y B están en suma directa, la dimensión del subespacio suma coincide exactamente con la suma de las dimensiones de A y B:
$$ \mathrm{dim}_K(A \oplus B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) $$
Esto ocurre porque la intersección entre A y B es trivial, es decir, contiene únicamente el vector nulo:
$$ A \cap B = \{0\} $$
En tal caso, la fórmula de Grassmann se simplifica naturalmente:
$$ \mathrm{dim}_K(A + B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) - \mathrm{dim}_K(A \cap B) $$
$$ \mathrm{dim}_K(A + B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) - \mathrm{dim}_K(\{0\}) $$
$$ \mathrm{dim}_K(A + B) = \mathrm{dim}_K(A) + \mathrm{dim}_K(B) $$
Y así sucesivamente.