¿Cómo determinar si un conjunto de vectores es linealmente dependiente o independiente?
Para comprobar si un conjunto de vectores es linealmente dependiente o independiente, se verifica si existe alguna combinación lineal de los vectores que sea igual al vector nulo:
$$ a_1 v_1 + \dots + a_n v_n = 0 $$
Si existe una combinación no trivial (es decir, con al menos un coeficiente distinto de cero), entonces los vectores son linealmente dependientes.
¿Y si no existe? Si la única combinación lineal que anula el sistema es la trivial (todos los coeficientes son cero), entonces los vectores son linealmente independientes.
Ejercicio práctico
Ejemplo 1
En el espacio vectorial $\mathbb{R}^4$, sobre el cuerpo $\mathbb{K} = \mathbb{R}$, consideramos un subespacio vectorial $W$ definido por un conjunto generador compuesto por tres vectores:
$$ W = L_{\mathbb{R}} (w_1, w_2, w_3) \:\:\: \text{donde} \begin{cases} w_1 = (1,1,0,0) \\ w_2 = (1,2,0,1) \\ w_3 = (0,1,0,1) \end{cases} $$
Queremos comprobar si existe una combinación lineal nula de un vector arbitrario $v \in W$:
$$ v = a_1 w_1 + a_2 w_2 + a_3 w_3 = 0 $$
$$ a_1 \cdot \begin{pmatrix} 1 \\ 1 \\ 0 \\ 0 \end{pmatrix} + a_2 \begin{pmatrix} 1 \\ 2 \\ 0 \\ 1 \end{pmatrix} + a_3 \begin{pmatrix} 0 \\ 1 \\ 0 \\ 1 \end{pmatrix} = 0 $$
$$ \begin{pmatrix} a_1 \\ a_1 \\ 0 \\ 0 \end{pmatrix} + \begin{pmatrix} a_2 \\ 2a_2 \\ 0 \\ a_2 \end{pmatrix} + \begin{pmatrix} 0 \\ a_3 \\ 0 \\ a_3 \end{pmatrix} = 0 $$
$$ \begin{pmatrix} a_1 + a_2 \\ a_1 + 2a_2 + a_3 \\ 0 \\ a_2 + a_3 \end{pmatrix} = 0 $$
Podemos omitir la ecuación $0=0$, ya que es una identidad y no afecta a la solución.
Reescribimos entonces la ecuación vectorial como un sistema de ecuaciones:
$$ \begin{cases} a_1 + a_2 = 0 \\ a_1 + 2a_2 + a_3 = 0 \\ a_2 + a_3 = 0 \end{cases} $$
A continuación, analizamos si el sistema admite soluciones utilizando la regla de Cramer:
$$ \det \begin{pmatrix} 1 & 1 & 0 \\ 1 & 2 & 1 \\ 0 & 1 & 1 \end{pmatrix} = 0 $$
El determinante de la matriz de coeficientes es igual a cero.
Por tanto, el sistema no tiene solución única.
Como no es posible obtener una solución distinta de la trivial, concluimos que los vectores son linealmente dependientes.
Nota. Esta misma conclusión podría haberse obtenido de manera más rápida analizando el rango de la matriz de coeficientes: $$ \begin{pmatrix} 1 & 1 & 0 \\ 1 & 2 & 1 \\ 0 & 0 & 0 \\ 0 & 1 & 1 \end{pmatrix} $$ El menor complementario de mayor orden con determinante no nulo es de orden dos, mientras que la dimensión del espacio es $n = 4$:
$$ \det \begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix} \ne 0 $$
$$ \det \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix} \ne 0 $$
$$ \det \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} \ne 0 $$
Por lo tanto, los vectores son linealmente independientes en pares (por ejemplo, $w_1$ y $w_2$), pero en conjunto resultan linealmente dependientes, ya que el rango es inferior a la dimensión del espacio vectorial.