3 Aplicaciones lineales

Consideremos dos espacios vectoriales \(V\) y \(W\) sobre el mismo cuerpo \(\mathbb{K}\), y una aplicación \(f:V\to W\) entre ellos.

Diremos que \(f\) es una aplicación lineal si verifica las siguientes dos condiciones:

  • \(f(v_1 + v_2) = f(v_1) + f(v_2)\) para todo \(v_1, v_2\in V\).
  • \(f(c\cdot v) = c\cdot f(v)\) para todo \(c\in\mathbb{K},\,v\in V\).

Una aplicación lineal cuyo dominio y codominio sean iguales (\(V = W\)) se llama endomorfismo.


Ejemplo

Existen muchos ejemplos de aplicaciones lineales:

  • La aplicación 0, la identidad… son aplicaciones lineales de forma trivial.
  • Las rotaciones de vectores en \(\mathbb{R}^n\) son aplicaciones lineales.
  • Sobre el espacio vectorial \(\mathcal{C}([a, b])\) de funciones continuas y derivables en un intervalo \([a, b]\), tanto el operador derivada \(f\to f'\) como el operador integral \(f \to \int_a^b f\), son aplicaciones lineales.

¿Qué preguntas vamos a responder en este capítulo?

3.1 Qué propiedades básicas tienen las aplicaciones lineales

Vamos a revisar aquí algunas de las propiedades básicas de las aplicaciones lineales entre espacios vectoriales.

Consideremos una aplicación lineal \(f:V\to W\).

  • \(f(0_V) = 0_W\)
  • \(f(-v) = -f(v),\quad v\in V\)
  • \(f(v_1 - v_2) = f(v_1) - f(v_2),\quad v_1, v_2\in V\)
  • \(f(\alpha_1 v_1 + \ldots \alpha_n v_n) = \alpha_1 f(v_1) + \ldots + \alpha_n f(v_n),\quad \alpha_i\in\mathbb{K},v_i\in V\)

Además:

  • Si \(U\) es un subespacio de \(V\), entonces \(f(U)\) es un subespacio de \(W\). Análogamente, si \(S\) es subespacio de \(W\), su preimagen \(f^{-1}(S)\) es también un subespacio de \(V\).
  • Si \(\mathcal{G} = \{u_1,\ldots,u_m\}\) es un sistema generador de un subespacio \(U\) de \(V\), entonces \(f(\mathcal{G}) = \{f(u_1),\ldots,f(u_m)\}\) es un sistema generador de \(f(U)\).

Y, por último,

Si \(f:V \to W\) y \(g:W \to U\) son dos aplicaciones lineales, entonces su composición \(g \circ f :V \to U\) también es una aplicación lineal.

3.2 Cuál es la matriz asociada a una aplicación lineal en unas bases dadas

Si tenemos una matriz \(A\in \mathcal{M}_{mn}(\mathbb{R})\), podemos definir una aplicación lineal \(f_A\) entre \(\mathbb{R}^n\) y \(\mathbb{R}^m\) de la forma:

\[f_A(v) = A\cdot v,\quad v\in\mathbb{R}^n\]

En este resultado, podemos cambiar el cuerpo \(\mathbb{R}\) de los números reales por cualquier otro cuerpo.

Este resultado nos habla de una forma de construir aplicaciones lineales, mediante el producto por una matriz que tenga las dimensiones adecuadas.

Un resultado más interesante es el siguiente, que nos dice que TODA aplicación lineal viene definida por el producto con una matriz:

Matriz asociada a una aplicación lineal: Sea \(f:V\to W\) una aplicación lineal. Fijemos dos bases \(\mathcal{B}_V\) y \(\mathcal{B}_W\) en dichos espacios, respectivamente. Entonces existe una matriz \(A\in\mathcal{M}_{mn}(\mathbb{R})\) tal que si \(w = f(v)\) entonces \([w]_{\mathcal{B}_W} = A\cdot [v]_{\mathcal{B}_V}\) para todo \(v\in V\).

Esto significa que, fijando las bases, podemos encontrar una matriz \(A\) de forma que para calcular la imagen de un vector \(v\in V\), basta con tomar sus coordenadas en la base \(\mathcal{B}_V\), que representamos por \([v]_{\mathcal{B}_V}\), y multiplicarlas por \(A\), para obtener las coordenadas de \(f(v)\) en la base correspondiente del codominio \(W\), las cuales se denotan por \([f(v)]_{\mathcal{B}_W}\).

Definición (Matriz asociada a aplicación lineal) A la matriz \(A\) que nos proporciona este resultado la llamamos matriz asociada a \(f\) en las bases \(\mathcal{B}_V\) y \(\mathcal{B}_W\).

Hay que notar que la matriz \(A\) está determinada siempre y cuando fijemos las dos bases antes dichas.

Pero, ¿cómo determinamos la matriz \(A\)?

Necesitamos fijar las dos bases de antemano: \[\mathcal{B}_V = \{v_1,\ldots,v_n\}\] \[\mathcal{B}_W = \{w_1,\ldots,w_m\}\]

El procedimiento general para construir la matriz \(A\) es el que sigue. Para determinar la columna \(j\)-ésima de \(A\):

  • Tomamos el vector \(j\)-ésimo de la base de \(V\): \(v_j\).
  • Calculamos su imagen \(y_j = f(v_j)\).
  • Calculamos las coordenadas de \(y_j\) en la base \(\mathcal{B}_W\). \[[y_j]_{\mathcal{B}_W} = \left( \begin{array}{c} a_{1, j}\\ a_{2, j}\\ \vdots\\ a_{m, j} \end{array} \right) \Leftrightarrow y_j = a_{1,j} w_1 + a_{2,j}w_2 + \ldots + a_{m, j} w_m\]
  • Esas coordenadas son la columna \(j\) de la matriz \(A\).

Vamos a pasar todo esto a notación matricial, para encontrar una forma cómoda de resolver este problema.

Llamemos \(B_2\) a la matriz formada, por columnas, por las coordenadas de los vectores de \(\mathcal{B}_W\) en la base canónica: \(B_2 = \left(w_1|w_2|\ldots|w_m\right)\).

Llamamos \(Y = \left(y_1|y_2|\ldots|y_n\right) = \left(f(v_1)|f(v_2)|\ldots|f(v_n)\right)\).

Entonces, la expresión anterior se puede escribir matricialmente como \(Y = B_2\cdot A\), siendo \(A\) la matriz asociada a la aplicación lineal. Por tanto, podemos despejar \(A = B_2^{-1} Y\).

Por tanto, para calcular \(A\) de forma directa, podemos realizar Gauss-Jordan partiendo de \((B_2 | Y )\) hasta lograr \((I_m | A)\).

Caso particular: Base canónica en \(V\) y \(W\)

En este caso, la matriz asociada a la aplicación lineal es \[A = Y = \left(f(v_1)|f(v_2)|\ldots|f(v_n)\right)\] puesto que los vectores de la base canónica puestos por columnas forman la matriz identidad.

De hecho, en la situación de la base canónica, lo más rápido es fijarse en los coeficientes de cada una de las variables \(x,y,z,\ldots\) o \(x_1,x_2,\ldots\), según sea el caso, y ponerlos por columnas. Así, para formar la matriz \(A\) asociada a la aplicación lineal, tomaríamos como primera columna los coeficientes de la \(x\), en la segunda, los coeficientes de la \(y\), y así sucesivamente con el resto de variables.


Ejemplo

Consideremos la aplicación \(f:V=\mathbb{R}^{3}\to W=\mathbb{R}^{3}\) dada por:

\[f \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left( \begin{array}{c} x+ y+ z\\ x-2y\\ 2x-y+ z\\ \end{array} \right)\]

Como hemos visto, para encontrar su matriz asociada en las bases canónicas de \(v\) y \(W\), basta con mirar los coeficientes de \(x,y,\ldots\), y ponerlos por columnas:

\[A = \left(\begin{array}{ccc} 1 & 1 & 1\\ 1 & -2 & 0\\ 2 & -1 & 1 \end{array}\right) \]

Esto significa que si tenemos un vector \(v\in V\) expresado en coordenadas en la base canónica, entonces \(f(v) = A\ v\), también expresado en las coordenadas canónicas de \(W\).

Consideremos ahora dos bases distintas de la canónica tanto en \(V\) como \(W\):

\[\mathcal{B}_{1} = \{v_i\} = \left\{\left( \begin{array}{c@{}} -1\\ 1\\ -1 \end{array} \right) , \left( \begin{array}{c@{}} 0\\ -1\\ 1 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ -1\\ -1 \end{array} \right) \right\}\]\[\mathcal{B}_{2} = \{w_i\} = \left\{\left( \begin{array}{c@{}} 1\\ 0\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ 2\\ 0 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ 0\\ 1 \end{array} \right) \right\}\]

Vamos a calcular la matriz \(A'\) asociada a \(f\) en estas dos bases. Debemos calcular:

\[Y= (f(v_1)|\ldots|f(v_n))\] \[B_2 = (w_1|\ldots|w_m)\]

Aplicando \(f\) sucesivamente a los vectores de \(\mathcal{B}_1\), tenemos que \[Y = \left( \begin{array}{ccc@{}} -1 & 0 & -3\\ -3 & 2 & 1\\ -4 & 2 & -2 \end{array} \right) \] y \[B_2 = \left( \begin{array}{ccc@{}} 1 & 1 & 1\\ 0 & 2 & 0\\ 2 & 0 & 1 \end{array} \right) \]

Luego podemos obtener \(A'\) como \(B_2^{-1} Y\), que resolvemos por Gauss-Jordan: \[\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & -1 & 0 & -3\\ 0 & 2 & 0 & -3 & 2 & 1\\ 2 & 0 & 1 & -4 & 2 & -2 \end{array} \right) \sim\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & - \frac{9}{2} & 3 & \frac{3}{2}\\ 0 & 1 & 0 & - \frac{3}{2} & 1 & \frac{1}{2}\\ 0 & 0 & 1 & 5 & -4 & -5 \end{array} \right) \] Y de aquí que la nueva matriz, asociada a \(f\) en las nuevas bases, sea: \[A' = \left( \begin{array}{ccc@{}} - \frac{9}{2} & 3 & \frac{3}{2}\\ - \frac{3}{2} & 1 & \frac{1}{2}\\ 5 & -4 & -5 \end{array} \right) \]


3.3 Cómo influye un cambio de base en la matriz asociada a una aplicación lineal

Supongamos que tenemos una aplicación lineal \(f:V\to W\) y que tenemos prefijadas unas bases \(\mathcal{B}_V\) y \(\mathcal{B}_W\) y, por tanto, tenemos determinada la matriz \(A\), asociada a \(f\) en esas bases.

Consideremos unas nuevas bases \(\mathcal{B}'_V\) y \(\mathcal{B}'_W\) y nos preguntamos cuál será la matriz \(A'\) asociada a \(f\) en dichas bases.

Para saber hallar \(A'\), nos basamos en dos resultados teóricos.

El primero de ellos nos relaciona los cambios de base con las aplicaciones lineales:

Cambio de base como aplicación lineal: Un cambio de base entre dos bases \(\mathcal{B}_V\) y \(\mathcal{B}'_V\) en un espacio vectorial \(V\) se corresponde con la aplicación lineal identidad \(\mathrm{id}_V:V \to V\), donde en el dominio hemos considerado la base \(\mathcal{B}_V\) y en el codominio la base \(\mathcal{B}'_V\). Además, la matriz asociada a \(\mathrm{id}_V\) en esta situación es justo la del cambio de base \(P_{\mathcal{B}_V \to \mathcal{B}'_V}\).

Es decir, podemos considerar que un cambio de base no es más que la aplicación de la función identidad en el espacio vectorial, donde en dominio y codominio hemos considerado bases distintas.

El otro resultado teórico nos relaciona la composición de aplicaciones lineales (que es de nuevo una aplicación lineal) con sus matrices asociadas:

Composición de aplicaciones lineales: Si \(f: V \to W\) y \(g:W \to U\) son dos aplicaciones lineales, con matrices asociadas \(A_f\) y \(A_g\), respectivamente, habiendo fijado bases en \(V\), \(W\) y \(U\), entonces la aplicación lineal composición de \(f\) y \(g\), \(g\circ f:V\to U\), tiene como matriz asociada a \(A_{g \circ f} = A_g \cdot A_f\).

Luego si componemos dos aplicaciones lineales, habiendo fijado bases en cada caso, la matriz asociada a la composición es el producto de las matrices individuales.

Con estos dos resultados, ya estamos en condiciones de estudiar cómo influye un cambio de base en la matriz de la aplicación lineal.

Veamos el siguiente esquema, donde denotamos \(V_{\mathcal{B}}\) que estamos considerando la base \(\mathcal{B}\) en el espacio \(V\): \[ \begin{array}{ccccccc} V_{\mathcal{B}'_V} & \xrightarrow{\mathrm{id}_V} & V_{\mathcal{B}_V} & \xrightarrow{f} & W_{\mathcal{B}_W} & \xrightarrow{\mathrm{id}_W} & W_{\mathcal{B}'_W} \\ & P_{\mathcal{B}'_V \to \mathcal{B}_V} & & A & & P_{\mathcal{B}_W \to \mathcal{B}'_W} & \\ \end{array} \]

Llamemos, por comodidad, \(P = P_{\mathcal{B}'_V \to \mathcal{B}_V}\) y \(Q = P_{\mathcal{B}_W \to \mathcal{B}'_W}\). Recordemos que tanto \(P\) como \(Q\) se pueden calcular de forma sencilla.

De esta forma, vemos que si fijamos las nuevas bases, entonces la aplicación \(f\) resultante equivale a la \(f\) anterior, a la que precedemos y sucedemos con la aplicación identidad dentro de \(V\) y \(W\), respectivamente, puesto que \(f = \mathrm{id}_W\circ f \circ \mathrm{id}_V\).

Teniendo en cuenta los resultados teóricos anteriores, esto quiere decir que \(A' = Q\ A\ P\).

Como consecuencia, tenemos además que

Todas las matrices asociadas a una misma aplicación lineal \(f\) en distintas bases son equivalentes.


Ejemplo

Continuemos con el ejemplo de la sección anterior. Sabemos que la aplicación \(f\) allí definida tenía por matriz asociada: \[A = \left( \begin{array}{ccc@{}} - \frac{9}{2} & 3 & \frac{3}{2}\\ - \frac{3}{2} & 1 & \frac{1}{2}\\ 5 & -4 & -5 \end{array} \right) \]

Consideremos ahora dos bases distintas tanto en \(V\) como \(W\): \[\mathcal{B}'_{1} =\left\{\left( \begin{array}{c@{}} 1\\ -1\\ 1 \end{array} \right) , \left( \begin{array}{c@{}} 0\\ -1\\ -1 \end{array} \right) , \left( \begin{array}{c@{}} 0\\ -1\\ 1 \end{array} \right) \right\}\]\[\mathcal{B}'_{2} =\left\{\left( \begin{array}{c@{}} 2\\ 2\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ 0\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} 0\\ 0\\ 1 \end{array} \right) \right\}\]

Vamos a aplicar lo anterior para encontrar la matriz \(A'\) asociada a \(f\) en las nuevas bases.

Para ello, sabemos que \(A' = Q\ A\ P\), donde \(P\) es la matriz de cambio de base de \(\mathcal{B}'_1\) a \(\mathcal{B}_1\) y \(Q\) es el cambio de \(\mathcal{B}_2\) a \(\mathcal{B}'_2\).

Si llamamos \(B_1\), \(B'_1\), \(B_2\) y \(B'_2\) a las matrices que resultan de poner por columnas los vectores de \(\mathcal{B}_1\), \(\mathcal{B}'_1\), \(\mathcal{B}_2\) y \(\mathcal{B}'_2\), respectivamente, podemos calcular \(P\) y \(Q\) de la siguiente manera, según ya hemos visto: \[P = B_1^{-1}\ B'_1,\quad\quad Q = {B'_2}^{-1}\ B_2\]

Hacemos Gauss-Jordan partiendo de \((B_1 | B'_1)\) hasta llegar a \((I_n | P)\), y partiendo de \((B'_2 | B_2)\) hasta \((I_m | Q)\), obteniendo: \[P = \left( \begin{array}{ccc@{}} -1 & -1 & 0\\ 0 & -1 & 1\\ 0 & 1 & 0 \end{array} \right) ,\quad\quad\ Q = \left( \begin{array}{ccc@{}} 0 & 1 & 0\\ 1 & -1 & 1\\ 0 & 0 & -1 \end{array} \right) \]

De ahí: \[\begin{array}{rcl}A' & = & Q\ A\ P = \\ & = & \left( \begin{array}{ccc@{}} 0 & 1 & 0\\ 1 & -1 & 1\\ 0 & 0 & -1 \end{array} \right) \left( \begin{array}{ccc@{}} - \frac{9}{2} & 3 & \frac{3}{2}\\ - \frac{3}{2} & 1 & \frac{1}{2}\\ 5 & -4 & -5 \end{array} \right) \left( \begin{array}{ccc@{}} -1 & -1 & 0\\ 0 & -1 & 1\\ 0 & 1 & 0 \end{array} \right) = \\ & = & \left( \begin{array}{ccc@{}} \frac{3}{2} & 1 & 1\\ -2 & -4 & -2\\ 5 & 6 & 4 \end{array} \right) \\\end{array}\]


3.4 Qué es y cómo determinar el núcleo de una aplicación lineal

Definición (Núcleo de una aplicación lineal) Llamamos núcleo de una aplicación lineal \(f:V \to W\), y lo denotamos por \(\mathrm{Ker}\ f\), al conjunto de aquellos vectores \(v\in V\) tales que \(f(v) = 0_W\):

\[\mathrm{Ker}\ f = \{v\in V:f(v) = 0_W\}\]

El primer resultado teórico interesante es:

\(\mathrm{Ker}\ f \ne\varnothing\), puesto que, al menos, \(0_V\in\mathrm{Ker}\ f\), como hemos visto antes.

Podemos decir todavía más:

El núcleo es un subespacio: Dada una aplicación lineal \(f:V\to W\), su núcleo \(\mathrm{Ker}\ f\) es un subespacio vectorial de \(V\).

Por tanto, para operar con el núcleo, podemos hacerlo como hemos visto en el capítulo acerca de espacios vectoriales: podemos calcular un sistema generador, determinar una base y su dimensión.

¿Qué relación tiene el núcleo de \(f\) con su matriz asociada?

Supongamos que fijamos las bases en \(V\) y \(W\) y que la matriz asociada a \(f\) en esas bases es \(A\).

Entonces, si \(v\in V\) está en el núcleo, será que \(f(v) = 0_W\), luego las coordenadas de \(f(v)\) en la base de \(W\) son todas cero: \([f(v)]_{\mathcal{B}_W} = 0\).

Pero como conocemos la matriz asociada a \(f\), entonces sabemos que \([f(v)]_{\mathcal{B}_W} = A\ [v]_{\mathcal{B}_V}\).

En resumen, \(v\in\mathrm{Ker}\ f\) si, y sólo si \(A\ [v]_{\mathcal{B}_V} = 0\), es decir, si y sólo si las coordenadas de \(v\) son solución del sistema de ecuaciones lineales homogéneo \(Ax = 0\).

\(\mathrm{Ker}\ f\) coincide con el subespacio de las soluciones del sistema \(Ax = 0\).

Esto también implica que las ecuaciones cartesianas de \(\mathrm{Ker}\ f\) son \(Ax = 0\). Por tanto, podemos aplicar lo que ya hemos visto para calcular una base del núcleo de \(f\).


Ejemplo

Seguimos con el ejemplo de la aplicación \(f:V=\mathbb{R}^{3}\to W=\mathbb{R}^{3}\) dada por:

\[f \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left( \begin{array}{c} x+ y+ z\\ x-2y\\ 2x-y+ z\\ \end{array} \right)\]

Como hemos visto, su matriz asociada es:

\[A = \left(\begin{array}{ccc} 1 & 1 & 1\\ 1 & -2 & 0\\ 2 & -1 & 1 \end{array}\right) \]

Usamos esa matriz \(A\) para construir el sistema homogéneo: \[\begin{array}{rrrcr} x & + y & + z & = & 0\\ x & -2y & & = & 0\\ 2x & -y & + z & = & 0\\ \end{array}\] que se corresponde con las ecuaciones cartesianas de \(\mathrm{Ker}\ f\) (podíamos haber hecho directamente \(f(v) = 0\) usando la definición de \(f\)).

Usaremos lo que hemos visto ya para convertir esas ecuaciones a forma paramétrica (usando eliminación Gaussiana), y así conseguir un sistema generador y una base: \[\begin{array}{rrrcr} x & + y & + z & = & 0\\ x & -2y & & = & 0\\ 2x & -y & + z & = & 0\\ \end{array}\Leftrightarrow\ \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \alpha\left(\begin{array}{c} - \frac{2}{3}\\ - \frac{1}{3}\\ 1 \end{array}\right) {}\]

Luego \[\mathcal{B}_{\mathrm{Ker}\ f} = \left\{\left( \begin{array}{c@{}} - \frac{2}{3}\\ - \frac{1}{3}\\ 1 \end{array} \right) \right\}\]


3.5 Cómo podemos identificar una aplicación lineal inyectiva

Recordemos que una aplicación \(f:X\to Y\) es inyectiva si y sólo si \(f(x_1)\ne f(x_2)\) siempre que \(x_1\ne x_2\), con \(x_1, x_2\in X\).

Hay una forma de caracterizar las aplicaciones lineales inyectivas:

Caracterización de la inyectividad: La aplicación lineal \(f:V\to W\) es inyectiva si, y sólo si, \(\mathrm{Ker}\ f = \{0\}\), es decir, si y sólo si \(\mathrm{dim}(\mathrm{Ker}\ f) = 0\).

Un resultado interesante nos presenta una relación entre la inyectividad de \(f\) y las dimensiones de los espacios \(V\) y \(W\):

Si la aplicación lineal \(f:V\to W\) es inyectiva, entonces se verifica que \(\mathrm{dim}(V)\le\mathrm{dim}(W)\).

El recíproco no es cierto, no siempre que tengamos \(\mathrm{dim}(V)\le\mathrm{dim}(W)\) la aplicación puede ser inyectiva. Por ejemplo, la aplicación cero \(0:\mathbb{R}^2\to\mathbb{R}^3\), que asocia a todo vector el vector 0 del codominio, no puede ser inyectiva, a pesar de que la dimensión del dominio es menor que la del codominio.

Podemos decir todavía algún resultado teórico que nos proporciona más información acerca de cómo identificar aplicaciones lineales inyectivas:

Una aplicación \(f:V\to W\) es inyectiva si, y sólo si, la imagen de todo sistema linealmente independiente es también un sistema linealmente independiente.

Si \(V\) es de dimensión finita, entonces la aplicación lineal \(f:V\to W\) es inyectiva si, y sólo si, \(\mathrm{dim}(V) = \mathrm{dim}(\mathrm{Im}\ f)\)


Ejemplo

En el ejemplo de la sección anterior, tenemos que \(\mathrm{dim}(\mathrm{Ker}\ f) = 1\), luego \(f\) no es inyectiva, ya que en ese caso debería ser \(\mathrm{dim}(\mathrm{Ker}\ f) = 0\).

Consideremos otra aplicación \(g:\mathbb{R}^{3}\to \mathbb{R}^{3}\) dada por: \[g \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left( \begin{array}{ccc@{}} 2 & -1 & 0\\ 1 & 3 & 0\\ 2 & 0 & 4 \end{array} \right) \ \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left(\begin{array}{c} 2x-y\\ x+ 3y\\ 2x+ 4z\\ \end{array}\right)\]

Podemos estudiar su núcleo para comprobar si es inyectiva: \[\mathrm{Ker}\ g =\left\{\left(\begin{array}{c} x\\ y\\ z \end{array}\right) \in\mathbb{R}^{3}:\begin{array}{ccr} 2x-y & = & 0\\ x+ 3y & = & 0\\ 2x+ 4z & = & 0\\ \end{array}\right\}\]

Resolvemos el sistema homogéneo para llegar a que \[\left\{\begin{array}{rrrcr} 2x & -y & & = & 0\\ x & + 3y & & = & 0\\ 2x & & + 4z & = & 0\\ \end{array}\right.\Rightarrow\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left(\begin{array}{c} 0\\ 0\\ 0 \end{array}\right) \]

Luego \(\mathrm{Ker}\ g=\{0\}\), y así \(g\) es inyectiva.


3.6 Cómo calcular el subespacio imagen de una aplicación lineal

Definición (Imagen de una aplicación lineal) Llamamos imagen de la aplicación lineal \(f:V\to W\) a: \[\mathrm{Im}\ f = \{w\in W: \text{existe }v\in V \text{ con }f(v) = w\} = f(V)\]

Análogamente a lo que pasaba con el núcleo de una aplicación lineal, tenemos:

La imagen es un subespacio vectorial: Si \(f:V\to W\) es una aplicación lineal, entonces \(\mathrm{Im}\ f\) es un subespacio vectorial de \(W\).

Por tanto, podemos estudiarlo con todas las herramientas que conocemos.

¿Cómo calculamos \(\mathrm{Im}\ f\)?

Recordemos que si \(\mathcal{G}\) es un sistema generador de un subespacio \(U\) de \(V\), entonces \(f(\mathcal{G})\) es un sistema generador de \(f(U)\).

En concreto, tomando una base \(\mathcal{B}\) de \(V\), su imagen \(f(\mathcal{B})\) es un sistema generador de \(\mathrm{Im}\ f\). Basta, por tanto, aplicar \(f\) a cada vector de \(\mathcal{B}\) y con eso construimos un sistema generador del que podemos eliminar los vectores linealmente dependientes para obtener una base de \(\mathrm{Im}\ f\).

En consecuencia:

Sistema generador de \(\mathrm{Im}\ f\): Sea \(f\) una aplicación lineal entre dos espacios \(V\) y \(W\), y sea \(A\) la matriz asociada a \(f\), una vez que hemos fijado dos bases en \(V\) y \(W\). Entonces \(\mathrm{Im}\ f\) es el subespacio de \(W\) generado por los vectores columna que forman la matriz \(A\).


Ejemplo

Vamos a estudiar la imagen de las dos aplicaciones \(f\) y \(g\) del ejemplo anterior.

Para \(f\), tenemos que \(\mathrm{Im}\ f\) está generado por los vectores columnas de la matriz \(A\), luego un sistema generador de \(\mathrm{Im}\ f\) será: \[\mathcal{G}_{\mathrm{Im}\ f} = \left\{\left( \begin{array}{c@{}} 1\\ 1\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ -2\\ -1 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ 0\\ 1 \end{array} \right) \right\}\]

A partir de él, eliminando los vectores que sean linealmente dependientes, encontramos una base de \(\mathrm{Im}\ f\): \[\mathcal{B}_{\mathrm{Im}\ f} = \left\{\left( \begin{array}{c@{}} 1\\ 1\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ -2\\ -1 \end{array} \right) \right\}\]

Luego \(\mathrm{dim}(\mathrm{Im}\ f) = 2\).

Vayamos ahora con la aplicación \(g\). Con el mismo razonamiento, sabemos que \[\mathcal{G}_{\mathrm{Im}\ g} = \left\{\left( \begin{array}{c@{}} 2\\ 1\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 3\\ 0 \end{array} \right) , \left( \begin{array}{c@{}} 0\\ 0\\ 4 \end{array} \right) \right\}\] es un sistema generador de \(\mathrm{Im}\ g\).

Igual que antes, podemos encontrar una base de \(\mathrm{Im}\ g\): \[\mathcal{B}_{\mathrm{Im}\ g} = \left\{\left( \begin{array}{c@{}} 2\\ 1\\ 2 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 3\\ 0 \end{array} \right) , \left( \begin{array}{c@{}} 0\\ 0\\ 4 \end{array} \right) \right\}\]

Entonces \(\mathrm{dim}(\mathrm{Im}\ g) = 3\). Esto nos dice que \(\mathrm{Im}\ g = W\).


3.7 Cómo identificar si una aplicación lineal es sobreyectiva

Recordemos que una aplicación \(f:X\to Y\) se dice sobreyectiva si, para cada \(y\in Y\), existe un \(x\in X\) tal que \(f(x) = y\), es decir, si \(f(X) = Y\).

En cuanto a aplicaciones lineales, tenemos el siguiente resultado, consecuencia de lo anterior:

Caracterización de la sobreyectividad: La aplicación lineal \(f:V\to W\) es sobreyectiva si \(f(V) = \mathrm{Im}\ f = W\), y esto es equivalente a decir que \(\mathrm{dim}(\mathrm{Im}\ f) = \mathrm{dim}(W)\).

Una propiedad adicional, con relación a las dimensiones de \(V\) y de \(W\):

Si la aplicación lineal \(f:V\to W\) es sobreyectiva, entonces \(\mathrm{dim}(V)\ge\mathrm{dim}(W)\).


Ejemplo

En el ejemplo anterior, estudiamos las imágenes de las aplicaciones \(f\) y \(g\) de los ejemplos.

Si aplicamos el resultado teórico de antes, llegamos a que:

  • \(f\) no es sobreyectiva, pues \(\mathrm{dim}(\mathrm{Im}\ f) = 2 \ne 3 = \mathrm{dim}(W)\).
  • \(g\) sí es sobreyectiva, pues \(\mathrm{dim}(\mathrm{Im}\ g) = 3 = \mathrm{dim}(W)\).

3.8 Qué es un isomorfismo

Definición (Isomorfismo y automorfismo) Un isomorfismo es una aplicación lineal inyectiva y sobreyectiva.

Un automorfismo es un isomorfismo donde dominio y codominio son el mismo espacio \(V\).

Algunas propiedades básicas de los isomorfismos

  • La composición de isomorfismos es un isomorfismo.
  • La aplicación inversa de un isomorfismo es también un isomorfismo

Cuando, además, estamos hablando de espacios de dimensión finita, tenemos los siguientes resultados:

  • Una aplicación lineal \(f:V\to W\) es un isomorfismo si, y sólo si, \(\mathrm{dim}(V) = \mathrm{dim}(W)\).

  • Una aplicación \(f:V\to V\) es un automorfismo si, y sólo si, o bien es inyectiva o bien es sobreyectiva.

Este último resultado nos dice que en un endomorfismo, basta con ver si la aplicación es inyectiva o sobreyectiva para tener que es un isomorfismo.


Ejemplo

Si miramos las aplicaciones \(f\) y \(g\) de las secciones anteriores, entonces podemos confirmar que \(g\) es un automorfismo, mientras que \(f\) no lo es, ya que no es ni inyectiva ni sobreyectiva.


3.9 Cómo determinar la imagen de un subespacio vectorial

Este problema es realmente un caso particular de cómo calcular la imagen de una aplicación lineal.

Tanto en esa sección como en la de propiedades, vimos que si \(U\) es un subespacio vectorial generado por los vectores de \(\mathcal{G}=\{u_1,\ldots,u_k\}\), entonces \(f(\mathcal{G}) = \{f(u_1),\ldots,f(u_k)\}\) es un sistema generador de \(f(U)\).

Por tanto, si deseamos calcular la imagen de un subespacio \(U\), los pasos a seguir serán:


Ejemplo

Consideremos el subespacio \(U\) dado por \[U = \left\{\left(\begin{array}{c} x\\ y\\ z \end{array}\right) \in\mathbb{R}^{3}:\begin{array}{ccr} -x- \frac{1}{2}y+ z & = & 0\\ \end{array}\right\}\]

Queremos calcular \(f(U)\) y \(g(U)\), siendo \(f\) y \(g\) las de los ejemplos anteriores.

El primer paso es calcular una base de \(U\). Para ello, pasamos las ecuaciones cartesianas de \(U\) a paramétricas, que nos dan un sistema generador, resolviendo el sistema de ecuaciones por Gauss. A partir del sistema generador, ya podríamos proceder, o podemos calcular una base de \(U\).

En nuestro caso, \[\mathcal{B}_U = \left\{\left( \begin{array}{c@{}} -2\\ 2\\ -1 \end{array} \right) , \left( \begin{array}{c@{}} 1\\ 0\\ 1 \end{array} \right) \right\}\]

Comenzamos por calcular \(f(U)\). Debemos calcular la imagen de los vectores de la base de \(U\) con la aplicación \(f\): \[f(\mathcal{B}_U) = \left\{\left( \begin{array}{c@{}} -1\\ -6\\ -7 \end{array} \right) , \left( \begin{array}{c@{}} 2\\ 1\\ 3 \end{array} \right) \right\}\]

Si eliminamos los vectores linealmente dependientes de \(f(\mathcal{B}_U)\), nos queda una base de \(f(U)\): \[\mathcal{B}_{f(U)} = \left\{\left( \begin{array}{c@{}} -1\\ -6\\ -7 \end{array} \right) , \left( \begin{array}{c@{}} 2\\ 1\\ 3 \end{array} \right) \right\}\]

Repetimos el proceso con la aplicación \(g\). Calculamos: \[g(\mathcal{B}_U) = \left\{\left( \begin{array}{c@{}} -6\\ 4\\ -8 \end{array} \right) , \left( \begin{array}{c@{}} 2\\ 1\\ 6 \end{array} \right) \right\}\]

Como sabemos que \(g\) es un isomorfismo, sabemos que la imagen de un sistema linealmente independiente es también un sistema linealmente independiente. Luego \(\mathcal{B}_{g(U)} = g(\mathcal{B}_U)\). Si no recordáramos este resultado, deberíamos intentar eliminar los vectores linealmente dependientes en \(g(\mathcal{B}_U)\) para así obtener la base.


3.10 A qué se llama rango y nulidad de la aplicación lineal

Definición (Rango) Se llama rango de una aplicación lineal \(f:V\to W\) a la dimensión de la imagen de \(f\): \(\mathrm{rg}(f) = \mathrm{dim}(\mathrm{Im}\ f)\).

Definición (Nulidad) Se llama nulidad de una aplicación lineal \(f:V\to W\) a la dimensión del núcleo de \(f\): \(\mathrm{nul}(f) = \mathrm{dim}(\mathrm{Ker}\ f)\).

De forma análoga, se pueden definir rango y nulidad para matrices, puesto que tenemos una importante relación entre matrices y aplicaciones lineales.

Definición (Rango y nulidad de una matriz) Dada una matriz \(A\), su rango \(\mathrm{rg}(A)\) es la dimensión del subespacio generado por los vectores que forman sus columnas, y su nulidad \(\mathrm{nul}(A)\) es la dimensión del subespacio vectorial de las soluciones del sistema de ecuaciones lineales \(A\ v = 0\).

Un resultado importante, debido a que todas las matrices asociadas a una misma aplicación lineal son equivalentes, es que todas tienen el mismo rango y la misma nulidad, y coinciden con el rango y nulidad de \(f\).

Por tanto, para calcular rango y nulidad de \(f\), bastará con estudiar el rango y nulidad de cualquiera de sus expresiones matriciales en unas bases fijadas de \(V\) y \(W\).


Ejemplo

Vamos a calcular el rango y la nulidad de las aplicaciones \(f\) y \(g\) que estamos estudiando en los ejemplos anteriores.

El caso fácil es el de \(g\), que era un isomorfismo. Luego:

  • \(\mathrm{nul}(g) = \mathrm{dim}(\mathrm{Ker}\ g) = \mathrm{dim}(\{0\}) = 0\), por ser \(g\) inyectiva.
  • \(\mathrm{rg}(g) = \mathrm{dim}(\mathrm{Im}\ g) = \mathrm{dim}(W) = 3\), por ser \(g\) sobreyectiva.

Y lo mismo se aplica para sus matrices asociadas.

En cuanto a \(f\), recopilando la información que tenemos:

  • Su nulidad es la dimensión de su núcleo: \(\mathrm{nul}(f) = \mathrm{dim}(\mathrm{Ker}\ f) = 1\).
  • Su rango es la dimensión de su imagen: \(\mathrm{rg}(f) = \mathrm{dim}(\mathrm{Im}\ f) = 2\)

3.11 Qué dice el teorema de la dimensión para núcleo e imagen

El resultado teórico que nos relaciona las dimensiones de núcleo e imagen de una aplicación lineal \(f:V\to W\), es decir, su nulidad y su rango, es el siguiente:

Teorema de la dimensión: Si \(f:V\to W\) es una aplicación lineal, entonces

\[\mathrm{dim}(V) = \mathrm{dim}(\mathrm{Ker}\ f) + \mathrm{dim}(\mathrm{Im}\ f) = \mathrm{nul}(f) + \mathrm{rg}(f)\]

Este resultado, reescrito en términos matriciales, queda como:

Si \(A\) es una matriz con \(m\) filas y \(n\) columnas, entonces

\[n = \mathrm{nul}(A) + \mathrm{rg}(A)\]


Ejemplo

Vamos a comprobar el teorema de la dimensión para las aplicaciones lineales \(f\) y \(g\) de los ejemplos anteriores.

  • Para \(f\): \[\begin{array}{ccccc} \mathrm{dim}(\mathbb{R}^{3}) & = & \mathrm{dim}(\mathrm{Ker}\ f) & + & \mathrm{dim}(\mathrm{Im}\ f) \\ 3 & = & 1 & + & 2 \\ \end{array}\]

  • Para \(g\): \[\begin{array}{ccccc} \mathrm{dim}(\mathbb{R}^{3}) & = & \mathrm{dim}(\mathrm{Ker}\ g) & + & \mathrm{dim}(\mathrm{Im}\ g) \\ 3 & = & 0 & + & 3 \\ \end{array}\]