4 Diagonalización

En este capítulo nos vamos a centrar en el estudio de endomorfismos, es decir, de aplicaciones lineales \(f:V\to V\) donde el dominio y el codominio son el mismo espacio vectorial sobre un cuerpo \(\mathbb{K}\) (generalmente \(\mathbb{K} = \mathbb{R}\) o \(\mathbb{K} = \mathbb{C}\)).

Una de las propiedades que hemos estudiado es que si tenemos una base \(\mathcal{B}\) fija en \(V\), entonces podemos encontrar una matriz \(A\), asociada a \(f\), tal que podemos expresar las coordenadas de \(f(v)\) en dicha base como \(A\ v\), sea cual sea \(v\in V\).

¿Qué ocurre si fijamos otra base distinta \(\mathcal{B}'\) en \(V\)?

En ese caso, la matriz asociada al endomorfismo \(f\) será \(A' = P^{-1}\ A\ P\), donde \(P\) es la matriz de cambio de base de \(\mathcal{B'}\) a \(\mathcal{B}\).

Esta relación especial entre \(A\) y \(A'\) tiene nombre: son matrices semejantes.

Definición (Matrices semejantes) Dos matrices \(A,A'\in\mathcal{M}_n(\mathbb{K})\) se dicen semejantes si existe \(P\in\mathcal{M}_n(\mathbb{K})\) regular tal que \(A'=P^{-1}\ A\ P\).

Esto tiene implicaciones como que los cálculos que podamos necesitar hacer con un endomorfismo, como calcular su núcleo y su imagen, o los que veremos en este tema, lo podemos hacer con cualquiera de sus matrices asociadas, respecto a diferentes bases, ya que son todas semejantes.

Sin embargo, para ciertas operaciones, podremos necesitar tener una matriz asociada a \(f\) lo más simple posible. ¿Qué entendemos por una matriz simple? Una matriz diagonal.

La diagonalización es el proceso por el cual pretendemos encontrar una base \(\mathcal{B}\) de \(V\) tal que la matriz asociada a un endomorfismo \(f\) sea diagonal.

Definición (Endomorfismo diagonalizable) Un endomorfismo \(f:V\to V\) se dice diagonalizable si existe una base de \(V\) donde la matriz asociada a \(f\) es diagonal.

No todos los endomorfismos serán diagonalizables, así que veremos cuándo podremos asegurar que sí lo son, y el mecanismo para encontrar la forma diagonal de la matriz asociada al endomorfismo.

Nota: A menudo, abusaremos de la notación y usaremos indistintamente \(v\) para designar a un vector o a sus coordenadas con respecto a la base canónica.


Ejemplo

Consideremos el siguiente endomorfismo \(f:\mathbb{R}^{3}\to\mathbb{R}^{3}\), dado por \[f\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left(\begin{array}{c} 9x+ 6y+ 6z\\ -2x+ y-2z\\ -10x-10y-7z\\ \end{array}\right)\]

Es claro que su matriz asociada en la base canónica es: \[A = \left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) \]

Si consideramos la siguiente base: \[\mathcal{B} = \left\{\left( \begin{array}{c@{}} - \frac{3}{5}\\ \frac{1}{5}\\ 1 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 1\\ 0 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 0\\ 1 \end{array} \right) \right\}\] entonces la matriz de cambio de \(\mathcal{B}\) a la canónica \(\mathcal{C}\) es: \[P = \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) \] y la matriz asociada a \(f\) en la nueva base es: \[\begin{array}{rcl}A' & = & \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) ^{-1}\ \left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) \ \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) = \\ & = & \left( \begin{array}{ccc@{}} -3 & 0 & 0\\ 0 & 3 & 0\\ 0 & 0 & 3 \end{array} \right) \end{array}\]

En este capítulo, veremos el método para hallar esa descomposición, la base y la matriz diagonal.


¿Qué preguntas vamos a responder en este capítulo?

4.1 Qué son los autovalores de un endomorfismo y de una matriz

Definición (Autovalor y autovector) Consideremos un endomorfismo \(f:V\to V\). Diremos que un valor \(\lambda\in\mathbb{K}\) es un autovalor (o valor propio) de \(f\) si existe un vector no nulo \(v\in V\) tal que \(f(v) = \lambda\ v\). A ese \(v\) se le denomina autovector (o vector propio) asociado a \(\lambda\).

Nota: Eliminamos la posibilidad de que \(v\) sea nulo en la definición, porque sabemos que \(f(0) = 0\) en cualquier aplicación lineal, así que no nos proporcionaría información alguna.

Intuitivamente, un autovector \(v\) es un vector no nulo que, al aplicarle \(f\), su imagen \(f(v)\) es proporcional a él mismo, y la constante de proporcionalidad es el autovalor \(\lambda\).

Si consideramos una matriz \(A\) asociada a \(f\), la condición \(f(v) = \lambda\ v\) se puede reescribir como \(A\ v = \lambda\ v\).

Podemos generalizar entonces esta definición a matrices cuadradas:

Definición (Autovalor y autovector de una matriz cuadrada) Un escalar \(\lambda\) se llama autovalor o valor propio de una matriz \(A\in\mathcal{M}_n(\mathbb{K})\) si existe \(v\in\mathbb{K}^{n}\) no nulo, llamado autovector o vector propio asociado a \(\lambda\), tal que \(A\ v = \lambda\ v\).

Nos falta comprobar si hay alguna incoherencia en las definiciones: si distintas matrices asociadas a un mismo endomorfismo tuvieran distintos autovalores, eso sería un problema de la definición. Sin embargo, el siguiente resultado nos asegura que esto no puede ser así:

Si dos matrices \(A\) y \(A'\) son semejantes, entonces tienen los mismos autovalores.

Podemos decir entonces que:

Si \(\lambda\) es un autovalor de \(f\), entonces lo es de cualquiera de sus matrices asociadas en diferentes bases, y esto es debido a su relación de semejanza.

Esto significa que si queremos calcular los autovalores de un endomorfismo \(f\), basta con calcularlos para cualquiera de sus matrices asociadas, en particular para su matriz asociada en la base canónica, la más sencilla de encontrar.

¿Cómo podemos encontrar los autovalores de un endomorfismo o de su matriz asociada?

Para encontrar los autovalores de un endomorfismo, siempre partiremos de una matriz asociada al mismo. Por tanto, explicaremos cómo calcular los autovalores de una matriz cuadrada, y eso nos bastará para encontrar los del endomorfismo, por lo comentado anteriormente.

La condición para ser \(\lambda\in\mathbb{K}\) un autovalor es que exista \(v\in V\) tal que \(A\ v = \lambda\ v\).

Esto es equivalente a \(A\ v - \lambda v = 0\), es decir, \(A\ v - \lambda\ I\ v = 0\), siendo \(I\) la matriz identidad del mismo tamaño que \(v\). En forma compacta, podemos decir que \(\lambda\) es autovalor de \(A\) si existe \(v\) tal que \((A-\lambda\ I)\ v = 0\).

Es decir, \(v\) debe ser solución del siguiente sistema homogéneo: \((A-\lambda\ I)\ x = 0\).

Recordemos que un sistema homogéneo tiene siempre solución. Estamos interesados en soluciones distintas del vector 0, puesto que hemos impuesto en la definición de autovector que sea un vector no nulo.

¿Qué condición tenemos para saber que un sistema homogéneo es compatible indeterminado? Pues que la matriz de coeficientes del sistema sea singular, es decir, tenga determinante igual a 0.

En este caso, la matriz de coeficientes del sistema es \(A-\lambda\ I\), así que tendremos soluciones distinta de la trivial si \(\mathrm{det}(A-\lambda\ I) = 0\).

Hay que notar que la expresión \(\mathrm{det}(A-\lambda\ I)\) depende de \(\lambda\), así que realmente estamos buscando los valores de \(\lambda\) que hacen que \(\mathrm{det}(A-\lambda\ I) = 0\).

Definición (Polinomio característico) Llamamos polinomio característico de la matriz \(A\) a \(p(\lambda) = \mathrm{det}(A-\lambda\ I)\), y ecuación característica a \(\mathrm{det}(A-\lambda\ I) = 0\).

Por tanto, los autovalores de una matriz \(A\) son soluciones a la ecuación característica, es decir, las raíces del polinomio característico.


Ejemplo

Vamos a calcular los autovalores del endomorfismo \(f:\mathbb{R}^{3}\to\mathbb{R}^{3}\), dado por \[f\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \left(\begin{array}{c} 9x+ 6y+ 6z\\ -2x+ y-2z\\ -10x-10y-7z\\ \end{array}\right)\] del ejemplo anterior.

Sabemos que su matriz asociada en la base canónica es: \[A = \left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) \]

Definimos entonces el polinomio característico como: \[\begin{array}{rcl}p(\lambda) & = & \mathrm{det}(A - \lambda\ I) = \\ & = & \mathrm{det}\left(\left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) - \lambda \left( \begin{array}{ccc@{}} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array} \right) \right) = \\ & = & \mathrm{det}\left( \begin{array}{ccc@{}} 9-\lambda & 6 & 6\\ -2 & 1-\lambda & -2\\ -10 & -10 & -7-\lambda \end{array} \right) \end{array}\]

Si desarrollamos el determinante, nos queda como polinomio característico: \[p(\lambda) = \lambda^{3}-3\lambda^{2}-9\lambda+27\]

Igualándolo a 0, tenemos la ecuación característica \(\lambda^{3}-3\lambda^{2}-9\lambda+27 = 0\), que podemos resolver (generalmente se podrá factorizar de forma simple o usando Ruffini) y nos quedan las siguientes soluciones: \(\lambda = -3, 3\). Esta última solución es raíz doble, ya que: \[p(\lambda) = (\lambda +3)\cdot (\lambda -3)^{2}\]

Por tanto, \(\lambda = -3, 3\) son autovalores de la matriz \(A\) y del endomorfismo \(f\).


4.2 Cómo calculamos los autovectores asociados a un autovalor

Acabamos de ver que los autovectores asociados a un autovalor \(\lambda\) son soluciones no triviales del sistema homogéneo \((A-\lambda\ I)x = 0\).

También sabemos que las soluciones de un sistema homogéneo forman un subespacio vectorial. Por tanto, el conjunto de autovectores asociado a un autovalor \(\lambda\) es un subespacio vectorial que llamamos subespacio asociado al autovalor \(\lambda\). Generalmente, denotaremos \(U_{\lambda}\) al subespacio asociado al autovalor \(\lambda\).

En ocasiones, se denomina subespacio invariante por \(f\) a \(U_{\lambda}\), puesto que \(f(U_{\lambda}) \subseteq U_{\lambda}\).

Como con cualquier subespacio vectorial, para tener perfectamente determinado a \(U_{\lambda}\) nos basta con dar una base suya que, evidentemente, estará formada por autovectores asociados a \(\lambda\).

En este caso, podemos partir de las ecuaciones cartesianas de \(U_{\lambda}\), que son el sistema \((A-\lambda\ I)\ x = 0\), y encontrar una base suya, como ya hemos visto en el capítulo de espacios vectoriales.


Ejemplo

Retomamos el endomorfismo \(f\) de los ejemplos anteriores. Calculemos los subespacios asociados a los distintos autovalores:

  • Para el autovalor \(\lambda = -3\): \[\begin{array}{rcl}(A + 3 I)\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = 0 & \Leftrightarrow & \left( \begin{array}{ccc@{}} 12 & 6 & 6\\ -2 & 4 & -2\\ -10 & -10 & -4 \end{array} \right) \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = 0 \Leftrightarrow\quad\\& \Leftrightarrow &\left\{\begin{array}{rrrcr} 12x & + 6y & + 6z & = & 0\\ -2x & + 4y & -2z & = & 0\\ -10x & -10y & -4z & = & 0\\ \end{array}\right. \\\end{array}\]

Resolvemos este sistema por Gauss-Jordan, encontrando la forma paramétrica de su conjunto solución, que es \(U_{ -3 }\): \[\left( \begin{array}{ccc|c} 12 & 6 & 6 & 0\\ -2 & 4 & -2 & 0\\ -10 & -10 & -4 & 0 \end{array} \right) \sim\left( \begin{array}{ccc|c} 12 & 0 & \frac{36}{5} & 0\\ 0 & 5 & -1 & 0\\ 0 & 0 & 0 & 0 \end{array} \right) \]\[\Rightarrow\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \alpha\left(\begin{array}{c} - \frac{3}{5}\\ \frac{1}{5}\\ 1 \end{array}\right) {}\]

De aquí que una base de \(U_{ -3 }\) sea: \[\mathcal{B}_{U_{-3}} = \left\{\left( \begin{array}{c@{}} - \frac{3}{5}\\ \frac{1}{5}\\ 1 \end{array} \right) \right\}\]- Para el autovalor \(\lambda = 3\): \[\begin{array}{rcl}(A -3 I)\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = 0 & \Leftrightarrow & \left( \begin{array}{ccc@{}} 6 & 6 & 6\\ -2 & -2 & -2\\ -10 & -10 & -10 \end{array} \right) \left(\begin{array}{c} x\\ y\\ z \end{array}\right) = 0 \Leftrightarrow\quad\\& \Leftrightarrow &\left\{\begin{array}{rrrcr} 6x & + 6y & + 6z & = & 0\\ -2x & -2y & -2z & = & 0\\ -10x & -10y & -10z & = & 0\\ \end{array}\right. \\\end{array}\]

Resolvemos este sistema por Gauss-Jordan, encontrando la forma paramétrica de su conjunto solución, que es \(U_{ 3 }\): \[\left( \begin{array}{ccc|c} 6 & 6 & 6 & 0\\ -2 & -2 & -2 & 0\\ -10 & -10 & -10 & 0 \end{array} \right) \sim\left( \begin{array}{ccc|c} 6 & 6 & 6 & 0\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 \end{array} \right) \]\[\Rightarrow\left(\begin{array}{c} x\\ y\\ z \end{array}\right) = \alpha\left(\begin{array}{c} -1\\ 1\\ 0 \end{array}\right) {}+\beta\left(\begin{array}{c} -1\\ 0\\ 1 \end{array}\right) {}\]

De aquí que una base de \(U_{ 3 }\) sea: \[\mathcal{B}_{U_{3}} = \left\{\left( \begin{array}{c@{}} -1\\ 1\\ 0 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 0\\ 1 \end{array} \right) \right\}\]

Los vectores de las bases encontradas, así como cualquiera de sus múltiplos, son autovectores asociados al correpondiente autovalor \(\lambda\).


4.3 Cómo sabemos si un endomorfismo o una matriz es diagonalizable

Una vez que sabemos cómo hallar los autovalores y los autovectores de una matriz y de un endomorfismo, vamos a plantearnos cómo utilizarlos para saber si podemos encontrar una base \(\mathcal{B}\) del espacio \(V\) tal que la matriz asociada al endomorfismo \(f\) es diagonal. Es decir, nos planteamos el estudio de si \(f\) es diagonalizable.

El principal resultado teórico que necesitamos es el siguiente:

Caracterización de diagonalizable: Un endomorfismo \(f:V\to V\) es diagonalizable si y sólo si existe una base \(\mathcal{B}\) de \(V\) formada únicamente por autovectores de \(f\). En ese caso, la matriz asociada \(D\) en esa base es diagonal y tiene en su diagonal principal los autovalores de \(f\). Además, la matriz de cambio de base \(P_{\mathcal{B}\to\mathcal{C}}\) (formada por los vectores de \(\mathcal{B}\) por columnas) verifica: \[P_{\mathcal{B}\to\mathcal{C}}^{-1}\ A\ P_{\mathcal{B}\to\mathcal{C}} = D\] o, equivalentemente, \[A = P_{\mathcal{C}\to\mathcal{B}}^{-1}\ D\ P_{\mathcal{C}\to\mathcal{B}}\]

Este resultado proporciona mucha información: nos dice que para que sea diagonalizable un endomorfismo (o una matriz), necesitamos una base de \(V\) formada por únicamente autovectores, y que la matriz diagonal asociada tendrá a los autovalores en la diagonal principal.

Nos preguntamos entonces bajo qué condiciones podemos asegurar que tenemos una base de \(V\) formada enteramente por autovectores.

El siguiente resultado es de gran ayuda:

Autovectores asociados a distintos autovalores son linealmente independientes.

Supongamos que llamamos \(\lambda_1,\ldots,\lambda_k\) a los autovalores de un endomorfismo o de una matriz, y \(U_{\lambda_1},\ldots,U_{\lambda_k}\) a los subespacios asociados a los autovalores. Supongamos que todos los \(\lambda_i\) son distintos unos de otros.

El resultado anterior me asegura que si \(i\ne j\), entonces los vectores de las bases de \(U_{\lambda_i}\) y de \(U_{\lambda_j}\) son linealmente independientes.

Llamamos \(\mathcal{B} = \mathcal{B}_{U_{\lambda_1}}\cup \ldots\cup\mathcal{B}_{U_{\lambda_k}}\), es un sistema linealmente independiente por lo que acabamos de comentar. Si, además, \(\mathcal{B}\) tuviera \(n\) elementos, puesto que \(\mathrm{dim}(V) = n\), entonces \(\mathcal{B}\) sería una base de \(V\) (recordemos que una base es un sistema linealmente independiente con tantos elementos como la dimensión del espacio vectorial).

Por tanto, si unimos todas las bases de los subespacios asociados a los autovalores, y tenemos tantos elementos como la dimensión del espacio \(V\), entonces se verifica todo lo anterior: el endomorfismo (y sus matrices asociadas) son diagonalizables. Esto es así porque entonces se verificaría: \[V = U_{\lambda_1} + \ldots + U_{\lambda_k}\]

La primera consecuencia de esto es:

Si una matriz o un endomorfismo tienen exactamente \(n\) autovalores distintos, entonces es diagonalizable.

Esto es así porque cada uno de los \(n\) autovalores tendría un subespacio asociado cuya base es linealmente independiente de la base de los demás subespacios. Esto solo podría suceder si cada una de las \(n\) bases \(\mathcal{B}_{U_{\lambda_i}}\), (\(i = 1,\ldots,n\)) solo tiene un elemento, es decir, si \(\mathrm{dim}(U_{\lambda_i}) = 1\) para todo \(i=1,\ldots,n\). Si no fuera así, acabaríamos con más de \(n\) vectores linealmente independientes en \(V\), lo cual es imposible.

Entonces \(\mathcal{B}\), definida como la unión de las bases mencionadas, tiene exactamente \(n\) elementos. Esto nos demuestra que la matriz o el endomorfismo con \(n\) autovalores distintos es diagonalizable.

Pero ¿qué pasa cuando no tenemos \(n\) autovalores distintos?

Es de gran importancia conocer, para todo \(i = 1,\ldots,k\), la dimensión del subespacio asociado al autovalor \(\lambda_i\).

Definición (Multiplicidad geométrica) Llamaremos multiplicidad geométrica del autovalor \(\lambda\) a \(\mathrm{m_g}(\lambda) = \mathrm{dim}(U_{\lambda_i})\).

Se tiene el siguiente resultado:

Para todo autovalor \(\lambda\) de un endomorfismo o de una matriz, se tiene que \[1\le\mathrm{m_g}(\lambda)\le\mathrm{m_a}(\lambda)\] donde \(\mathrm{m_g}(\lambda)\) es su multiplicidad geométrica y \(\mathrm{m_a}(\lambda)\) es la multiplicidad algebraica de \(\lambda\), es decir, su multiplicidad como raíz del polinomio característico.

Es decir, la multiplicidad geométrica siempre es mayor o igual que 1 (indicando que el subespacio \(U_{\lambda}\) no es el trivial \(\{0\}\)), y menor que la multiplicidad algebraica.

Un corolario de todos los resultados anteriores es:

Si, para todo autovalor \(\lambda\) de un endomorfismo o de una matriz cuadrada, se tiene que \(\mathrm{m_g}(\lambda) = \mathrm{m_a}(\lambda)\), entonces es diagonalizable. Y el recíproco es también cierto.

Aquí tenemos un criterio sencillo para determinar si un endomorfismo o una matriz son diagonalizables:

  • Si tenemos \(n\) autovalores distintos, entonces es diagonalizable.
  • Si tenemos menos de \(n\) autovalores distintos, debemos comprobar que las multiplicidades geométricas de todos los autovalores coincidan con sus multiplicidades algebraicas.

En ambos casos, la base de \(V\) definida por \(\mathcal{B} = \mathcal{B_{U_{\lambda_1}}}\cup\ldots\cup\mathcal{B_{U_{\lambda_k}}}\) es una base formada por autovectores y la matriz asociada al endomorfismo \(f\) en dicha base es diagonal con los autovalores en la diagonal principal (repetidos según su multiplicidad).

Si \(P\) es la matriz de paso de \(\mathcal{B}\) a la canónica \(\mathcal{C}\), entonces la expresión matricial del endomorfismo \(f\) en dicha base \(\mathcal{B}\) es \(D = P^{-1}\ A\ P\).


Ejemplo

Consideramos el endomorfismo \(f\) de los ejemplos anteriores. Si tenemos en cuenta lo que se ha determinado de sus autovalores y de los subespacios asociados, tenemos la siguiente tabla resumen:

\[ \begin{array}{ccc@{}} \text{Autovalor} & \text{Mult. Algebraica} & \text{Mult. Geométrica}\\ -3 & 1 & 1\\ 3 & 2 & 2 \end{array} \]

Con esto, queda demostrado que el endomorfismo \(f\) es diagonalizable.

Además, la base \(\mathcal{B}\) de autovectores es: \[\mathcal{B} = \mathcal{B}_{-3}\cup\ \mathcal{B}_{3} = \left\{\left( \begin{array}{c@{}} - \frac{3}{5}\\ \frac{1}{5}\\ 1 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 1\\ 0 \end{array} \right) , \left( \begin{array}{c@{}} -1\\ 0\\ 1 \end{array} \right) \right\}\]

La matriz de cambio de base de \(\mathcal{B}\) a \(\mathcal{C}\) es la que tiene los elementos de \(\mathcal{B}\) por columnas: \[P = \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) \]

Y la matriz diagonal es la que tiene los autovalores en la diagonal, que se calcula como: \[\begin{array}{rcl}D & = & P^{-1}\ A\ P = \\ & = & \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) ^{-1}\left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) \\ & = & \left( \begin{array}{ccc@{}} -3 & 0 & 0\\ 0 & 3 & 0\\ 0 & 0 & 3 \end{array} \right) \end{array}\]


4.4 Si una matriz es diagonalizable, cómo podemos hallar sus potencias

Consideremos una matriz cuadrada diagonalizable. En concreto, eso significa que existe otra matriz cuadrada \(P\) regular (cuyas columnas son los vectores de la base de autovectores) tal que \[A = P^{-1}\ D\ P\] donde \(D\) es la matriz diagonal con los autovalores de \(A\) en la diagonal principal.

Supongamos que queremos hallar \(A^k\), con \(k > 1\) entero. Si usamos la expresión anterior, nos queda: \[A^k = A\cdot A\cdot\ldots A = (P^{-1}\ D\ P) \cdot (P^{-1}\ D\ P) \cdot\ldots (P^{-1}\ D\ P)\] donde los productos se repiten \(k\) veces. Si agrupamos cada par \(P\cdot P^{-1}\), que es igual a la identidad, entonces nos queda: \[A^k = P^{-1}\ D^k\ P\] Como \(D\) es una matriz diagonal con los autovalores, es fácil calcular su potencia \(k\)-ésima: \[ \left( \begin{array}{cccc} \lambda_1 & 0 & \ldots & 0 \\ 0 & \lambda_2 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \lambda_n \\ \end{array}\right)^k = \left( \begin{array}{cccc} \lambda_1^k & 0 & \ldots & 0 \\ 0 & \lambda_2^k & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \lambda_n^k \\ \end{array}\right) \]

De esta forma, calcular la potencia de \(A\) se reduce a calcular la potencia \(k\)-ésima de la matriz \(D\). Esto es especialmente útil para calcular potencias altas de \(A\).


Ejemplo

Calculemos \(A^{100}\) donde \(A\) es la matriz del ejemplo anterior.

Conocemos su descomposición: \[\begin{array}{rcl}A & = & P\ D\ P^{-1} = \\ & = & \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) \left( \begin{array}{ccc@{}} -3 & 0 & 0\\ 0 & 3 & 0\\ 0 & 0 & 3 \end{array} \right) \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) ^{-1} \\\end{array}\]

Entonces, por lo comentado anteriormente, \(A^{100} = P\ D^{100}\ P^{-1}\), es decir: \[\begin{array}{rcl}A^{100} & = & P D^{100} P^{-1} = \\ & = & \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) \left( \begin{array}{ccc@{}} (-3)^{100} & 0 & 0\\ 0 & 3^{100} & 0\\ 0 & 0 & 3^{100} \end{array} \right) \left( \begin{array}{ccc@{}} - \frac{3}{5} & -1 & -1\\ \frac{1}{5} & 1 & 0\\ 1 & 0 & 1 \end{array} \right) ^{-1} \\\end{array}\]


4.5 Para qué podemos utilizar el Teorema de Cayley-Hamilton

El Teorema de Cayley-Hamilton nos dice que:

Cayley-Hamilton: Toda matriz cuadrada \(A\) verifica su ecuación característica, es decir, si \(p(\lambda)\) es el polinomio característico de \(A\), entonces \(p(A) = 0\).

Supongamos que el polinomio característico de una matriz \(A\) es \[p(\lambda) = c_n\lambda^n+\ldots+c_1\lambda+c_0\]

El teorema nos dice que \(A\) hace cero su polinomio característico: \[p(A) = c_n A^n + \ldots + c_1 A + c_0 I = 0\] donde \(A^k\) representa el producto de \(A\) por sí misma \(k\) veces.

¿Qué utilidades tiene este teorema?

Supongamos que el término independiente del polinomio característico, \(c_0\) es no nulo (esto equivale a que 0 no sea un autovalor, lo cual es también equivalente a que \(A\) sea regular). Si de la igualdad superior despejamos la identidad, \(I\), nos queda lo siguiente: \[ \begin{array}{rcl} I & = & -\dfrac{1}{c_0}\left(c_nA^n+\ldots+c_1A\right) = \\ & = & -\dfrac{1}{c_0}\left(c_nA^{n-1}+\ldots+c_1\ I\right)\ A \end{array} \]

De aquí deducimos que \[A^{-1} = -\dfrac{1}{c_0}\left(c_nA^{n-1}+\ldots+c_1\ I\right)\]

Por tanto, el teorema de Cayley-Hamilton nos da una forma de calcular la inversa de una matriz cuadrada \(A\), únicamente a partir de sumas de potencias de la matriz.

Esta misma estrategia nos proporciona un método para calcular potencias de la matriz \(A\), aparte del ya explicado, reduciendo el problema a potencias de \(A\) de grado menor que el tamaño de la propia matriz.

Si, de la igualdad del teorema, despejamos el término \(A^n\), nos queda \[A^n = -\frac{1}{c_n}\left(-c_{n-1}A^{n-1}-\ldots-c_1 A- c_0 I\right)\]

A partir de \(A^n\), siendo \(n\) el número de filas o columnas de la matriz \(A\), todas sus potencias se pueden poner como suma de potencias de \(A\) de grado menor estrictamente que \(n\): \[ \begin{array}{rcl} A^{n+1} & = & A\cdot A^n = \\ & = & A \cdot \left(-\frac{1}{c_n}\left(-c_{n-1}A^{n-1}-\ldots-c_1 A- c_0 I\right)\right) = \\ & = & -\frac{1}{c_n}\left(-c_{n-1}A^n-\ldots-c_1 A^2- c_0 A\right) = \\ & = & -\frac{1}{c_n}\left(-c_{n-1}\left(-\frac{1}{c_n}\left(-c_{n-1}A^{n-1}-\ldots-c_1 A- c_0 I\right)\right)-\ldots-c_1 A^2- c_0 A\right) = \\ & = & ...\\ \end{array} \]

Siguiendo con este patrón, se puede poner cualquier potencia \(A^m\), con \(m\ge n\), como suma de \(A,A^2,\ldots,A^{n-1}\).


Ejemplo

Vamos a considerar la matriz \[A = \left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) \] asociada al endomorfismo \(f\) de los ejemplos anteriores.

Vamos a calcular \(A^{-1}\), \(A^4\) y \(A^5\) usando el Teorema de Cayley-Hamilton.

Conocemos su polinomio característico: \[p(\lambda) = \lambda^{3}-3\lambda^{2}-9\lambda+27\]

El teorema nos proporciona la siguiente igualdad: \[p(A) = A^{3}-3A^{2}-9A+27I = 0\]

Despejando la identidad, nos queda: \[\begin{array}{rcl}\displaystyle I & = & \frac{1}{27} \left(A^{3}-3A^{2}-9A\right) = \\ & = & \left(- \frac{1}{27}A^{2}+\frac{1}{9}A+\frac{1}{3}I\right)\ A\end{array}\]

Luego \[\begin{array}{rcl}A^{-1} & = & - \frac{1}{27}A^{2}+\frac{1}{9}A+\frac{1}{3}I =\\ & = & - \frac{1}{27}\left( \begin{array}{ccc@{}} 9 & 0 & 0\\ 0 & 9 & 0\\ 0 & 0 & 9 \end{array} \right) +\frac{1}{9}\left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) +\frac{1}{3}\left( \begin{array}{ccc@{}} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array} \right) =\\ & = & \left( \begin{array}{ccc@{}} 1 & \frac{2}{3} & \frac{2}{3}\\ - \frac{2}{9} & \frac{1}{9} & - \frac{2}{9}\\ - \frac{10}{9} & - \frac{10}{9} & - \frac{7}{9} \end{array} \right) \end{array}\]

Vamos ahora a calcular \(A^4\) y \(A^5\) como suma de potencias de \(A\) de grado menor que su tamaño, es decir, potencias de \(A\) de grado menor que \(3\).

En todos los casos, tenemos que partir de despejar el término \(A^{3}\) de la igualdad que nos proporciona el Teorema de Cayley-Hamilton: \[A^{3} = 3A^{2}+9A-27I\]

Para \(A^4\), tenemos: \[A^4 = A\cdot A^3 = A \left(3A^{2}+9A-27I\right) = 3A^{3}+9A^{2}-27A\]

Si queremos dejarlo como suma de potencias de \(A\) de grado menor que \(3\), debemos sustituir aquí \(A^{3}\) por la expresión que hemos despejado hace un momento.

\[\begin{array}{rcl}A^4 & = & 3 \left( 3A^{2}+9A-27I \right)+9A^{2}-27A = \\ & = & 18A^{2}-81I = \\ & = & 18\left( \begin{array}{ccc@{}} 9 & 0 & 0\\ 0 & 9 & 0\\ 0 & 0 & 9 \end{array} \right) -81\left( \begin{array}{ccc@{}} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array} \right) = \\ & = & \left( \begin{array}{ccc@{}} 81 & 0 & 0\\ 0 & 81 & 0\\ 0 & 0 & 81 \end{array} \right) \end{array}\]

Evidentemente, podríamos haber hecho el cálculo bien directamente bien haciendo \(A^4 = A^2\cdot A^2\), pero esa forma no está expresada como suma de potencias de grado menor que \(n\).

Repetimos el proceso para calcular \(A^5\). \[A^5 = A\cdot A^4 = A \left(18A^{2}-81I\right) = 18A^{3}-81A\]

Sustituimos de nuevo \(A^{3}\) por su expresión: \[\begin{array}{rcl}A^5 & = & 18 \left( 3A^{2}+9A-27I \right)-81A = \\ & = & 54A^{2}+81A-486I = \\ & = & 54\left( \begin{array}{ccc@{}} 9 & 0 & 0\\ 0 & 9 & 0\\ 0 & 0 & 9 \end{array} \right) +81\left( \begin{array}{ccc@{}} 9 & 6 & 6\\ -2 & 1 & -2\\ -10 & -10 & -7 \end{array} \right) -486\left( \begin{array}{ccc@{}} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array} \right) = \\ & = & \left( \begin{array}{ccc@{}} 729 & 486 & 486\\ -162 & 81 & -162\\ -810 & -810 & -567 \end{array} \right) \end{array}\]