4 Diagonalización
En este capítulo nos vamos a centrar en el estudio de endomorfismos, es decir, de aplicaciones lineales f:V→Vf:V→V donde el dominio y el codominio son el mismo espacio vectorial sobre un cuerpo KK (generalmente K=RK=R o K=CK=C).
Una de las propiedades que hemos estudiado es que si tenemos una base BB fija en VV, entonces podemos encontrar una matriz AA, asociada a ff, tal que podemos expresar las coordenadas de f(v)f(v) en dicha base como A vA v, sea cual sea v∈Vv∈V.
¿Qué ocurre si fijamos otra base distinta B′B′ en VV?
En ese caso, la matriz asociada al endomorfismo ff será A′=P−1 A PA′=P−1 A P, donde PP es la matriz de cambio de base de B′B′ a BB.
Esta relación especial entre AA y A′A′ tiene nombre: son matrices semejantes.
Definición (Matrices semejantes) Dos matrices A,A′∈Mn(K)A,A′∈Mn(K) se dicen semejantes si existe P∈Mn(K)P∈Mn(K) regular tal que A′=P−1 A PA′=P−1 A P.
Esto tiene implicaciones como que los cálculos que podamos necesitar hacer con un endomorfismo, como calcular su núcleo y su imagen, o los que veremos en este tema, lo podemos hacer con cualquiera de sus matrices asociadas, respecto a diferentes bases, ya que son todas semejantes.
Sin embargo, para ciertas operaciones, podremos necesitar tener una matriz asociada a ff lo más simple posible. ¿Qué entendemos por una matriz simple? Una matriz diagonal.
La diagonalización es el proceso por el cual pretendemos encontrar una base BB de VV tal que la matriz asociada a un endomorfismo ff sea diagonal.
Definición (Endomorfismo diagonalizable) Un endomorfismo f:V→Vf:V→V se dice diagonalizable si existe una base de VV donde la matriz asociada a ff es diagonal.
No todos los endomorfismos serán diagonalizables, así que veremos cuándo podremos asegurar que sí lo son, y el mecanismo para encontrar la forma diagonal de la matriz asociada al endomorfismo.
Nota: A menudo, abusaremos de la notación y usaremos indistintamente vv para designar a un vector o a sus coordenadas con respecto a la base canónica.
Ejemplo
Consideremos el siguiente endomorfismo f:R3→R3f:R3→R3, dado por f(xyz)=(9x+6y+6z−2x+y−2z−10x−10y−7z)f⎛⎜⎝xyz⎞⎟⎠=⎛⎜⎝9x+6y+6z−2x+y−2z−10x−10y−7z⎞⎟⎠
Es claro que su matriz asociada en la base canónica es: A=(966−21−2−10−10−7)A=⎛⎜⎝966−21−2−10−10−7⎞⎟⎠
Si consideramos la siguiente base: B={(−35151),(−110),(−101)}B=⎧⎪ ⎪⎨⎪ ⎪⎩⎛⎜ ⎜⎝−35151⎞⎟ ⎟⎠,⎛⎜⎝−110⎞⎟⎠,⎛⎜⎝−101⎞⎟⎠⎫⎪ ⎪⎬⎪ ⎪⎭ entonces la matriz de cambio de BB a la canónica CC es: P=(−35−1−11510101)P=⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠ y la matriz asociada a ff en la nueva base es: A′=(−35−1−11510101)−1 (966−21−2−10−10−7) (−35−1−11510101)==(−300030003)A′=⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠−1 ⎛⎜⎝966−21−2−10−10−7⎞⎟⎠ ⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠==⎛⎜⎝−300030003⎞⎟⎠
En este capítulo, veremos el método para hallar esa descomposición, la base y la matriz diagonal.
¿Qué preguntas vamos a responder en este capítulo?
- ¿Qué son los autovalores de un endomorfismo y de una matriz?
- ¿Cómo calculamos los autovectores asociados a un autovalor?
- ¿Cómo sabemos si un endomorfismo o una matriz es diagonalizable?
- ¿Si una matriz es diagonalizable, cómo podemos hallar sus potencias?
- ¿Para qué podemos utilizar el Teorema de Cayley-Hamilton?
4.1 Qué son los autovalores de un endomorfismo y de una matriz
Definición (Autovalor y autovector) Consideremos un endomorfismo f:V→Vf:V→V. Diremos que un valor λ∈Kλ∈K es un autovalor (o valor propio) de ff si existe un vector no nulo v∈Vv∈V tal que f(v)=λ vf(v)=λ v. A ese vv se le denomina autovector (o vector propio) asociado a λλ.
Nota: Eliminamos la posibilidad de que vv sea nulo en la definición, porque sabemos que f(0)=0f(0)=0 en cualquier aplicación lineal, así que no nos proporcionaría información alguna.
Intuitivamente, un autovector vv es un vector no nulo que, al aplicarle ff, su imagen f(v)f(v) es proporcional a él mismo, y la constante de proporcionalidad es el autovalor λλ.
Si consideramos una matriz AA asociada a ff, la condición f(v)=λ vf(v)=λ v se puede reescribir como A v=λ vA v=λ v.
Podemos generalizar entonces esta definición a matrices cuadradas:
Definición (Autovalor y autovector de una matriz cuadrada) Un escalar λλ se llama autovalor o valor propio de una matriz A∈Mn(K)A∈Mn(K) si existe v∈Knv∈Kn no nulo, llamado autovector o vector propio asociado a λλ, tal que A v=λ vA v=λ v.
Nos falta comprobar si hay alguna incoherencia en las definiciones: si distintas matrices asociadas a un mismo endomorfismo tuvieran distintos autovalores, eso sería un problema de la definición. Sin embargo, el siguiente resultado nos asegura que esto no puede ser así:
Si dos matrices AA y A′A′ son semejantes, entonces tienen los mismos autovalores.
Podemos decir entonces que:
Si λλ es un autovalor de ff, entonces lo es de cualquiera de sus matrices asociadas en diferentes bases, y esto es debido a su relación de semejanza.
Esto significa que si queremos calcular los autovalores de un endomorfismo ff, basta con calcularlos para cualquiera de sus matrices asociadas, en particular para su matriz asociada en la base canónica, la más sencilla de encontrar.
¿Cómo podemos encontrar los autovalores de un endomorfismo o de su matriz asociada?
Para encontrar los autovalores de un endomorfismo, siempre partiremos de una matriz asociada al mismo. Por tanto, explicaremos cómo calcular los autovalores de una matriz cuadrada, y eso nos bastará para encontrar los del endomorfismo, por lo comentado anteriormente.
La condición para ser λ∈Kλ∈K un autovalor es que exista v∈Vv∈V tal que A v=λ vA v=λ v.
Esto es equivalente a A v−λv=0A v−λv=0, es decir, A v−λ I v=0A v−λ I v=0, siendo II la matriz identidad del mismo tamaño que vv. En forma compacta, podemos decir que λλ es autovalor de AA si existe vv tal que (A−λ I) v=0(A−λ I) v=0.
Es decir, vv debe ser solución del siguiente sistema homogéneo: (A−λ I) x=0(A−λ I) x=0.
Recordemos que un sistema homogéneo tiene siempre solución. Estamos interesados en soluciones distintas del vector 0, puesto que hemos impuesto en la definición de autovector que sea un vector no nulo.
¿Qué condición tenemos para saber que un sistema homogéneo es compatible indeterminado? Pues que la matriz de coeficientes del sistema sea singular, es decir, tenga determinante igual a 0.
En este caso, la matriz de coeficientes del sistema es A−λ IA−λ I, así que tendremos soluciones distinta de la trivial si det(A−λ I)=0det(A−λ I)=0.
Hay que notar que la expresión det(A−λ I)det(A−λ I) depende de λλ, así que realmente estamos buscando los valores de λλ que hacen que det(A−λ I)=0det(A−λ I)=0.
Definición (Polinomio característico) Llamamos polinomio característico de la matriz AA a p(λ)=det(A−λ I)p(λ)=det(A−λ I), y ecuación característica a det(A−λ I)=0det(A−λ I)=0.
Por tanto, los autovalores de una matriz AA son soluciones a la ecuación característica, es decir, las raíces del polinomio característico.
Ejemplo
Vamos a calcular los autovalores del endomorfismo f:R3→R3f:R3→R3, dado por f(xyz)=(9x+6y+6z−2x+y−2z−10x−10y−7z)f⎛⎜⎝xyz⎞⎟⎠=⎛⎜⎝9x+6y+6z−2x+y−2z−10x−10y−7z⎞⎟⎠ del ejemplo anterior.
Sabemos que su matriz asociada en la base canónica es: A=(966−21−2−10−10−7)A=⎛⎜⎝966−21−2−10−10−7⎞⎟⎠
Definimos entonces el polinomio característico como: p(λ)=det(A−λ I)==det((966−21−2−10−10−7)−λ(100010001))==det(9−λ66−21−λ−2−10−10−7−λ)p(λ)=det(A−λ I)==det⎛⎜⎝⎛⎜⎝966−21−2−10−10−7⎞⎟⎠−λ⎛⎜⎝100010001⎞⎟⎠⎞⎟⎠==det⎛⎜⎝9−λ66−21−λ−2−10−10−7−λ⎞⎟⎠
Si desarrollamos el determinante, nos queda como polinomio característico: p(λ)=λ3−3λ2−9λ+27p(λ)=λ3−3λ2−9λ+27
Igualándolo a 0, tenemos la ecuación característica λ3−3λ2−9λ+27=0λ3−3λ2−9λ+27=0, que podemos resolver (generalmente se podrá factorizar de forma simple o usando Ruffini) y nos quedan las siguientes soluciones: λ=−3,3λ=−3,3. Esta última solución es raíz doble, ya que: p(λ)=(λ+3)⋅(λ−3)2p(λ)=(λ+3)⋅(λ−3)2
Por tanto, λ=−3,3λ=−3,3 son autovalores de la matriz AA y del endomorfismo ff.
4.2 Cómo calculamos los autovectores asociados a un autovalor
Acabamos de ver que los autovectores asociados a un autovalor λλ son soluciones no triviales del sistema homogéneo (A−λ I)x=0(A−λ I)x=0.
También sabemos que las soluciones de un sistema homogéneo forman un subespacio vectorial. Por tanto, el conjunto de autovectores asociado a un autovalor λλ es un subespacio vectorial que llamamos subespacio asociado al autovalor λλ. Generalmente, denotaremos UλUλ al subespacio asociado al autovalor λλ.
En ocasiones, se denomina subespacio invariante por ff a UλUλ, puesto que f(Uλ)⊆Uλf(Uλ)⊆Uλ.
Como con cualquier subespacio vectorial, para tener perfectamente determinado a UλUλ nos basta con dar una base suya que, evidentemente, estará formada por autovectores asociados a λλ.
En este caso, podemos partir de las ecuaciones cartesianas de UλUλ, que son el sistema (A−λ I) x=0(A−λ I) x=0, y encontrar una base suya, como ya hemos visto en el capítulo de espacios vectoriales.
Ejemplo
Retomamos el endomorfismo ff de los ejemplos anteriores. Calculemos los subespacios asociados a los distintos autovalores:
- Para el autovalor λ=−3λ=−3: (A+3I)(xyz)=0⇔(1266−24−2−10−10−4)(xyz)=0⇔⇔{12x+6y+6z=0−2x+4y−2z=0−10x−10y−4z=0(A+3I)⎛⎜⎝xyz⎞⎟⎠=0⇔⎛⎜⎝1266−24−2−10−10−4⎞⎟⎠⎛⎜⎝xyz⎞⎟⎠=0⇔⇔⎧⎪⎨⎪⎩12x+6y+6z=0−2x+4y−2z=0−10x−10y−4z=0
Resolvemos este sistema por Gauss-Jordan, encontrando la forma paramétrica de su conjunto solución, que es U−3U−3: (12660−24−20−10−10−40)∼(120365005−100000)⎛⎜ ⎜⎝12660−24−20−10−10−40⎞⎟ ⎟⎠∼⎛⎜ ⎜⎝120365005−100000⎞⎟ ⎟⎠⇒(xyz)=α(−35151)⇒⎛⎜⎝xyz⎞⎟⎠=α⎛⎜ ⎜⎝−35151⎞⎟ ⎟⎠
De aquí que una base de U−3U−3 sea: BU−3={(−35151)}BU−3=⎧⎪ ⎪⎨⎪ ⎪⎩⎛⎜ ⎜⎝−35151⎞⎟ ⎟⎠⎫⎪ ⎪⎬⎪ ⎪⎭- Para el autovalor λ=3λ=3: (A−3I)(xyz)=0⇔(666−2−2−2−10−10−10)(xyz)=0⇔⇔{6x+6y+6z=0−2x−2y−2z=0−10x−10y−10z=0(A−3I)⎛⎜⎝xyz⎞⎟⎠=0⇔⎛⎜⎝666−2−2−2−10−10−10⎞⎟⎠⎛⎜⎝xyz⎞⎟⎠=0⇔⇔⎧⎪⎨⎪⎩6x+6y+6z=0−2x−2y−2z=0−10x−10y−10z=0
Resolvemos este sistema por Gauss-Jordan, encontrando la forma paramétrica de su conjunto solución, que es U3U3: (6660−2−2−20−10−10−100)∼(666000000000)⎛⎜ ⎜⎝6660−2−2−20−10−10−100⎞⎟ ⎟⎠∼⎛⎜ ⎜⎝666000000000⎞⎟ ⎟⎠⇒(xyz)=α(−110)+β(−101)⇒⎛⎜⎝xyz⎞⎟⎠=α⎛⎜⎝−110⎞⎟⎠+β⎛⎜⎝−101⎞⎟⎠
De aquí que una base de U3U3 sea: BU3={(−110),(−101)}BU3=⎧⎪⎨⎪⎩⎛⎜⎝−110⎞⎟⎠,⎛⎜⎝−101⎞⎟⎠⎫⎪⎬⎪⎭
Los vectores de las bases encontradas, así como cualquiera de sus múltiplos, son autovectores asociados al correpondiente autovalor λλ.
4.3 Cómo sabemos si un endomorfismo o una matriz es diagonalizable
Una vez que sabemos cómo hallar los autovalores y los autovectores de una matriz y de un endomorfismo, vamos a plantearnos cómo utilizarlos para saber si podemos encontrar una base BB del espacio VV tal que la matriz asociada al endomorfismo ff es diagonal. Es decir, nos planteamos el estudio de si ff es diagonalizable.
El principal resultado teórico que necesitamos es el siguiente:
Caracterización de diagonalizable: Un endomorfismo f:V→Vf:V→V es diagonalizable si y sólo si existe una base BB de VV formada únicamente por autovectores de ff. En ese caso, la matriz asociada DD en esa base es diagonal y tiene en su diagonal principal los autovalores de ff. Además, la matriz de cambio de base PB→CPB→C (formada por los vectores de BB por columnas) verifica: P−1B→C A PB→C=DP−1B→C A PB→C=D o, equivalentemente, A=P−1C→B D PC→BA=P−1C→B D PC→B
Este resultado proporciona mucha información: nos dice que para que sea diagonalizable un endomorfismo (o una matriz), necesitamos una base de VV formada por únicamente autovectores, y que la matriz diagonal asociada tendrá a los autovalores en la diagonal principal.
Nos preguntamos entonces bajo qué condiciones podemos asegurar que tenemos una base de VV formada enteramente por autovectores.
El siguiente resultado es de gran ayuda:
Autovectores asociados a distintos autovalores son linealmente independientes.
Supongamos que llamamos λ1,…,λkλ1,…,λk a los autovalores de un endomorfismo o de una matriz, y Uλ1,…,UλkUλ1,…,Uλk a los subespacios asociados a los autovalores. Supongamos que todos los λiλi son distintos unos de otros.
El resultado anterior me asegura que si i≠ji≠j, entonces los vectores de las bases de UλiUλi y de UλjUλj son linealmente independientes.
Llamamos B=BUλ1∪…∪BUλkB=BUλ1∪…∪BUλk, es un sistema linealmente independiente por lo que acabamos de comentar. Si, además, BB tuviera nn elementos, puesto que dim(V)=ndim(V)=n, entonces BB sería una base de VV (recordemos que una base es un sistema linealmente independiente con tantos elementos como la dimensión del espacio vectorial).
Por tanto, si unimos todas las bases de los subespacios asociados a los autovalores, y tenemos tantos elementos como la dimensión del espacio VV, entonces se verifica todo lo anterior: el endomorfismo (y sus matrices asociadas) son diagonalizables. Esto es así porque entonces se verificaría: V=Uλ1+…+UλkV=Uλ1+…+Uλk
La primera consecuencia de esto es:
Si una matriz o un endomorfismo tienen exactamente nn autovalores distintos, entonces es diagonalizable.
Esto es así porque cada uno de los nn autovalores tendría un subespacio asociado cuya base es linealmente independiente de la base de los demás subespacios. Esto solo podría suceder si cada una de las nn bases BUλiBUλi, (i=1,…,ni=1,…,n) solo tiene un elemento, es decir, si dim(Uλi)=1dim(Uλi)=1 para todo i=1,…,ni=1,…,n. Si no fuera así, acabaríamos con más de nn vectores linealmente independientes en VV, lo cual es imposible.
Entonces BB, definida como la unión de las bases mencionadas, tiene exactamente nn elementos. Esto nos demuestra que la matriz o el endomorfismo con nn autovalores distintos es diagonalizable.
Pero ¿qué pasa cuando no tenemos nn autovalores distintos?
Es de gran importancia conocer, para todo i=1,…,ki=1,…,k, la dimensión del subespacio asociado al autovalor λiλi.
Definición (Multiplicidad geométrica) Llamaremos multiplicidad geométrica del autovalor λλ a mg(λ)=dim(Uλi)mg(λ)=dim(Uλi).
Se tiene el siguiente resultado:
Para todo autovalor λλ de un endomorfismo o de una matriz, se tiene que 1≤mg(λ)≤ma(λ)1≤mg(λ)≤ma(λ) donde mg(λ)mg(λ) es su multiplicidad geométrica y ma(λ)ma(λ) es la multiplicidad algebraica de λλ, es decir, su multiplicidad como raíz del polinomio característico.
Es decir, la multiplicidad geométrica siempre es mayor o igual que 1 (indicando que el subespacio UλUλ no es el trivial {0}{0}), y menor que la multiplicidad algebraica.
Un corolario de todos los resultados anteriores es:
Si, para todo autovalor λλ de un endomorfismo o de una matriz cuadrada, se tiene que mg(λ)=ma(λ)mg(λ)=ma(λ), entonces es diagonalizable. Y el recíproco es también cierto.
Aquí tenemos un criterio sencillo para determinar si un endomorfismo o una matriz son diagonalizables:
- Si tenemos nn autovalores distintos, entonces es diagonalizable.
- Si tenemos menos de nn autovalores distintos, debemos comprobar que las multiplicidades geométricas de todos los autovalores coincidan con sus multiplicidades algebraicas.
En ambos casos, la base de VV definida por B=BUλ1∪…∪BUλkB=BUλ1∪…∪BUλk es una base formada por autovectores y la matriz asociada al endomorfismo ff en dicha base es diagonal con los autovalores en la diagonal principal (repetidos según su multiplicidad).
Si PP es la matriz de paso de BB a la canónica CC, entonces la expresión matricial del endomorfismo ff en dicha base BB es D=P−1 A PD=P−1 A P.
Ejemplo
Consideramos el endomorfismo ff de los ejemplos anteriores. Si tenemos en cuenta lo que se ha determinado de sus autovalores y de los subespacios asociados, tenemos la siguiente tabla resumen:
AutovalorMult. AlgebraicaMult. Geométrica−311322AutovalorMult. AlgebraicaMult. Geométrica−311322
Con esto, queda demostrado que el endomorfismo ff sí es diagonalizable.
Además, la base BB de autovectores es: B=B−3∪ B3={(−35151),(−110),(−101)}B=B−3∪ B3=⎧⎪ ⎪⎨⎪ ⎪⎩⎛⎜ ⎜⎝−35151⎞⎟ ⎟⎠,⎛⎜⎝−110⎞⎟⎠,⎛⎜⎝−101⎞⎟⎠⎫⎪ ⎪⎬⎪ ⎪⎭
La matriz de cambio de base de BB a CC es la que tiene los elementos de BB por columnas: P=(−35−1−11510101)P=⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠
Y la matriz diagonal es la que tiene los autovalores en la diagonal, que se calcula como: D=P−1 A P==(−35−1−11510101)−1(966−21−2−10−10−7)(−35−1−11510101)=(−300030003)D=P−1 A P==⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠−1⎛⎜⎝966−21−2−10−10−7⎞⎟⎠⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠=⎛⎜⎝−300030003⎞⎟⎠
4.4 Si una matriz es diagonalizable, cómo podemos hallar sus potencias
Consideremos una matriz cuadrada diagonalizable. En concreto, eso significa que existe otra matriz cuadrada PP regular (cuyas columnas son los vectores de la base de autovectores) tal que A=P−1 D PA=P−1 D P donde DD es la matriz diagonal con los autovalores de AA en la diagonal principal.
Supongamos que queremos hallar AkAk, con k>1k>1 entero. Si usamos la expresión anterior, nos queda: Ak=A⋅A⋅…A=(P−1 D P)⋅(P−1 D P)⋅…(P−1 D P)Ak=A⋅A⋅…A=(P−1 D P)⋅(P−1 D P)⋅…(P−1 D P) donde los productos se repiten kk veces. Si agrupamos cada par P⋅P−1P⋅P−1, que es igual a la identidad, entonces nos queda: Ak=P−1 Dk PAk=P−1 Dk P Como DD es una matriz diagonal con los autovalores, es fácil calcular su potencia kk-ésima: (λ10…00λ2…0⋮⋮⋱⋮00…λn)k=(λk10…00λk2…0⋮⋮⋱⋮00…λkn)⎛⎜ ⎜ ⎜ ⎜ ⎜⎝λ10…00λ2…0⋮⋮⋱⋮00…λn⎞⎟ ⎟ ⎟ ⎟ ⎟⎠k=⎛⎜ ⎜ ⎜ ⎜ ⎜ ⎜⎝λk10…00λk2…0⋮⋮⋱⋮00…λkn⎞⎟ ⎟ ⎟ ⎟ ⎟ ⎟⎠
De esta forma, calcular la potencia de AA se reduce a calcular la potencia kk-ésima de la matriz DD. Esto es especialmente útil para calcular potencias altas de AA.
Ejemplo
Calculemos A100A100 donde AA es la matriz del ejemplo anterior.
Conocemos su descomposición: A=P D P−1==(−35−1−11510101)(−300030003)(−35−1−11510101)−1A=P D P−1==⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠⎛⎜⎝−300030003⎞⎟⎠⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠−1
Entonces, por lo comentado anteriormente, A100=P D100 P−1A100=P D100 P−1, es decir: A100=PD100P−1==(−35−1−11510101)((−3)10000031000003100)(−35−1−11510101)−1A100=PD100P−1==⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠⎛⎜⎝(−3)10000031000003100⎞⎟⎠⎛⎜ ⎜⎝−35−1−11510101⎞⎟ ⎟⎠−1
4.5 Para qué podemos utilizar el Teorema de Cayley-Hamilton
El Teorema de Cayley-Hamilton nos dice que:
Cayley-Hamilton: Toda matriz cuadrada AA verifica su ecuación característica, es decir, si p(λ)p(λ) es el polinomio característico de AA, entonces p(A)=0p(A)=0.
Supongamos que el polinomio característico de una matriz AA es p(λ)=cnλn+…+c1λ+c0p(λ)=cnλn+…+c1λ+c0
El teorema nos dice que AA hace cero su polinomio característico: p(A)=cnAn+…+c1A+c0I=0p(A)=cnAn+…+c1A+c0I=0 donde AkAk representa el producto de AA por sí misma kk veces.
¿Qué utilidades tiene este teorema?
Supongamos que el término independiente del polinomio característico, c0c0 es no nulo (esto equivale a que 0 no sea un autovalor, lo cual es también equivalente a que AA sea regular). Si de la igualdad superior despejamos la identidad, II, nos queda lo siguiente: I=−1c0(cnAn+…+c1A)==−1c0(cnAn−1+…+c1 I) AI=−1c0(cnAn+…+c1A)==−1c0(cnAn−1+…+c1 I) A
De aquí deducimos que A−1=−1c0(cnAn−1+…+c1 I)A−1=−1c0(cnAn−1+…+c1 I)
Por tanto, el teorema de Cayley-Hamilton nos da una forma de calcular la inversa de una matriz cuadrada AA, únicamente a partir de sumas de potencias de la matriz.
Esta misma estrategia nos proporciona un método para calcular potencias de la matriz AA, aparte del ya explicado, reduciendo el problema a potencias de AA de grado menor que el tamaño de la propia matriz.
Si, de la igualdad del teorema, despejamos el término AnAn, nos queda An=−1cn(−cn−1An−1−…−c1A−c0I)An=−1cn(−cn−1An−1−…−c1A−c0I)
A partir de AnAn, siendo nn el número de filas o columnas de la matriz AA, todas sus potencias se pueden poner como suma de potencias de AA de grado menor estrictamente que nn: An+1=A⋅An==A⋅(−1cn(−cn−1An−1−…−c1A−c0I))==−1cn(−cn−1An−…−c1A2−c0A)==−1cn(−cn−1(−1cn(−cn−1An−1−…−c1A−c0I))−…−c1A2−c0A)==...An+1=A⋅An==A⋅(−1cn(−cn−1An−1−…−c1A−c0I))==−1cn(−cn−1An−…−c1A2−c0A)==−1cn(−cn−1(−1cn(−cn−1An−1−…−c1A−c0I))−…−c1A2−c0A)==...
Siguiendo con este patrón, se puede poner cualquier potencia AmAm, con m≥nm≥n, como suma de A,A2,…,An−1A,A2,…,An−1.
Ejemplo
Vamos a considerar la matriz A=(966−21−2−10−10−7)A=⎛⎜⎝966−21−2−10−10−7⎞⎟⎠ asociada al endomorfismo ff de los ejemplos anteriores.
Vamos a calcular A−1A−1, A4A4 y A5A5 usando el Teorema de Cayley-Hamilton.
Conocemos su polinomio característico: p(λ)=λ3−3λ2−9λ+27p(λ)=λ3−3λ2−9λ+27
El teorema nos proporciona la siguiente igualdad: p(A)=A3−3A2−9A+27I=0p(A)=A3−3A2−9A+27I=0
Despejando la identidad, nos queda: I=127(A3−3A2−9A)==(−127A2+19A+13I) AI=127(A3−3A2−9A)==(−127A2+19A+13I) A
Luego A−1=−127A2+19A+13I==−127(900090009)+19(966−21−2−10−10−7)+13(100010001)==(12323−2919−29−109−109−79)A−1=−127A2+19A+13I==−127⎛⎜⎝900090009⎞⎟⎠+19⎛⎜⎝966−21−2−10−10−7⎞⎟⎠+13⎛⎜⎝100010001⎞⎟⎠==⎛⎜ ⎜ ⎜⎝12323−2919−29−109−109−79⎞⎟ ⎟ ⎟⎠
Vamos ahora a calcular A4A4 y A5A5 como suma de potencias de AA de grado menor que su tamaño, es decir, potencias de AA de grado menor que 33.
En todos los casos, tenemos que partir de despejar el término A3A3 de la igualdad que nos proporciona el Teorema de Cayley-Hamilton: A3=3A2+9A−27IA3=3A2+9A−27I
Para A4A4, tenemos: A4=A⋅A3=A(3A2+9A−27I)=3A3+9A2−27AA4=A⋅A3=A(3A2+9A−27I)=3A3+9A2−27A
Si queremos dejarlo como suma de potencias de AA de grado menor que 33, debemos sustituir aquí A3A3 por la expresión que hemos despejado hace un momento.
A4=3(3A2+9A−27I)+9A2−27A==18A2−81I==18(900090009)−81(100010001)==(810008100081)A4=3(3A2+9A−27I)+9A2−27A==18A2−81I==18⎛⎜⎝900090009⎞⎟⎠−81⎛⎜⎝100010001⎞⎟⎠==⎛⎜⎝810008100081⎞⎟⎠
Evidentemente, podríamos haber hecho el cálculo bien directamente bien haciendo A4=A2⋅A2A4=A2⋅A2, pero esa forma no está expresada como suma de potencias de grado menor que nn.
Repetimos el proceso para calcular A5A5. A5=A⋅A4=A(18A2−81I)=18A3−81AA5=A⋅A4=A(18A2−81I)=18A3−81A
Sustituimos de nuevo A3A3 por su expresión: A5=18(3A2+9A−27I)−81A==54A2+81A−486I==54(900090009)+81(966−21−2−10−10−7)−486(100010001)==(729486486−16281−162−810−810−567)A5=18(3A2+9A−27I)−81A==54A2+81A−486I==54⎛⎜⎝900090009⎞⎟⎠+81⎛⎜⎝966−21−2−10−10−7⎞⎟⎠−486⎛⎜⎝100010001⎞⎟⎠==⎛⎜⎝729486486−16281−162−810−810−567⎞⎟⎠