Por lo que no es factible deducir (λE-B)X = 0 de (λE-A)X = 0.
En segundo lugar, los espacios característicos no son necesariamente los mismos.
Por ejemplo, si A = E, el subespacio característico que pertenece a 1 es el espacio completo, pero generalmente no es el subespacio característico de b.
Este problema generalmente se demuestra como este.
Supongamos que λ es el valor propio de A y V es el subespacio de valores propios de A.
Para cualquier X∈V, AX = λX x.
Podemos obtener λBX = BAX = ABX = A(BX), es decir, bx ∈ v
Obtenemos que V es el subespacio invariante de b.
Al diagonalizar a, todo el espacio se puede descomponer en a, la suma directa de los subespacios característicos de V1⊕V2⊕...⊕Vk.
Demuestre que V1, V2,..., Vk son b Subespacio invariante.
Un teorema garantiza que si B se puede diagonalizar, entonces la restricción de B en el subespacio invariante también se puede diagonalizar.
Tomar un grupo de bases en V2 v 1,..., Vk, y convertirlas en las restricciones diagonales de B respectivamente. Forman un grupo de bases en todo el espacio.
Bajo este conjunto de bases, A y B están diagonalizados al mismo tiempo.
Lo anterior se demuestra en realidad al tratar A y B como transformaciones lineales.
Para las matrices A y B en la condición, si eliges un conjunto de bases en el espacio lineal, hay dos transformaciones lineales, y sus matrices son A y B.
Tenemos Aún así marque estas dos transformaciones lineales como A y B respectivamente, y luego a partir de las matrices A y B podemos saber que las transformaciones lineales A y B son conmutativas.
La matriz se puede diagonalizar si y solo si su correspondiente Una matriz de transformación lineal bajo un conjunto de bases es una matriz diagonal.
Siempre que se demuestre que las matrices de transformaciones lineales A y B bajo el mismo grupo de bases son ambas matrices diagonales, es necesario demostrar que las matrices A y B pueden diagonalizarse mediante el mismo invertible. matriz s.
Si no utilizas el lenguaje de transformación lineal, puedes utilizar la matriz de bloques para demostrarlo.
a se puede diagonalizar. Existe una matriz invertible T tal que c = t (-1) at es una matriz diagonal y los mismos valores propios están dispuestos juntos.
Es decir, C se puede escribir en forma diagonal de bloque, es decir, λ1E, λ2E,..., λkE en secuencia, donde λi no es igual a.
a y B son intercambiables, C y D = t (-1) Bt son intercambiables.
Como matriz conmutativa con la matriz diagonal, D es una matriz cuasi-diagonal con la misma partición de bloques que c.
Los lados opuestos de la diagonal son D1, D2,... ., Dk y otros bloques son 0.
El teorema usado anteriormente se convierte en:
Si una matriz cuasi-diagonal se puede diagonalizar, entonces todos los bloques en la diagonal se pueden diagonalizar.
Está demostrado que la multiplicidad geométrica puede ser igual a la multiplicidad algebraica.
Supongamos que las matrices invertibles P1, P2, ..., Pk están diagonalizadas D1, D2, ..., Dk respectivamente.
Entonces la matriz cuasi-diagonal p usándolos como bloques diagonales satisface p(-1) DP es una matriz diagonal.
Al mismo tiempo p(-1) CP = C.
Entonces, suponiendo que S = TP, S (-1) As y S (-1) BS son ambas matrices diagonales.