¿Qué significa matriz?

Una matriz es una matriz cuadrada compuesta por los coeficientes y constantes de una ecuación. Es conveniente e intuitivo utilizarlo para resolver ecuaciones lineales. Por ejemplo, para un sistema de ecuaciones.

a 1x b 1y c 1z = d 1

a2x b2y c2z=d2

a3x b3y c3z=d3

En términos generales, podemos formar dos matrices:

a 1b 1c 1a 1b 1c 1d 1

a2b2c2a2b2c2d2

a3b3c3a3b3c3d3

Porque estos números se han ordenado juntos regularmente y con forma de rectángulo, los matemáticos la llaman matriz. Transformando la matriz se puede obtener la solución de la ecuación.

El concepto específico de matriz fue propuesto por primera vez por el matemático británico Kelly en el siglo XIX y formó la teoría sistemática del álgebra matricial.

Sin embargo, si nos remontamos a sus orígenes, las matrices aparecieron por primera vez en los Nueve Capítulos de Aritmética de China. El Capítulo 9 Ecuaciones aritméticas propone que los coeficientes y constantes de las ecuaciones lineales se ordenen en un rectángulo. Entonces la solución a esta ecuación se puede encontrar moviendo lugares. En Europa, este método se utilizó para resolver ecuaciones lineales más de 2.000 años después que en China.

Matemáticamente, una matriz m×n es una matriz rectangular con m filas y n columnas. Una matriz está formada por números, o más generalmente, por elementos en anillos.

Las matrices son comunes en álgebra lineal, programación lineal, análisis estadístico y combinatoria. Consulte la teoría de matrices.

Directorio=7.

En lenguaje C, también se expresa como A[j]. (Vale la pena señalar que, a diferencia de los algoritmos matriciales generales, en C, las "filas" y las "columnas" se cuentan comenzando desde 0.)

Además, A = (aij), es decir, a [I, j] = aiji es común en escritos matemáticos para todo I y j.

[editar]

Matriz construida sobre anillos generales

Dado un anillo R, M(m, n, R) es todo m× en R Un conjunto de n matrices ordenadas por elementos. Si m = n, generalmente se registra como M (n, R). Estas matrices se pueden sumar y multiplicar (ver más abajo), por lo que M (n, R) en sí es un anillo, que es isomorfo al anillo automórfico de R mod Rn izquierdo.

Si R es permutable, entonces M(n, R) es un R-álgebra con identidad. El determinante se puede definir mediante la fórmula de Leibniz: una matriz es invertible si y sólo si su determinante es invertible en r.

En Wikipedia, las matrices son en su mayoría matrices reales o imaginarias a menos que se indique lo contrario.

[editar]

Matriz bloqueada

Matriz bloqueada se refiere a una matriz que divide una matriz grande en "matrices". Por ejemplo, la siguiente matriz

se puede dividir en cuatro matrices de 2×2.

.

Este método se puede utilizar para simplificar operaciones, pruebas matemáticas y determinadas aplicaciones informáticas, como el diseño de chips VLSI.

[editar]

Categoría de matriz especial

Una matriz simétrica es simétrica con respecto a su diagonal principal (de arriba a la izquierda a abajo a la derecha), es decir , ai, j = aj,I.

La matriz de Hermite (o matriz autoyugada) es simétrica respecto a su diagonal principal en forma de yugo complejo, es decir, ai,j = a*j,I.

Todos los elementos de la matriz de Teplic son opuestos en cualquier diagonal, es decir, ai, j=ai 1, j 1.

Todas las columnas de una matriz aleatoria son vectores de probabilidad, utilizados en las cadenas de Markov.

[editar]

Operaciones matriciales

Dadas las matrices A y B de m×n, su suma A y B se puede definir como matrices de m×n, I y Los términos de J son (A B) [i, j] = A [I, j] B [I, J]. Por ejemplo:

Para la suma alternativa, consulte la suma de matrices.

Dada una matriz a y un número c, se puede definir un producto escalar ca, donde (cA)[i, j] = cA[i, j].

Por ejemplo

Estas dos operaciones hacen de M(m, n, R) un espacio lineal real con dimensión mn.

El producto de dos matrices se puede definir si el número de columnas de una matriz es igual al número de filas de la otra matriz. Por ejemplo, a es una matriz m×n, b es una matriz n×p y son productos. AB es una matriz m×p, donde

(ab) [i, j] = a [i, 1] * b [1, j] a [i, 2] * b [2, j ] ... a[i,n] * b[n,j] para todo I y .

Por ejemplo

Esta multiplicación tiene las siguientes propiedades:

(AB)C = A(BC) para todas las matrices k×m A, m×n Matriz B y matriz C n×p ("ley asociativa").

(A B)C = AC BC para todas las matrices m×n A y B y la matriz C n×k ("ley de distribución").

C(A B) = CA CB para todas las matrices m×n A y B y la matriz k×m C ("ley de distribución").

Cabe señalar que la sustituibilidad no necesariamente se cumple, es decir, existen matrices A y B tales que AB ≠ BA.

Para otras multiplicaciones especiales, consulte Multiplicación de matrices.

[editar]

Transformación lineal, rango, transposición

La matriz es una expresión conveniente de transformación lineal, porque la síntesis de la multiplicación de matrices y la transformación lineal tiene la siguiente relación:

La matriz N×1 (es decir, un vector de longitud n) está representada por Rn. Para cada transformación lineal f: rn -> Rm existe una matriz única m × n tal que f(x) = Ax es la matriz única para todo x en rn. Esta matriz a "representa" la transformación lineal f, actualmente otra. La matriz k × m b representa la transformación lineal g: RM->Rk, luego el producto matricial BA representa la transformación lineal g o f.

La dimensión de la imagen de álgebra lineal representada por la matriz A se llama rango de matriz de A. El rango de la matriz es también la dimensión de la fila (o columna) que genera el espacio de A.

La transpuesta de la matriz A de m×n es la matriz Atr de n×m (también llamada AT o tA) generada por la fórmula del ángulo de intercambio fila-fila, es decir, para todo I y j, Atr [i, j] = A[j,i], si A representa una transformación lineal, entonces Atr representa su operador dual. La transposición tiene las siguientes características:

(A B)tr = Atr Btr, (AB)tr = BtrAtr.