¿Cuál es el origen del determinante? Espero que pueda ser más detallado, gracias.

El álgebra lineal es una rama del álgebra superior. Sabemos que un sistema de ecuaciones lineales se llama sistema de ecuaciones lineales, y el álgebra que analiza sistemas de ecuaciones lineales y operaciones lineales se llama álgebra lineal. Los determinantes y las matrices son el contenido más importante del álgebra lineal. Los determinantes y las matrices recibieron gran atención en el siglo XIX y se escribieron miles de artículos sobre estos dos temas. Desde un punto de vista matemático, el concepto de vector es simplemente una matriz ordenada de tres elementos. Pero toma fuerza o velocidad como significado físico directo, y puede usarse en matemáticas para escribir inmediatamente lo que se dice en física. Los vectores de gradiente, divergencia y curvatura son más convincentes. Del mismo modo, los determinantes y las matrices son como derivadas (aunque dy/dx es solo un símbolo en matemáticas para una fórmula larga que incluye el límite de △y/△x), las derivadas son un concepto poderoso por derecho propio que nos permite determinar de manera directa y precisa. imaginar creativamente lo que está sucediendo en la física). Entonces, aunque en la superficie los determinantes y las matrices son sólo un lenguaje o una taquigrafía, la mayoría de sus vívidos conceptos pueden proporcionar claves para nuevas áreas de pensamiento. Sin embargo, ambos conceptos han demostrado ser herramientas muy útiles en la física matemática.

Las materias de álgebra lineal y teoría de matrices se introdujeron y desarrollaron con el estudio de los coeficientes de ecuaciones de sistemas lineales. El concepto de determinante fue propuesto por primera vez por el matemático japonés Guan Xiaohe en el siglo XVII. En 1683 escribió un libro titulado "Métodos de resolución de problemas", que significa "Métodos para resolver problemas determinantes". El concepto de determinante y su desarrollo se han explicado muy claramente en el libro. El concepto de determinante fue propuesto por primera vez en Europa por el matemático alemán Leibniz (1693), uno de los fundadores del cálculo. En 1750, Clem publicó una importante fórmula básica para resolver ecuaciones de sistemas lineales (llamada ley de Clem) en su Introducción al 'Analysis des Lignes Courbes Alge' Briques. En 1764, Bezout sistematizó el proceso de determinación del signo de los términos de un determinante. Dadas n ecuaciones lineales homogéneas con n incógnitas, Bezout demostró que el coeficiente determinante es igual a cero, que es la condición para que esta ecuación tenga una solución distinta de cero. Vandermonde fue la primera persona en elaborar sistemáticamente la teoría de los determinantes (es decir, en separar la teoría de los determinantes de la solución de ecuaciones lineales). Se dan las reglas para expandir determinantes utilizando subfórmulas de segundo orden y sus subfórmulas complementarias. En lo que respecta al determinante en sí, él es el creador de esta teoría. En 1772, Laplace demostró algunas de las reglas de Vandermonde y generalizó su método de expansión determinante. El determinante se expande por el conjunto de subclases contenidas en la fila R y sus subclases complementarias, un método que todavía lleva su nombre. El matemático alemán Jacobi también resumió y propuso la teoría sistemática de los determinantes en 1841. Otro matemático que estudió los determinantes fue Cauchy, el más grande matemático francés. Desarrolló enormemente la teoría de los determinantes. En la notación de determinantes, ordenó los elementos en una matriz cuadrada y utilizó por primera vez la nueva notación bípeda. Al mismo tiempo, descubrió la fórmula para multiplicar dos determinantes, mejoró y demostró el teorema de expansión de Laplace. En términos relativos, el concepto de matriz fue utilizado por primera vez por Lagrange en su obra bilineal después de 1700. Lagrangiano espera conocer los valores máximo y mínimo de funciones multivariadas, y su método se llama método de iteración lagrangiano. Para lograr esto, primero necesita la condición de que la derivada parcial de primer orden sea 0 y la matriz de derivada parcial de segundo orden. Esta condición es la definición hoy llamada positiva y negativa. Aunque Lagrangiano no propuso explícitamente el uso de matrices.

El método de eliminación gaussiano fue propuesto por Gauss alrededor de 1800 para resolver el problema de mínimos cuadrados en los cálculos celestes y posteriores en los cálculos de medición de la superficie terrestre. (Esta rama de las matemáticas aplicadas que se ocupa de medir y encontrar la forma o posición local precisa de la Tierra se llama geodesia.) Aunque Gauss es mejor conocido por su uso exitoso de esta técnica para eliminar variables en sistemas de ecuaciones lineales, ya en varios En manuscritos chinos de hace un siglo, hay contenido que explica cómo utilizar el método de eliminación "gaussiano" para resolver un sistema de ecuaciones tridimensional. Durante esos años, la eliminación gaussiana se consideraba parte del desarrollo de la geodesia más que de las matemáticas. La regla de eliminación de Gauss-Jordan apareció por primera vez en el "Manual de Geodesia" escrito por William Jordan. Mucha gente confunde a la famosa matemática Camille Jordan con Jordan en el método de eliminación de Gauss-Jordan.

Con el rico desarrollo del álgebra matricial, las personas necesitan tener símbolos y definiciones apropiados para la multiplicación de matrices. Los dos hombres deben encontrarse aproximadamente al mismo tiempo y lugar.

En 1848, el británico J.J. Sylvester propuso por primera vez la palabra matriz, que proviene del latín y representa una fila de números. 1855 Arthur Cayley desarrolla el álgebra matricial. Cayley estudió la síntesis de transformaciones lineales y propuso la definición de multiplicación de matrices de modo que la matriz de coeficientes de la transformación sintética ST se convierta en el producto de la matriz S y la matriz t. Estudió además problemas algebraicos, incluida la inversión de matrices. La famosa teoría de Cayley-Hamilton afirma que el cuadrado de una matriz es la raíz de su polinomio característico, la cual fue propuesta por Cayley en sus "Ensayos sobre matrices" en 1858. El uso de una sola letra A para representar matrices fue importante para el desarrollo del álgebra matricial. En las primeras etapas de desarrollo, la fórmula det( AB) = det( A ) det( B) proporcionó la conexión entre el álgebra matricial y los determinantes. El matemático Cauchy primero dio los términos de la ecuación característica, demostrando que las matrices con orden mayor que 3 tienen valores propios, y los determinantes simétricos reales de cualquier orden tienen valores propios reales; también dio el concepto de matrices similares y demostró que matrices similares tienen los mismos valores propios; . Se estudiaron teorías alternativas y los matemáticos intentaron estudiar el álgebra vectorial, pero no existía una definición natural del producto de dos vectores en ninguna dimensión. Hermann Glassmann propuso la primera álgebra vectorial que involucra productos cruzados no conmutativos (es decir, v × w no es igual a w × v) en su libro "Álgebra lineal". (1844). Sus ideas también se introdujeron en el producto de una matriz de columnas y una matriz de filas, cuyo resultado ahora se denomina matriz de rango 1 o matriz simple. A finales de 1919, el físico matemático estadounidense Willard Gibbs publicó un famoso debate sobre los elementos del análisis vectorial. Posteriormente, el físico P. A. M. Dirac propuso que el producto de los vectores fila y columna es una cantidad escalar. Las matrices de columnas y los vectores que estamos acostumbrados a utilizar fueron dados por los físicos del siglo XX.

El desarrollo de matrices está estrechamente relacionado con la transformación lineal. En el siglo XIX, ocupó sólo un espacio limitado en la formulación de la teoría de la transformación lineal. La definición del espacio vectorial moderno fue propuesta por Atun en 1888. Con el desarrollo de las computadoras digitales modernas después de la Segunda Guerra Mundial, las matrices adquirieron un nuevo significado, especialmente en el análisis numérico de matrices. Debido al rápido desarrollo y la aplicación generalizada de las computadoras, muchos problemas prácticos pueden resolverse cuantitativamente mediante cálculos numéricos discretos. Por lo tanto, como álgebra lineal para abordar problemas discretos, se ha convertido en una base matemática indispensable para el personal científico y tecnológico involucrado en la investigación científica y el diseño de ingeniería.