La historia del desarrollo del álgebra avanzada

En álgebra avanzada, las ecuaciones lineales (es decir, ecuaciones lineales) se convierten en teoría de álgebra lineal; las ecuaciones cuadráticas se convierten en teoría polinomial; La primera es una rama del álgebra moderna, que incluye espacios vectoriales, transformaciones lineales, teoría de tipos, teoría de invariantes y álgebra tensorial. La segunda es una rama del álgebra moderna que estudia ecuaciones arbitrarias con un solo número desconocido. El álgebra avanzada, como curso universitario, solo estudia lo básico. Las ecuaciones de orden superior (es decir, ecuaciones no lineales) se han convertido en una teoría matemática relativamente moderna: la geometría algebraica.

El álgebra lineal es una rama del álgebra avanzada. Sabemos que un sistema de ecuaciones lineales se llama sistema de ecuaciones lineales, y el álgebra que analiza sistemas de ecuaciones lineales y operaciones lineales se llama álgebra lineal. Los determinantes y las matrices son el contenido más importante del álgebra lineal. Los determinantes y las matrices recibieron gran atención en el siglo XIX y se escribieron miles de artículos sobre estos dos temas. Desde un punto de vista matemático, el concepto de vector es simplemente una matriz ordenada de tres elementos. Pero toma fuerza o velocidad como significado físico directo, y puede usarse en matemáticas para escribir inmediatamente lo que se dice en física. Los vectores de gradiente, divergencia y curvatura son más convincentes. Del mismo modo, los determinantes y las matrices son como derivadas (aunque 'dy/dx' es solo una notación en matemáticas para una fórmula larga que contiene 'δy/δx'), las derivadas son en sí mismas un concepto poderoso que nos permite imaginar directamente, creativa y creativamente. , qué está pasando en la física). Entonces, aunque en la superficie los determinantes y las matrices son sólo un lenguaje o una taquigrafía, la mayoría de sus vívidos conceptos pueden proporcionar claves para nuevas áreas de pensamiento. Sin embargo, ambos conceptos han demostrado ser herramientas muy útiles en la física matemática.

Las materias de álgebra lineal y teoría de matrices se introdujeron y desarrollaron con el estudio de los coeficientes de ecuaciones de sistemas lineales. En el siglo XVII, el matemático japonés Guan Xiaohe propuso el concepto de determinante. En 1683 escribió un libro titulado "Métodos de resolución de problemas", que significa "Métodos para resolver problemas determinantes". El concepto de determinante y su desarrollo se han explicado muy claramente en el libro. En Europa, otro matemático alemán que propuso el concepto de determinante fue Leibniz (1693), uno de los fundadores del cálculo.

En 1750, Clem publicó una importante fórmula básica para resolver ecuaciones de sistemas lineales (llamada ley de Clem) en su Introducción al 'Analysis des Lignes Courbes Alge' Briques.

En 1764, Bezout sistematizó el proceso de determinación del signo de cada término de un determinante. Dadas n ecuaciones lineales homogéneas con n incógnitas, Bezout demostró que el coeficiente determinante es igual a cero, que es la condición para que esta ecuación tenga una solución distinta de cero. Vandermonde fue la primera persona en elaborar sistemáticamente la teoría de los determinantes (es decir, en separar la teoría de los determinantes de la resolución de ecuaciones lineales). Se dan las reglas para expandir determinantes utilizando subfórmulas de segundo orden y sus subfórmulas complementarias. En lo que respecta al determinante en sí, él es el creador de esta teoría.

Refiriéndose al trabajo de Cramer y Bezout, en 1772, Laplace demostró algunas de las leyes de Vandermonde en "Discussions on Integrals and World Systems" y promovió su método de expansión de determinantes, método que aún lleva su nombre. En 1841, el matemático alemán Jacobi resumió y propuso la teoría determinante más sistemática. Otro matemático que estudió los determinantes fue Cauchy, el más grande matemático francés. Desarrolló enormemente la teoría de los determinantes. En la notación de determinantes, ordenó los elementos en una matriz cuadrada y utilizó por primera vez la nueva notación bípeda. Al mismo tiempo, descubrió la fórmula para multiplicar dos determinantes, mejoró y demostró el teorema de expansión de Laplace. En términos relativos, el concepto de matriz fue utilizado por primera vez por Lagrange en su obra bilineal después de 1700. Lagrangiano espera conocer los valores máximo y mínimo de funciones multivariadas, y su método se llama método de iteración lagrangiano. Para lograr esto, primero necesita la condición de que la derivada parcial de primer orden sea 0 y la matriz de derivada parcial de segundo orden. Esta condición es la definición hoy llamada positiva y negativa. Aunque Lagrangiano no propuso explícitamente el uso de matrices.

Alrededor de 1800, Gauss propuso el método de eliminación gaussiano y lo utilizó para resolver el problema de mínimos cuadrados en cálculos celestes y posteriores cálculos de medición de la superficie terrestre. (Esta rama de las matemáticas aplicadas que se ocupa de medir y encontrar la forma o posición local precisa de la Tierra se llama geodesia.) Aunque Gauss es mejor conocido por su uso exitoso de esta técnica para eliminar variables en sistemas de ecuaciones lineales, ya en varios En manuscritos chinos de hace un siglo, hay contenido que explica cómo utilizar el método de eliminación "gaussiano" para resolver un sistema de ecuaciones tridimensional. Durante esos años, la eliminación gaussiana se consideraba parte del desarrollo de la geodesia más que de las matemáticas. La regla de eliminación de Gauss-Jordan apareció por primera vez en el "Manual de Geodesia" escrito por William Jordan. Mucha gente confunde a la famosa matemática Camille Jordan con Jordan en el método de eliminación de Gauss-Jordan.

Con el rico desarrollo del álgebra matricial, las personas necesitan tener símbolos y definiciones apropiados para la multiplicación de matrices. Los dos hombres deben encontrarse aproximadamente al mismo tiempo y lugar.

En 1848, el británico J.J. Sylvester propuso por primera vez la palabra matriz, que proviene del latín y representa una fila de números. En 1855, Arthur Cayley desarrolló aún más el álgebra matricial. Cayley estudió la síntesis de transformaciones lineales y propuso la definición de multiplicación de matrices de modo que la matriz de coeficientes de la transformación sintética ST se convierta en el producto de la matriz S y la matriz t. Además, estudió problemas algebraicos, incluida la inversa de la matriz. En 1858, Cayley propuso la famosa teoría de Cayley-Hamilton en “La Teoría de Matrices”, es decir, afirmó que el cuadrado de una matriz es la raíz de su polinomio característico. El uso de una sola letra A para representar matrices fue importante para el desarrollo del álgebra matricial. En las primeras etapas de desarrollo, la fórmula Det(AB)=det(A)det(B) proporcionó una conexión entre el álgebra matricial y los determinantes. El matemático Cauchy primero dio los términos de la ecuación característica, demostrando que las matrices con orden mayor que 3 tienen valores propios, y los determinantes simétricos reales de cualquier orden tienen valores propios reales; también dio el concepto de matrices similares y demostró que matrices similares tienen los mismos valores propios; . Se examinaron teorías alternativas.

Los matemáticos han intentado estudiar el álgebra vectorial, pero no existe una definición natural del producto de dos vectores en ninguna dimensión. La primera álgebra vectorial que involucra productos cruzados no conmutativos (es decir, V × W no es igual a W × V) fue propuesta por Hermann Grassmann en su libro Die lineale Ausdehnungslehre (1844). Sus ideas también se introdujeron en el producto de una matriz de columnas y una matriz de filas, cuyo resultado ahora se denomina matriz de rango 1 o matriz simple. A finales de 1919, el físico matemático estadounidense Willard Gibbs publicó un famoso debate sobre los elementos del análisis vectorial. Posteriormente, el físico P.A.M. Dirac propuso que el producto de los vectores fila y columna es un escalar. Las matrices de columnas y los vectores que estamos acostumbrados a utilizar fueron dados por los físicos del siglo XX.

El desarrollo de matrices está estrechamente relacionado con la transformación lineal. En el siglo XIX, ocupó sólo un espacio limitado en la formulación de la teoría de la transformación lineal. La definición del espacio vectorial moderno fue propuesta por Atun en 1888. Con el desarrollo de las computadoras digitales modernas después de la Segunda Guerra Mundial, las matrices adquirieron un nuevo significado, especialmente en el análisis numérico de matrices. Debido al rápido desarrollo y la aplicación generalizada de las computadoras, muchos problemas prácticos pueden resolverse cuantitativamente mediante cálculos numéricos discretos. Por lo tanto, como álgebra lineal para abordar problemas discretos, se ha convertido en una base matemática indispensable para el personal científico y tecnológico involucrado en la investigación científica y el diseño de ingeniería.

rights reserved