Nombre chino: Historia del Álgebra Lineal: Unidades de cálculo matemático: vectores (grupos), matrices, conceptos de determinantes: La correlación aprendida es una introducción básica a la linealidad, determinantes, matrices, ecuaciones, formas cuadráticas, a partir de la resolución. ecuaciones a la teoría de grupos. Una introducción básica requiere un examen de las funciones multivariadas porque el estudio de cantidades relacionadas con múltiples factores puede crear problemas. Si la correlación en estudio es lineal, entonces el problema se llama lineal. Históricamente, el primer problema en álgebra lineal fue la resolución de ecuaciones lineales. El desarrollo de la teoría de ecuaciones lineales condujo al establecimiento y desarrollo de la teoría de matrices y la teoría de determinantes como herramientas, que se convirtieron en la parte principal de nuestros libros de texto de álgebra lineal. La mayoría de los problemas iniciales de ecuaciones lineales provienen de la práctica de la vida. Son estos problemas prácticos los que llevaron al nacimiento y desarrollo del álgebra lineal. Además, las exigencias del análisis matemático y la geometría modernos también contribuyeron al desarrollo del álgebra lineal. El álgebra lineal tiene tres unidades de cálculo básicas: vector (grupo), matriz y determinante. Al estudiar sus propiedades y teoremas relacionados, puede resolver ecuaciones lineales, implementar cálculos matriciales y determinantes y transformaciones lineales, y construir espacios vectoriales y espacios euclidianos. Los dos métodos básicos del álgebra lineal son la construcción (descomposición) y los métodos algebraicos. Las ideas básicas son la simplificación (degeneración) y la transformación isomórfica. Determinantes que aparecen en la resolución de sistemas de ecuaciones lineales. Originalmente una expresión taquigráfica, ahora es una herramienta muy útil en matemáticas. El determinante fue inventado por Leibniz y el matemático japonés Xiaowa Guan. En abril de 1693, Leibniz utilizó y dio el determinante en una carta a Robida, y dio las condiciones para que el determinante de los coeficientes del sistema de ecuaciones fuera cero. El matemático japonés contemporáneo Guan Xiaohe también propuso el concepto y algoritmo de determinantes en su libro "Método elemental para resolver problemas". En 1750, el matemático suizo G. Clem (1704-1752) dio una explicación relativamente completa y clara de la definición y las reglas de expansión de los determinantes en su libro "Introducción al análisis de álgebra lineal", y nos dio la actual La llamada regla de Cramer para resolver sistemas de ecuaciones lineales. Posteriormente, el matemático E. Bezout (1730-1783) sistematizó el método de determinación de los símbolos del determinante y señaló cómo utilizar el concepto de determinante de coeficiente para determinar que un sistema de ecuaciones lineales homogéneo tiene una solución distinta de cero. En resumen, durante mucho tiempo los determinantes sólo se utilizaron como herramienta para resolver ecuaciones lineales y nadie se dio cuenta de que podían formar una teoría que pudiera estudiarse independientemente de las ecuaciones lineales. En la historia del desarrollo de los determinantes, la primera persona que hizo una explicación lógica coherente de la teoría de los determinantes, es decir, que separó la teoría de los determinantes de la resolución de ecuaciones lineales, fue el matemático francés Vandermonde (A-T, 1735-1796). Vandermonde estudió música bajo la dirección de su padre desde una edad temprana, pero desarrolló un gran interés por las matemáticas y finalmente se convirtió en miembro de la Academia Francesa de Ciencias. En particular, dio reglas para expandir determinantes con polinomios de segundo orden y sus complementos. En lo que respecta al determinante en sí, él es el creador de esta teoría. En 1772, Laplace demostró algunas reglas propuestas por Vandermonde en un artículo y promovió su método de expansión determinante. Otro gran matemático francés, Cauchy, que siguió a Vandermonde, hizo contribuciones destacadas a la teoría de los determinantes. En 1815, Cauchy dio el primer tratamiento sistemático, casi moderno, de los determinantes en un artículo. Uno de los principales resultados es el teorema de la multiplicación de determinantes. Además, fue el primero en organizar los elementos del determinante en una matriz cuadrada y adoptar el método de notación de dos patas. También introdujo el concepto de ecuación característica del determinante; Se da el concepto de determinantes similares. Se mejora el teorema de expansión del determinante de Laplace y se da la demostración. Durante más de medio siglo, desde 65438 hasta 2009, uno de los autores que ha estudiado la teoría de los determinantes es J. Sylvester (1814-1894). Es una persona vivaz, sensible, excitada, apasionada e incluso excitable. Sin embargo, debido a que era judío, la Universidad de Cambridge lo trató injustamente. Sylvester presentó sus ideas académicas con entusiasmo. Uno de sus resultados importantes fue un método mejorado para eliminar polinomios lineales y polinomios lineales, al que llamó método de colocación. Dio las condiciones necesarias y suficientes para que las dos ecuaciones polinómicas tuvieran raíces comunes cuando el determinante es cero, pero no dio. probar.
Después de Cauchy, la persona más prolífica en la teoría de los determinantes fue el matemático alemán Jacobi (J. Jacobi, 1804-1851). Introdujo la función determinante, la "jacobiana", señaló el papel de la función determinante en la sustitución de múltiples variables integrales y dio la fórmula de derivación de la función determinante. El famoso artículo de Jacobi "Sobre la formación y propiedades de los determinantes" marcó la finalización de la teoría de los sistemas determinantes. La propia teoría de la determinante también se desarrolló enormemente en el siglo XIX debido a su aplicación en el análisis matemático, la geometría, la teoría de ecuaciones lineales y la teoría de la forma cuadrática. A lo largo del siglo XIX aparecieron nuevos resultados para los determinantes. Además de un gran número de teoremas sobre determinantes generales, también se han obtenido muchos otros teoremas sobre determinantes especiales. Matrix Matrix es un concepto básico importante en matemáticas, el principal objeto de investigación del álgebra y una herramienta importante para la investigación y aplicación de las matemáticas. El término "matriz" fue utilizado por primera vez por Sylvester, quien inventó este predicado para distinguir matrices rectangulares de determinantes. De hecho, el tema de la matriz ya se había desarrollado mucho antes de su nacimiento. Del extenso trabajo sobre determinantes se desprende claramente que las propias matrices cuadradas pueden estudiarse y explotarse para muchos propósitos, independientemente de que los valores del determinante sean relevantes para el problema. Muchas de las propiedades básicas de las matrices también se establecieron en el. desarrollo de determinantes. Lógicamente, el concepto de matrices debería preceder al concepto de determinantes, pero históricamente el orden se ha invertido. La matemática británica Gloria (A. Cayley, 1821-1895) es reconocida como la fundadora de la teoría de matrices porque fue la primera en proponer la matriz como un concepto matemático independiente y publicó por primera vez una serie de artículos sobre este tema. Gloria combinó la investigación sobre invariantes bajo transformación lineal e introdujo por primera vez matrices para simplificar la notación. Del 65438 al 0858, publicó el primer artículo sobre este tema, "Informe de investigación sobre la teoría de matrices", que elaboraba sistemáticamente la teoría de matrices. En el artículo, definió una serie de conceptos básicos como ecuaciones matriciales, reglas de operación matricial, transpuesta de matrices, inversión de matrices, etc., y señaló la intercambiabilidad y componibilidad de la suma de matrices. Además, Gloria también proporciona las ecuaciones características y las raíces características (valores propios) de matrices cuadradas, así como algunos resultados básicos sobre matrices. Gloria nació en una antigua y talentosa familia británica. Después de graduarse del Trinity College de la Universidad de Cambridge, permaneció en la escuela para enseñar matemáticas. Tres años después, pasó a la carrera de abogado y su trabajo fue fructífero. Estudió matemáticas en su tiempo libre y publicó una gran cantidad de artículos matemáticos. En 1855, Emmett (C. Hermite, 1822-1901) demostró las propiedades especiales de las raíces características de algunas clases de matrices descubiertas por otros matemáticos, como las raíces características de la matriz de Emmett actual. Posteriormente, Klebsch (A. Klebsch, 1831-1872) y A. Buchheim demostraron las propiedades características de las raíces de las matrices simétricas. H.Taber introdujo el concepto de traza de matriz y aportó algunas conclusiones relacionadas. En la historia de la teoría de matrices, la contribución de G. Frobenius (1849-1917) es imborrable. Discutió el problema del polinomio mínimo, introdujo conceptos como rango de matriz, factores invariantes y factores elementales, matrices ortogonales, transformaciones similares de matrices, matrices contraídas, etc., organizó la teoría de factores invariantes y factores elementales en una forma lógica y discutió Algunas propiedades importantes de matrices ortogonales y matrices contraídas. En 1854, Jordan estudió el problema de convertir matrices a su forma estándar. En 1892, Metzler introdujo el concepto de funciones trascendentales matriciales y las escribió en forma de series de potencias matriciales. El problema de las matrices de orden infinito también se discutió en los trabajos de Fourier, Searle y Poincaré, que se iniciaron principalmente para satisfacer las necesidades del desarrollo de ecuaciones. Las propiedades de la propia matriz dependen de las propiedades de los elementos. Después de más de dos siglos de desarrollo, las matrices se han convertido en una rama independiente de las matemáticas: la teoría de matrices. La teoría de matrices se puede dividir en teoría de ecuaciones matriciales, teoría de descomposición de matrices y teoría de matrices inversas generalizada. Matrix y su teoría se han utilizado ampliamente en diversos campos de la ciencia y la tecnología modernas. La solución de ecuaciones lineales se analiza exhaustivamente en la antigua obra de matemáticas china "Nueve capítulos de ecuaciones aritméticas".
Entre ellos, el método es esencialmente equivalente al método moderno de realizar transformaciones de filas elementales en la matriz aumentada del sistema de ecuaciones para eliminar cantidades desconocidas, es decir, el método de eliminación gaussiano. En Occidente, Leibniz inició el estudio de las ecuaciones lineales a finales del siglo XVII. Una vez estudió un sistema de ecuaciones que constaba de tres ecuaciones lineales de dos variables. Maclaurin estudió sistemas de ecuaciones lineales de dos, tres y cuatro variables en la primera mitad del siglo XVIII y obtuvo los resultados que ahora se conocen como ley de Clem. Clem anunció rápidamente la regla. En la segunda mitad del siglo XVIII, el matemático francés Bezus realizó una serie de estudios sobre la teoría de las ecuaciones lineales y demostró que la condición para que una ecuación lineal homogénea tenga una solución distinta de cero es que el coeficiente determinante sea igual a cero. . En el siglo XIX, los matemáticos británicos H. Smith y C-L Dodgson continuaron estudiando la teoría de las ecuaciones lineales. El primero introduce los conceptos de matriz aumentada y matriz no aumentada del sistema de ecuaciones, y el segundo demuestra que la condición necesaria y suficiente para la compatibilidad del sistema de ecuaciones y el sistema de número desconocido de ecuaciones es que los rangos de la matriz de coeficientes y la matriz aumentada son iguales. Este es uno de los resultados importantes de la teoría de ecuaciones moderna. Una gran cantidad de problemas científicos y técnicos a menudo se reducen a la resolución de sistemas de ecuaciones lineales. Por lo tanto, mientras se desarrollan soluciones numéricas a ecuaciones lineales, también se han logrado avances satisfactorios en trabajos teóricos como la estructura de ecuaciones lineales. Las soluciones numéricas a sistemas de ecuaciones lineales juegan ahora un papel importante en las matemáticas computacionales. La forma cuadrática cuadrática también se llama "forma cuadrática". El polinomio cuadrático homogéneo de n elementos en el campo numérico P se llama forma cuadrática de n elementos en el campo numérico P. La forma cuadrática es el contenido de seguimiento de nuestro lineal. libro de texto de álgebra. Para nuestro estudio futuro, aquí hay una breve introducción a la historia del desarrollo del tipo cuadrático. El estudio sistemático de las formas cuadráticas se inició en el siglo XVIII, a partir de discusiones sobre la clasificación de cónicas y superficies cuádricas. En el siglo XVIII, se introdujo la deformación de las ecuaciones de curvas cuadráticas y superficies cuadráticas, y se seleccionó el eje en la dirección del eje principal como eje de coordenadas para simplificar la forma de la ecuación. Cauchy concluyó en su libro que cuando las ecuaciones son estándar, las superficies cuadráticas se clasifican por el signo del término cuadrático. Sin embargo, en ese momento no estaba claro por qué al reducir a la forma estándar siempre obtenemos el mismo número de términos positivos y negativos. Sylvester respondió la pregunta. Dio una ley de inercia cuadrática binaria, pero no la demostró. Esta ley fue posteriormente redescubierta y probada por Jacobi. En 1801, Gauss introdujo los términos definido positivo, definido negativo, definido semipositivo, definido seminegativo y otros términos de formas cuadráticas en la investigación aritmética. Un estudio adicional de la simplificación cuadrática implica el concepto de determinantes o ecuaciones características cuadráticas. El concepto de ecuaciones características aparece implícitamente en los trabajos de Euler, y Lagrange lo presentó explícitamente por primera vez en sus trabajos sobre ecuaciones diferenciales lineales. El verdadero valor de los valores propios de formas cuadráticas de tres variables fue establecido por J-N.P. Hachette, Gaspard Monge y Poisson (S.D. Poisson, 1781-1840). Basándose en el trabajo de otros, Cauchy comenzó a estudiar la forma cuadrática de variables simplificadas y demostró que la ecuación característica es invariante bajo cualquier transformación del sistema de coordenadas rectangular. Posteriormente demostró que dos formas cuadráticas de una variable se pueden transformar simultáneamente en sumas de cuadrados mediante la misma transformación lineal. En 1851, cuando Sylvester estaba estudiando el contacto y la intersección de curvas cuadráticas y curvas cuadráticas, necesitaba considerar la clasificación de curvas cuadráticas y grupos de curvas cuadráticas. Introdujo los conceptos de factores elementales y factores invariantes en el método de clasificación, pero no demostró la conclusión de que "los factores invariantes constituyen el conjunto completo de dos invariantes cuadráticas". En 1858, Weierstrass dio un método general para elevar al cuadrado la suma simultánea de dos formas cuadráticas y demostró que si una de las formas cuadráticas es definida positiva, entonces esta simplificación es posible incluso si algunas de las raíces características son iguales. Weierstrass completó sistemáticamente la teoría de las formas cuadráticas y la amplió a las formas bilineales. La raíz del problema desde la resolución de ecuaciones hasta la teoría de grupos es un tema central en la teoría de ecuaciones. En el siglo XVI, los matemáticos resolvieron las fórmulas fundamentales de ecuaciones cúbicas y cuárticas. La existencia de fórmulas fundamentales de ecuaciones de orden superior se convirtió en otro tema discutido por los matemáticos en ese momento. Este problema ha requerido mucho tiempo y energía a muchos matemáticos. He experimentado muchos fracasos pero no puedo salir de los problemas. En la segunda mitad del siglo XVIII, Lagrange resumió y analizó cuidadosamente las experiencias fallidas de sus predecesores, llevó a cabo investigaciones en profundidad sobre la relación entre las raíces y las permutaciones de ecuaciones de orden superior, propuso el concepto de fórmulas preresueltas y previó que las fórmulas y raíces pre-resueltas serían relevantes para la invariancia formal bajo permutaciones.
Pero finalmente no logró resolver el problema de las ecuaciones de orden superior. Ruffini (1765-1862), discípulo de Lagrange, también hizo muchos esfuerzos, pero todos fracasaron. La discusión sobre las soluciones de raíces de ecuaciones de orden superior avanzó mucho con el destacado matemático noruego Abel. Abel (N.K. Abel, 1802-1829) sólo vivió 27 años. Fue pobre y enfermo durante toda su vida, pero dejó muchas obras creativas. En 1824, Abel demostró que una ecuación algebraica general mayor que cuarto grado no puede tener una solución radical. Pero el problema no está completamente resuelto porque algunas ecuaciones especiales se pueden resolver usando raíces. Por lo tanto, cuando las ecuaciones algebraicas superiores al cuarto grado no tienen soluciones radicales es una cuestión que debe resolverse más a fondo. Este problema fue completamente resuelto por el matemático francés Galois. e Galois (1811-1832) estudió cuidadosamente el trabajo de Lagrange y Abel, estableció la permutación "permitida" de las raíces de las ecuaciones, propuso el concepto de grupos de permutación y obtuvo las condiciones necesarias y suficientes para las soluciones de las raíces de ecuaciones algebraicas: El grupo de automorfismo del grupo de permutación tiene solución. En este sentido decimos que Galois es el fundador de la teoría de grupos. Galois nació en una familia adinerada cerca de París y recibió una buena educación como padre cuando era joven. Desafortunadamente, este talentoso matemático murió joven. En mayo de 1832 murió en un duelo por disputas políticas y amorosas. Tenía sólo 21 años. El concepto y las consecuencias de los grupos de permutación fueron la primera fuente importante de grupos abstractos. La segunda fuente principal de grupos abstractos es R. Dedekind (1831-1916) y Kronecker (L. Kronecker, 1823-1891). Además, Klein (F. Klein, 1849-1925) y Poincaré (J-H. Poincaré, 1854-1912) dieron grupos de transformación infinitos y otros tipos de grupos infinitos, 65438.1000616666 en 1882-1883, Dick (W hasta la década de 1980, matemáticos finalmente logró resumir el sistema de axiomas de la teoría abstracta de grupos. En la década de 1980, el concepto de grupo se ha considerado generalmente como uno de los conceptos más básicos en matemáticas y sus múltiples aplicaciones no solo en geometría y topología algebraica. , análisis funcional y otras ramas de las matemáticas, y también formaron algunas materias nuevas como grupos topológicos, grupos de Lie, grupos algebraicos, etc. También tienen otras estructuras relacionadas con estructuras de grupos, como topología, variedades analíticas, variedades algebraicas, etc. y desempeñan un papel importante en cristalografía, física teórica, química cuántica, codificación y teoría de autómatas.