Historia de la probabilidad y la estadística

Historia de la teoría de la probabilidad La teoría de la probabilidad es una rama de las matemáticas que estudia las leyes de los fenómenos aleatorios. Se originó a mediados del siglo XVII. En ese momento, en los campos del error, la demografía, los seguros de vida y otros campos, era necesario organizar y estudiar una gran cantidad de datos aleatorios, por lo que nació una especie de matemática que se especializaba en estudiar la regularidad de un gran número de datos aleatorios. fenómenos. Pero lo primero que pensaron los matemáticos en ese momento fue el problema de la teoría de la probabilidad, pero provino de los jugadores. El matemático Fermat le planteó la siguiente pregunta al matemático francés Pascal: "En la actualidad, dos jugadores han acordado jugar algunos juegos. Quien gane S juegos primero ganará. Cuando el jugador A gane el juego A [A

Otro fundador de la teoría de la probabilidad como rama de las matemáticas fue el matemático suizo Jacob Bernoulli [1654-1705]. Su principal contribución fue el establecimiento del primer teorema del límite en la teoría de la probabilidad, al que llamamos Teorema de los números grandes de Bernoulli. afirma que “en experimentos repetidos, las frecuencias tienden a ser más estables. "Esta debe ser una afirmación más razonable después de su muerte, es decir, en 1713, que fue publicada en su nota de suicidio "Riddle".

En 1730, el matemático francés De Moifre publicó su libro " "Analítico Ensayos", incluido el famoso teorema de Moivre-Laplace. Este es el prototipo del segundo teorema del límite fundamental de la teoría de la probabilidad, que luego fue claramente definido por Laplace en "Una teoría del análisis de probabilidad" publicada en 1812. Además, también Trabajó con varios matemáticos para establecer la teoría de la "distribución normal" y los "mínimos cuadrados". Otra figura representativa en la historia de la teoría de la probabilidad es el francés Poisson, quien promovió la ley de los grandes números, una nueva distribución, la distribución de Poisson. Después de ellos, el objetivo de la teoría de la probabilidad fue generalizar y mejorar la ley de grandes números de Bernoulli y el teorema del límite central

A medida que se desarrolló la teoría, en 1901, se desarrolló el teorema del límite central. Finalmente se demostró rigurosamente. Más tarde, los matemáticos utilizaron este teorema para explicar científicamente por primera vez por qué muchas variables aleatorias encontradas en la práctica obedecen aproximadamente a una distribución normal. En la década de 1930, la gente comenzó a utilizar este teorema para estudiar procesos aleatorios. La teoría del proceso de Markov se estableció en 1931. El matemático soviético Andrei Kolmogorov también hizo grandes contribuciones al desarrollo de la teoría de la probabilidad. En los tiempos modernos, surgieron las ramas de la probabilidad teórica y la probabilidad aplicada. La teoría de la probabilidad se ha aplicado a diferentes categorías, desarrollándose así. diferentes disciplinas. Por lo tanto, la teoría de la probabilidad moderna se ha convertido en una rama muy grande de las matemáticas.

El origen histórico de la teoría de la probabilidad es estudiar la posibilidad de que sucedan cosas, pero el origen original de la teoría de la probabilidad estaba relacionado con.

En el siglo XVI, el erudito italiano Cardano comenzó a estudiar algunos problemas simples en los juegos de azar, como los dados, y algunos conceptos y métodos simples de estadística de probabilidad se utilizaron principalmente en los primeros días en los juegos de azar y en la demografía.

Con la práctica social humana, las personas necesitan comprender las regularidades inevitables ocultas en diversos fenómenos inciertos y utilizar métodos matemáticos para estudiar la posibilidad de diversos resultados, generando así que la teoría de la probabilidad se haya convertido gradualmente en una disciplina rigurosa. El método de la estadística de probabilidad ha penetrado cada vez más en diversos campos y se utiliza ampliamente en las ciencias naturales, la economía, la medicina, las finanzas y los seguros, e incluso en las humanidades.

Con el desarrollo de la ciencia. En los siglos XVIII y XIX, la gente notó algunas similitudes entre algunos fenómenos biológicos, físicos y sociales y los juegos de azar, por lo que la teoría de la probabilidad originada a partir de los juegos de azar se aplicó a estos campos, lo que también promovió en gran medida el desarrollo de la probabilidad. La teoría en sí. El fundador que hizo de la teoría de la probabilidad una rama de las matemáticas fue el matemático suizo Bernoulli. Estableció el primer teorema límite en la teoría de la probabilidad, a saber, la ley de los grandes números de Bernoulli, y desarrolló la probabilidad de que ocurra un evento. La frecuencia es estable.

Luego Demoville y Laplace derivaron la forma original del segundo teorema del límite fundamental (teorema del límite central). Laplace resumió el trabajo anterior en el sistema y escribió "Probabilidad analítica". Teoría", que dio una definición clásica clara de probabilidad e introdujo herramientas analíticas más poderosas en la teoría de la probabilidad, empujando la teoría de la probabilidad a una nueva etapa de desarrollo.

A finales de 19, los matemáticos rusos Chebyshev, Markov, Lyapunov y otros utilizaron métodos analíticos para establecer la forma general de la ley de los grandes números y el teorema del límite central, explicando científicamente por qué muchos problemas aleatorios encontrados en la práctica Las variables siguen aproximadamente una distribución normal.

A principios del siglo XX, influenciados por la física, se empezó a estudiar los procesos aleatorios.

En este sentido, Andrey Kolmogorov, Wiener, Markov, Qin Xin, Levi y Ferrer han realizado contribuciones destacadas. La teoría de probabilidad de datos extendida es una rama de las matemáticas que estudia las leyes cuantitativas de los fenómenos aleatorios.

Los fenómenos aleatorios son relativos a los fenómenos deterministas. El fenómeno de que un determinado resultado ocurrirá inevitablemente bajo ciertas condiciones se llama fenómeno decisivo.

Por ejemplo, bajo presión atmosférica estándar, si el agua pura se calienta a 100 °C, inevitablemente hervirá. El fenómeno aleatorio se refiere al hecho de que bajo las mismas condiciones básicas, antes de cada experimento u observación, no se sabe con certeza cuál será el resultado, mostrando el azar.

Por ejemplo, cuando lanzas una moneda, puede que salga cara o cruz. La realización de fenómenos aleatorios y su observación se denominan experimentos aleatorios.

Cada resultado posible de una prueba aleatoria se denomina evento básico. Un evento básico o un grupo de eventos básicos se denominan colectivamente evento aleatorio, o simplemente evento. Los experimentos aleatorios típicos incluyen dados, lanzamiento de moneda, póquer y ruleta.

La probabilidad de un evento es una medida de la probabilidad de que ocurra un evento. Aunque la ocurrencia de un evento en un experimento aleatorio es accidental, aquellos experimentos aleatorios que pueden repetirse en grandes cantidades bajo las mismas condiciones a menudo muestran patrones cuantitativos obvios.

Materiales de referencia:

Enciclopedia Baidu-Teoría de la probabilidad.

La historia histórica de la probabilidad:

La primera persona en calcular sistemáticamente la probabilidad fue Cardano en el siglo XVI. Esto está registrado en su libro. El contenido de probabilidad del libro fue traducido del latín por Gould.

Los escritos matemáticos de Cardano contienen muchos consejos para los jugadores. Estas sugerencias están escritas en artículos breves. Sin embargo, fue en una serie de cartas entre Pascal y Fermat donde se propuso por primera vez el estudio sistemático de la probabilidad.

Estas correspondencias fueron iniciadas originalmente por Pascal, que quería hacerle a Fermat algunas preguntas sobre Chevalier de Meer. Chevalier de Mer fue un escritor famoso, una figura destacada en la corte de Luis XIV y un ávido jugador. Hay dos problemas principales: el problema de tirar los dados y el problema de la distribución de premios en el juego.

La probabilidad es una medida numérica de la probabilidad de que ocurra un evento accidental. Si después de repetir experimentos muchas veces, ocurren varios accidentes (. Con x como denominador e y como numerador, se forma un valor numérico.

En muchos experimentos, p es relativamente estable en un cierto valor, p Se llama probabilidad de que ocurra un evento accidental. Si la probabilidad de un evento accidental se determina mediante observación a largo plazo o una gran cantidad de experimentos repetidos, es una probabilidad estadística o una probabilidad empírica. :

Con. A medida que los problemas que encuentran las personas se vuelven cada vez más complejos, la probabilidad igual expone gradualmente sus debilidades, especialmente para el mismo evento, se pueden calcular diferentes probabilidades desde diferentes perspectivas de probabilidad igual, lo que resulta en varias paradojas.

Por otro lado, con la acumulación de experiencia, las personas se dan cuenta gradualmente de que cuando se realiza una gran cantidad de experimentos repetidos, a medida que aumenta el número de experimentos, la frecuencia de un evento siempre oscila alrededor de un número fijo. Produce una cierta estabilidad.

R.von Mises define esta constante como la probabilidad de un evento, que es la definición de frecuencia de probabilidad.

Baidu no es lo suficientemente riguroso.

Historia de la probabilidad Historia de la probabilidad: La primera persona en calcular sistemáticamente la probabilidad fue Cardano en el siglo XVI. Esto está registrado en su libro. El contenido de Probabilidad fue la traducción del latín. >El trabajo matemático de Cardano contiene muchas sugerencias para los jugadores.

Sin embargo, fue en una serie de cartas entre Pascal y Fermat donde se propuso por primera vez el estudio sistemático de la probabilidad. Estas correspondencias fueron propuestas originalmente por Pascal, que quería. para hacerle a Fermat algunas preguntas sobre Chevalier de Chevalier. ·Preguntas planteadas por Mel.

Chevalier de Mel fue un escritor famoso, una figura prominente en la corte de Luis XIV y un ávido jugador. Principales Problema: El problema de tirar los dados y la distribución del premio en metálico en el juego.

La probabilidad es una medida numérica de la probabilidad de que ocurra un evento accidental. Si después de repetir experimentos muchas veces, ocurren varios accidentes (.

Usando x como denominador e y como numerador, se forma un valor numérico. En muchos experimentos, p es relativamente estable en un cierto valor, p Se llama probabilidad de que ocurra.

Si la probabilidad de un evento accidental se determina mediante observación a largo plazo o una gran cantidad de experimentos repetidos, es una probabilidad estadística o una probabilidad empírica:

p>

Con. A medida que los problemas que encuentran las personas se vuelven cada vez más complejos, la probabilidad igual expone gradualmente sus debilidades, especialmente para el mismo evento, se pueden calcular diferentes probabilidades desde diferentes perspectivas de probabilidad igual, lo que resulta en varias paradojas

Por otro lado, con la acumulación de experiencia, las personas se dan cuenta gradualmente de que al realizar una gran cantidad de experimentos repetidos, a medida que aumenta el número de experimentos, la frecuencia de un evento siempre oscila alrededor de un número fijo. grado de estabilidad. R.von mises define esta constante como la probabilidad de un evento.

Teóricamente, la definición de frecuencia de probabilidad no es lo suficientemente rigurosa.

Observando la historia del desarrollo de la probabilidad. Teoría del siglo XIX al XX, la teoría de la igualdad de probabilidades en línea es una rama de las matemáticas que estudia las leyes cuantitativas de los fenómenos aleatorios.

El fenómeno aleatorio se refiere a un fenómeno tan objetivo que cuando la gente lo observa. tiempo, el resultado no se puede determinar de antemano, sino que solo puede ser uno de muchos resultados posibles.

Por ejemplo, cuando se lanza una moneda, puede suceder que haya un anverso o un reverso al medir. la longitud de un objeto, los resultados de la medición pueden ser diferentes cada vez debido a la influencia del medio ambiente; la vida útil de las bombillas producidas en las mismas condiciones de proceso es desigual;

La realización y La observación de fenómenos aleatorios se denomina experimento aleatorio, y cada resultado posible de un experimento aleatorio se denomina evento básico. Un evento básico o un grupo de eventos básicos también se denomina evento aleatorio, o simplemente evento.

Aunque la ocurrencia de un evento en un experimento aleatorio es aleatoria, aquellos que pueden repetirse en grandes cantidades bajo las mismas condiciones a menudo muestran una regularidad cuantitativa obvia. Practique a largo plazo y aplíquelos en la práctica.

Por ejemplo, si lanza una moneda par muchas veces seguidas, entonces la frecuencia de aparición de caras (el número de apariciones es igual al número de caras). ). La proporción del número de lanzamientos) se estabilizará gradualmente en 1/2 a medida que aumente el número de lanzamientos. Otro ejemplo es medir la longitud de un objeto varias veces a medida que aumenta el número de mediciones, el valor promedio de la medición. Los resultados se estabilizan gradualmente en una constante. Algunos valores de medición caen cerca de esta constante y cuanto más lejos están, más pequeños se vuelven. Por lo tanto, su distribución muestra "grandes en el medio y pequeños en ambos extremos" y un cierto grado de. simetría (es decir, distribución aproximadamente normal).

Números grandes. Las leyes y el teorema del límite central describen y demuestran estas leyes. En la práctica, la gente a menudo necesita estudiar la evolución de un fenómeno aleatorio específico en el proceso de. tiempo, y lo que describe esta evolución es el proceso estocástico en la teoría de la probabilidad.

Por ejemplo, el número de llamadas recibidas por una central telefónica desde un momento determinado hasta cada momento posterior es un proceso aleatorio. Por poner otro ejemplo, el movimiento irregular (movimiento browniano) de partículas diminutas en un líquido debido a colisiones aleatorias de moléculas circundantes también es un proceso aleatorio.

Estudiar las características estadísticas de procesos aleatorios y calcular las probabilidades de ciertos eventos relacionados con el proceso, especialmente cuestiones relacionadas con la trayectoria de muestra del proceso (es decir, la realización única del proceso), son los temas principales de la teoría de la probabilidad moderna. En resumen, la teoría de la probabilidad está estrechamente relacionada con la práctica y se utiliza ampliamente en las ciencias naturales, las ciencias técnicas, las ciencias sociales, la producción militar y agrícola.

La teoría de la probabilidad es también la base teórica de la estadística matemática. Una breve historia de la teoría de la probabilidad de desarrollo tiene una larga historia y su origen está relacionado con problemas de juegos.

En el siglo XVI, algunos eruditos italianos comenzaron a estudiar algunos problemas sencillos del juego, como tirar los dados, como comparar la posibilidad de que el número total de dos dados fuera 9 o 10.

A mediados del siglo XVII, los matemáticos franceses B. Pascal, P. de Fermat y el matemático holandés C. Huygens estudiaron algunos problemas complejos del juego basándose en el método de permutación y combinación (ver combinatoria). Asignación razonable" (es decir, "problema de puntuación", ver probabilidad) y "pérdida de dinero" y otras cuestiones.

Su método no consiste en calcular directamente la probabilidad de que el jugador gane, sino en calcular el valor esperado de la ganancia, lo que conduce al concepto de expectativa matemática (claramente propuesto por Huygens). El verdadero fundador de hacer de la teoría de la probabilidad una rama de las matemáticas fue el matemático suizo Jacob Bernoulli, quien estableció el primer teorema del límite en la teoría de la probabilidad, la ley de los grandes números de Bernoulli. El teorema afirma que si la probabilidad del evento A p(a)=p(0 probabilidad), debe entenderse como una medida de la probabilidad de que ocurra el evento, es decir, una medida de probabilidad axiomática (ver más abajo para más detalles).

Hacia 1716, A. de moivre utilizó su ensayo sobre N! La fórmula asintótica (la llamada fórmula de Stirling) demuestra además que obedece asintóticamente a la distribución normal (el matemático alemán C.F. Gauss volvió a derivar la distribución normal al estudiar la teoría del error de medición en 1809, por lo que también se la llama distribución de Gauss). El resultado de la fórmula de De Moivre fue posteriormente ampliado por el matemático francés P-S Laplace a la forma original del segundo teorema del límite básico (ver el teorema del límite central) en la teoría general de probabilidad p (0).

Laplace hizo grandes contribuciones al desarrollo de la teoría de la probabilidad. Sobre la base de un resumen sistemático de trabajos anteriores, escribió "Análisis de probabilidad" (publicado en 1812 y posteriormente reimpreso seis veces).

En este libro, definió claramente la definición clásica de probabilidad por primera vez (a menudo llamada probabilidad clásica, ver probabilidad) e introdujo análisis más poderosos en la teoría de la probabilidad, como ecuaciones en diferencias y herramientas generadoras. , logrando así la transición de cálculos combinatorios simples a métodos analíticos, llevando la teoría de la probabilidad a una nueva etapa de desarrollo. Laplace concedió gran importancia a las aplicaciones prácticas de la teoría de la probabilidad y estaba particularmente interesado en la demografía.

Después de Laplace, el tema central de investigación de la teoría de la probabilidad es la promoción y mejora de la ley de grandes números de Bernoulli y el teorema del límite de Demoville-Laplace. En este sentido, el matemático ruso Chebyshev dio un paso decisivo. En 1866, utilizó su propia desigualdad de Chebyshev para establecer la ley de los grandes números para secuencias de variables aleatorias independientes.

Al año siguiente, se estableció el teorema del límite central de secuencias de variables aleatorias independientes cuyos momentos absolutos de todos los órdenes están uniformemente acotados. Pero su demostración no fue rigurosa y fue complementada posteriormente por A.A. Markov en 1898. 1901 α. м Lyapunov utilizó el método de la función característica para demostrar el teorema del límite central de una amplia gama de secuencias de variables aleatorias independientes.

También utilizó este teorema para explicar científicamente por primera vez por qué muchas variables aleatorias encontradas en la práctica obedecen aproximadamente a una distribución normal. Después de Lyapunov, α. я.Qin Xin, Alfa. η Andrey Kolmogorov, P. Levi y W. Feller hicieron importantes contribuciones a la teoría límite de secuencias de variables aleatorias.

En la década de 1930, la teoría límite de secuencias de variables aleatorias independientes se había vuelto más completa. Durante este período, debido a las necesidades de los problemas prácticos, especialmente las necesidades de la física, la gente comenzó a estudiar la aleatoriedad.

¿Cuál es la historia de la estadística? La palabra "estadísticas" se utiliza en inglés. Cuando se usa como sustantivo plural, indica datos estadísticos. Cuando se usa como sustantivo singular, significa estadística.

De manera general, la palabra estadística incluye tres significados: trabajo estadístico, datos estadísticos y estadística. Existe una estrecha relación entre ellos. Las estadísticas son el resultado del trabajo estadístico y las estadísticas provienen del trabajo estadístico.

El trabajo estadístico primitivo, la forma cruda de datos recopilados por las personas, tiene miles de años y comenzó como ciencia en el siglo XVII. Estadístico y estadístico son lo mismo en inglés, pero la estadística no surge directamente del resumen empírico del trabajo estadístico.

Cada ciencia tiene su establecimiento, desarrollo y condiciones objetivas. La ciencia estadística es una disciplina de vanguardia que se sintetiza, perfecciona y desarrolla a partir de la experiencia del trabajo estadístico, la teoría socioeconómica y los métodos econométricos. 1. La palabra estadística proviene de encuesta de condiciones nacionales y su significado original es investigación de condiciones nacionales.

En el siglo XVII, la gente estaba interesada en la "aritmética política" en Inglaterra. En 1662, John Graunt publicó su primer y único manuscrito, Observaciones naturales y políticas sobre las facturas de mortalidad, que analizaba la proporción de niños y niñas y desarrolló la tabla de tasas de mortalidad que ahora utilizan las compañías de seguros.

A mediados del siglo XVIII, el erudito alemán Gottfried Akenwall fundó la estadística inglesa. Proviene de la estadidad y de la aritmética política alemana. Fue utilizado por primera vez por John Sinclair y apareció en la Enciclopedia Británica en 1797. (También hubo una batalla temprana entre "publicidad" y "estadísticas" por el significado de "estadísticas". Si hubiera ganado, ahora sería popular).

2. Distribución 1733, De Moivre dio la curva normal en un artículo distribuido a amigos (esta historia fue inicialmente ignorada), y Laplace propuso que la ecuación de la curva normal es adecuada para expresar la probabilidad de distribución de error. En 1809 Gauss publicó su obra maestra sobre la teoría de los cuerpos celestes. En la tercera sección del segundo volumen de esta obra, dedujo que la curva normal es adecuada para expresar la ley del error y admitió la derivación anterior de Laplace.

La distribución normal se popularizó en la primera mitad del siglo XIX gracias al trabajo de Gauss, por lo que a menudo se la llama distribución gaussiana. Karl-Pearson señaló que Demovo fue el fundador de la curva normal. Fue el primero en llamarla distribución normal, pero la gente todavía solía llamarla distribución gaussiana.

3. Respecto al método de mínimos cuadrados en 1805, Legendre propuso el método de mínimos cuadrados, que Gauss afirmó haber utilizado en 1794, y dio una derivación estricta basada en el supuesto de distribución gaussiana del error en 1809. 4. Otros avances importantes en tres campos diferentes a mediados del siglo XIX se basaron en la premisa de que la aleatoriedad es inherente a la naturaleza.

A. Quetlet (1869) utilizó el concepto de probabilidad para describir fenómenos sociológicos y biológicos (la curva normal se extiende desde los errores de observación hasta diversos datos). Mendel (G.Mendel, 1870) formuló su ley de herencia, Boltzmann (1870), mediante estructuras aleatorias simples. En 1859 Darwin publicó "El origen de las especies". El trabajo de Darwin tuvo un profundo impacto en su primo, Sir Gordon, quien era mejor en matemáticas que Darwin. Comenzó a utilizar herramientas probabilísticas para analizar fenómenos biológicos e hizo importantes contribuciones a los fundamentos de la bioestadística (se podría llamarlo el padre de la bioinformática). Sir Gordon fue el primero en utilizar los dos conceptos importantes de correlación y regresión, así como mediana y percentil.

Influenciado por el trabajo de Gordon, Carl Pearson, que trabajaba en el University College de Londres, comenzó a aplicar las matemáticas y la teoría de la probabilidad a la teoría de la evolución de Darwin, creando así la era moderna de la estadística y ganándole el título de " Título "Padre de la Estadística". El primer número de Biometrika se publicó en 1901 (Ka Pearson fue una de las fundadoras). 5. En la literatura antigua podemos encontrar ejemplos claros de muestreo de la población, pero a menudo no se comprende que las muestras sólo pueden obtenerse de la población.

Desde la época de K. Pearson hasta finales del siglo XIX, la distinción entre muestra y población era bien conocida, pero no siempre se observaba esta distinción. -1910 Yule señaló en su libro de texto.

A principios del siglo XX, esta distinción se hizo aún más pronunciada, un punto particularmente enfatizado por Fisher en 1922. En un importante artículo "Sobre las bases matemáticas de la estadística teórica" ​​publicado en 1922, Fisher explicó la conexión y diferencia entre conceptos como población y muestra, sentando las bases de la "estadística teórica".

6. Expectativa, desviación estándar y varianza La expectativa es un concepto más primitivo que la probabilidad. El concepto de expectativas ya fue reconocido en el siglo XVII, en tiempos de Pascal y Fermat. Pearson fue el primero en definir el concepto de desviación estándar.

En 1918, Fisher introdujo el concepto de varianza.

Los investigadores en el campo de la teoría de la probabilidad ya han notado la similitud entre el momento en mecánica y la media en estadística. K. Pearson utilizó por primera vez "momento" en el sentido estadístico en 1893.

7. Estadística de chi-cuadrado La estadística de chi-cuadrado es propuesta por Karl-Pearson para probar si los datos conocidos provienen de un modelo aleatorio específico o si los datos conocidos son consistentes con una hipótesis dada. La prueba de chi-cuadrado se considera uno de los 20 inventos de vanguardia en todas las ramas de la ciencia y la tecnología desde 1900, e incluso su viejo enemigo Fisher elogió la prueba.

8. Estimación de momentos y máxima verosimilitud Ka-Pearson propuso un método para estimar parámetros utilizando momentos. Fisher propuso el método de estimación de máxima verosimilitud entre 1912 y 1922. Basándose en la intuición, desarrolló los conceptos de coherencia, validez y adecuación de las estimaciones.

9. Axiomatización de la probabilidad En 1933, el ex matemático soviético Kolmogorov publicó los conceptos básicos de la teoría de la probabilidad, sentando una base matemática estricta para la teoría de la probabilidad. 10. Teorema de Bayes Bayes hizo poca contribución a la estadística, pero uno de sus artículos se ha convertido en el foco del modelo de pensamiento estadístico bayesiano. Este artículo fue publicado en 1763 por Richard Pri, amigo de Bates y famoso pionero de los principios de los seguros de vida.