¿La historia de la estadística?

La palabra "estadísticas" en inglés significa estadística. Cuando se usa como sustantivo plural, indica datos estadísticos. Cuando se usa como sustantivo singular, significa estadística. En términos generales, la palabra estadística incluye tres significados: trabajo estadístico, datos estadísticos y estadística. Existe una estrecha relación entre ellos. Las estadísticas son el resultado del trabajo estadístico y las estadísticas provienen del trabajo estadístico. El trabajo estadístico primitivo, la forma cruda de datos recopilados por las personas, tiene miles de años y comenzó como ciencia en el siglo XVII. Estadístico y estadístico son lo mismo en inglés, pero la estadística no surge directamente del resumen empírico del trabajo estadístico. Cada ciencia tiene su establecimiento, desarrollo y condiciones objetivas. La ciencia estadística es una materia de vanguardia que se sintetiza, perfecciona y desarrolla a partir de la experiencia del trabajo estadístico, la teoría socioeconómica y los métodos econométricos.

1. Acerca de la palabra estadística

Se originó a partir de una encuesta de condiciones nacionales y su significado original es investigación de condiciones nacionales.

En el siglo XVII, la gente estaba interesada en la "aritmética política" en Inglaterra. En 1662, John Graunt publicó su primer y único manuscrito, Observaciones naturales y políticas sobre las facturas de mortalidad, que analizaba la proporción de niños y niñas y desarrolló la tabla de tasas de mortalidad que ahora utilizan las compañías de seguros.

A mediados del siglo XVIII, el erudito alemán Gottfried Akenwall fundó la estadística inglesa. Proviene de la estadidad y de la aritmética política alemana. Fue utilizado por primera vez por John Sinclair y apareció en la Enciclopedia Británica en 1797. (También hubo una batalla temprana entre "publicidad" y "estadísticas" por el significado de "estadísticas". Si hubiera ganado, ahora sería popular).

2. Distribución

En 1733, De Moivre presentó una curva normal en un artículo distribuido a sus amigos (esta historia fue inicialmente ignorada).

En 1783, Laplace propuso que la ecuación de la curva normal fuera adecuada para expresar la probabilidad de distribución del error.

En 1809, Gauss publicó su obra maestra sobre la teoría de los cuerpos celestes. En la tercera sección del segundo volumen de esta obra, dedujo que la curva normal es adecuada para expresar la ley del error y admitió la derivación anterior de Laplace.

La distribución normal se popularizó en la primera mitad del siglo XIX gracias al trabajo de Gauss, por lo que a menudo se la llama distribución gaussiana. Karl-Pearson señaló que Demovo fue el fundador de la curva normal. Fue el primero en llamarla distribución normal, pero la gente todavía solía llamarla distribución gaussiana.

3. Sobre el método de mínimos cuadrados

En 1805, Legendre propuso el método de mínimos cuadrados. Se afirmó que se había utilizado gaussiano en 1794, y en 1809 se dio una derivación rigurosa basada en el supuesto de una distribución gaussiana de errores.

4. Otros

A mediados del siglo XIX, importantes avances en tres campos diferentes se basaron en la premisa de que la aleatoriedad es inherente a la naturaleza.

A. Quetlet (1869) utilizó el concepto de probabilidad para describir fenómenos sociológicos y biológicos (la curva normal se extiende desde los errores de observación hasta diversos datos).

Mendel (G.Mendel, 1870) aclaró sus leyes de herencia mediante una estructura aleatoria simple.

Boltzmann (1866) dio una explicación estadística de una de las proposiciones básicas más importantes de la física teórica: la segunda ley de la termodinámica.

En 1859, Darwin publicó "El origen de las especies". El trabajo de Darwin tuvo un profundo impacto en su primo, Sir Gordon, quien era mejor en matemáticas que Darwin. Comenzó a utilizar herramientas probabilísticas para analizar fenómenos biológicos e hizo importantes contribuciones a los fundamentos de la bioestadística (se podría llamarlo el padre de la bioinformática). Sir Gordon fue el primero en utilizar los dos conceptos importantes de correlación y regresión, así como mediana y percentil.

Influenciado por el trabajo de Gordon, Carl Pearson, que trabajaba en el University College de Londres, comenzó a aplicar las matemáticas y la teoría de la probabilidad a la teoría de la evolución de Darwin, creando así la era moderna de la estadística y ganándole el título de " Título "Padre de la Estadística".

El primer número de Biometrika se publicó en 1901 (Ka Pearson fue una de las fundadoras).

5. Acerca de las poblaciones y las muestras

En la literatura antigua se pueden encontrar ejemplos claros de muestreo de poblaciones, pero a menudo falta la comprensión de que las muestras solo se pueden obtener de poblaciones. -La era de Pearson

A finales del siglo XIX, la distinción entre una muestra y una población se entendía bien, pero esta distinción no siempre se observaba. -1910 Yule señaló en su libro de texto.

A principios del siglo XX, esta distinción se hizo aún más pronunciada, un punto particularmente enfatizado por Fisher en 1922. En un importante artículo "Sobre las bases matemáticas de la estadística teórica" ​​publicado en 1922, Fisher explicó la conexión y diferencia entre conceptos como población y muestra, sentando las bases de la "estadística teórica".

6. Valor esperado, desviación estándar y varianza

La expectativa es un concepto más primitivo que la probabilidad. El concepto de expectativas ya fue reconocido en el siglo XVII, en tiempos de Pascal y Fermat. Pearson fue el primero en definir el concepto de desviación estándar. En 1918, Fisher introdujo el concepto de varianza.

La similitud entre el momento en mecánica y la media en estadística fue notada por los trabajadores en el campo de la teoría de la probabilidad ya en 1893. K. Pearson utilizó por primera vez "momento" en el sentido estadístico en 1893.

7. Estadística de chi-cuadrado

La estadística de chi-cuadrado fue propuesta por Karl-Pearson y se utiliza para probar si los datos conocidos provienen de un modelo aleatorio específico o si los datos conocidos provienen de un modelo aleatorio específico. Los datos son consistentes con un supuesto dado. La prueba de chi-cuadrado se considera uno de los 20 inventos de vanguardia en todas las ramas de la ciencia y la tecnología desde 1900, e incluso su viejo enemigo Fisher elogió la prueba.

8. Estimación de momentos y máxima verosimilitud

Karl-Pearson propuso un método para estimar parámetros utilizando momentos.

Fisher propuso el método de estimación de máxima verosimilitud entre 1912 y 1922. Basándose en la intuición, desarrolló los conceptos de coherencia, validez y adecuación de las estimaciones.

9. Axiomatización de la probabilidad

En 1933, el ex matemático soviético Kolmogorov publicó "Conceptos básicos de la teoría de la probabilidad", sentando una base estricta para los conceptos básicos de la teoría de la probabilidad.

10. Teorema de Bayes

Bayes hizo poca contribución a la estadística, pero uno de sus artículos se ha convertido en el foco del modelo de pensamiento estadístico bayesiano. Este artículo fue publicado en 1763 y fue propuesto por Richard Price, un amigo de Bates y el famoso pionero de los principios de los seguros de vida, después del teorema de la muerte de Bates.

Dos formas de pensar en la probabilidad, (1) como una propiedad física inherente a un sistema físico, (2) como una medida de la credibilidad de una afirmación. A finales de la década de 1950, la mayoría de los estadísticos adoptaron la primera visión, la interpretación de la probabilidad por frecuencia relativa. Durante este período, el teorema de Bayes sólo se aplicaba cuando las probabilidades podían interpretarse dentro del marco de las frecuencias. En la década de 1960 comenzó una ola de trabajos de la escuela bayesiana de estadística. Desde entonces, defensores y opositores de la estadística bayesiana han discutido y discutido con la pasión y la furia características de Pearson y Fisher.

Antes de 1960, casi todos los libros y publicaciones periódicas de estadística evitaban el uso de métodos bayesianos. Fisher insistió en evitar el teorema de Bayes y una vez más lo rechazó rotundamente en su último libro. Carl Pearson lo utilizaba ocasionalmente, pero en general lo evitaba. Neyman y E.S Pearson se opusieron firmemente al uso de pruebas de hipótesis en sus artículos.