Una visión general de la teoría de la probabilidad y la estadística matemática

1.1.1 Fenómenos aleatorios:

El objeto de investigación de la teoría de la probabilidad y la estadística matemática son los fenómenos aleatorios, es decir, fenómenos que no siempre tienen los mismos resultados bajo ciertas condiciones, es decir, fenómenos cuyos resultados no pueden ser determinados se denominan colectivamente fenómenos aleatorios. Hay muchos fenómenos aleatorios en la vida real. Por ejemplo, es aleatorio que un estudiante de la misma especialidad en la misma escuela sea admitido en una escuela de posgrado. No se puede decir qué estudiante será admitido definitivamente en una determinada escuela, pero puede estimar la tasa de exámenes de ingreso de posgrado de la escuela basándose en los datos de la escuela de años anteriores. Hasta cierto punto, se puede estimar aproximadamente la posibilidad de que un estudiante entre. esta escuela es admitida en una escuela de posgrado. Por supuesto, la posibilidad de que un estudiante sea admitido al examen de ingreso de posgrado no está necesariamente relacionada con la tasa de exámenes de ingreso de posgrado de la escuela, porque es aleatoria e incierta, pero existe una cierta correlación. La teoría de la probabilidad total estudia el modelo de fenómenos aleatorios (distribución de probabilidad). La distribución de probabilidad es una herramienta que se puede utilizar para describir las características de un fenómeno aleatorio. Donde hay yin, hay yang, y los eventos aleatorios corresponden naturalmente a fenómenos deterministas (como la salida y puesta del sol todos los días).

1.1.2 Espacio muestral:

El conjunto de todos los resultados básicos posibles de fenómenos aleatorios se denomina espacio muestral, y los elementos del conjunto también se denominan puntos muestrales. Cuando el número de puntos muestrales es contable o finito, se llama espacio muestral discreto. Cuando el número de puntos muestrales es infinito o incontable, se llama espacio muestral continuo. (Una lista consiste en enumerarlos uno por uno en un orden determinado. Por ejemplo, el número de personas que llegan a un determinado centro comercial en un día determinado es un número entero 1, 2, 3... Por ejemplo, la vida útil de un TV es 100,1 horas, 100,01 horas, 100,438+0 horas. Nunca puedes enumerar el siguiente elemento en la secuencia que sea menor que 100.

1.1.3 Eventos aleatorios:

Aleatorio. El fenómeno se llama evento aleatorio, lo que significa que los eventos aleatorios son un subconjunto del espacio muestral, y el conjunto de elementos individuales en el espacio muestral se llama evento básico. El espacio muestral en sí también es un evento llamado evento inevitable. El subconjunto más pequeño del espacio muestral, el conjunto vacío, se denomina evento imposible.

1.1.4 Variables aleatorias:

Las variables utilizadas para representar los resultados de los fenómenos aleatorios se denominan. variables aleatorias. De hecho, los valores de las variables aleatorias representan los resultados de eventos aleatorios. El resultado a menudo puede corresponder al valor de una variable aleatoria.

1.1.5 Operaciones y relaciones entre eventos aleatorios.

Dado que definimos eventos aleatorios como operaciones entre eventos de conjuntos, también se pueden considerar operaciones entre conjuntos. Las operaciones como intersección, unión, complemento y diferencia entre conjuntos también existen entre eventos aleatorios. las reglas de operación son consistentes entre conjuntos, incompatibilidad, oposición y eventos. Las propiedades operativas entre eventos aleatorios satisfacen la ley de intercambio, la ley de correlación, la tasa de distribución y la ley de De Morgan.

1.1.6 Dominio de eventos:

El dominio de eventos es una clase de conjunto compuesta por algunos subconjuntos del espacio muestral y satisface tres condiciones. El número de elementos en el dominio de eventos es el número de subconjuntos del espacio muestral. n puntos de muestra están en su dominio de eventos. Definir el dominio de eventos es principalmente para prepararse para definir la probabilidad de eventos.

El problema más básico en la teoría de la probabilidad es cómo determinar la probabilidad de un evento aleatorio. sus resultados tienen una cierta regularidad (es decir, la probabilidad de que ocurran eventos aleatorios), y la herramienta utilizada para describir esta regularidad es la probabilidad. Pero, ¿cómo definimos la probabilidad? problema

En la historia de la teoría de la probabilidad, ha habido varias definiciones de probabilidad para diferentes eventos aleatorios, pero esas definiciones solo se aplican a un cierto tipo de eventos aleatorios. ¿La definición más general de probabilidad de fenómenos aleatorios? En 1900, el matemático Hilbert propuso establecer una definición axiomática de probabilidad, es decir, establecer una definición universal de probabilidad que satisfaga todos los eventos aleatorios y utilizar la esencia de la probabilidad para describir la probabilidad en 1933. En 2000, el ex matemático soviético Andrei Kolmogorov propuso por primera vez la definición axiomática de probabilidad. No sólo resumía las mismas características de varias definiciones históricas de probabilidad, sino que también evitaba sus respectivas ambigüedades. Se puede decir que en la definición es probabilidad. Después de que se publicó esta definición, fue reconocida unánimemente por casi todos los matemáticos.

(Dicho sea de paso, si un matemático hace un descubrimiento importante, necesita escribir un artículo y obtener la aprobación unánime de la gente del círculo académico. Sólo entonces su descubrimiento podrá escribirse en un libro de texto como un axioma. La razón por la que se llama un axioma es que es un principio universalmente aplicable y también es una verdad generalmente reconocida).

1.2.1 Tres definiciones axiomáticas de probabilidad;

Cada evento aleatorio debe ir acompañado de su espacio muestral (al igual que algunos hombres exitosos tienen esposas detrás de ellos). Cada evento aleatorio pertenece al dominio de eventos del espacio muestral. Si el espacio muestral se elige de manera diferente, la probabilidad del mismo evento aleatorio generalmente será diferente.

Si la probabilidad satisface los tres axiomas anteriores, el espacio compuesto por el espacio muestral, el dominio de eventos y la probabilidad se llama espacio de probabilidad, y la probabilidad que satisface los tres axiomas anteriores se puede llamar probabilidad.

La definición axiomática de probabilidad no proporciona un método para calcular la probabilidad, por lo que después de saber qué es la probabilidad, cómo determinarla se convierte en otro problema.

1.2.2 Método de frecuencia para determinar la probabilidad:

El escenario de aplicación del método de frecuencia para determinar la probabilidad es un experimento aleatorio que se puede repetir en grandes cantidades. La idea de utilizar el valor estable de la frecuencia para obtener una estimación de la probabilidad es la siguiente:

¿Por qué piensas en utilizar la frecuencia para estimar la probabilidad? Porque la práctica a largo plazo muestra que a medida que aumenta el número de experimentos, la frecuencia se estabilizará cerca de una cierta constante, que llamamos valor estable de la frecuencia. Más tarde, la ley de los grandes números de Bernhard demostró que su valor estable es la probabilidad de eventos aleatorios, y se puede demostrar que la frecuencia satisface las tres definiciones axiomáticas de probabilidad, lo que indica que la frecuencia es una "pseudoprobabilidad".

1.2.4 Método clásico para determinar la probabilidad:

Los problemas clásicos son los primeros problemas en la historia del aprendizaje de la teoría de la probabilidad, incluido el problema de los dados estudiado por Pascal, que son todos problemas clásicos. . Es simple e intuitivo, y podemos analizarlo racional y racionalmente basándonos en hechos empíricos sin hacer muchos experimentos.

La idea de determinar la probabilidad mediante el método clásico es la siguiente:

Obviamente, la probabilidad clásica satisface las tres definiciones axiomáticas de probabilidad, y la probabilidad clásica es el método más antiguo comúnmente utilizado. para determinar la probabilidad. Encontrar la probabilidad clásica se reduce a encontrar el número total de puntos muestrales y el número de puntos muestrales de eventos en el espacio muestral, por lo que a menudo se utilizan herramientas de permutación y combinación en los cálculos.

1.2.5 Método geométrico para determinar la probabilidad.

Concepto básico:

1.2.6 Método subjetivo para determinar la probabilidad:

Realidad. En el mundo, algunos fenómenos aleatorios no se pueden probar al azar, o el costo de realizar experimentos aleatorios es demasiado alto y la ganancia supera la pérdida. ¿Cómo determinar la probabilidad en este momento?

Las estadísticas bayesianas creen que la probabilidad de que ocurra un evento es la creencia personal de las personas en la probabilidad de que ocurra un evento basada en la experiencia, por lo que la probabilidad dada se llama probabilidad subjetiva. Por ejemplo, dije que mi probabilidad de ser admitido en una escuela de posgrado es del 100% (por supuesto, esto es alardear, pero también incluye la confianza en mí mismo y mi comprensión de mi propia situación de aprendizaje, así como mi comprensión de la institución en la que estoy). solicitando). Por ejemplo, un emprendedor dijo que basándose en sus muchos años de experiencia y cierta información del mercado en ese momento, la probabilidad de que un nuevo producto se venda bien en el mercado es del 80% (en este caso, si un conocido te lo dice en privado, puedes Todavía lo creo, pero ten cuidado, si un extraño lo dijera frente a mucha gente, ¿lo creerías? ¿Por qué no lo haces tú mismo y me lo das? La probabilidad subjetiva es una estimación de la probabilidad de que algo suceda basándose en circunstancias reales, pero la calidad de esta estimación aún no se ha verificado.

No necesitas recordar esto si lo entiendes. Soy una persona muy diligente y me da pereza memorizar y escribir otras fórmulas. . . . A continuación solo analizamos la probabilidad condicional, la fórmula de probabilidad total y la fórmula bayesiana:

1.3.1 Probabilidad condicional:

La llamada probabilidad condicional es la probabilidad de que el evento B ocurra cuando el evento A ocurre, es decir, si P (b)>, entonces A B es cada dos eventos en el espacio muestral 0 significa:

Es la probabilidad condicional de que ocurra a bajo la premisa de que ocurra b, denominada así; probabilidad condicional.

Esta fórmula no es difícil de entender. De hecho, el significado de la fórmula anterior es "bajo la condición de que ocurra B, la probabilidad de que ocurra A es igual al número de puntos muestrales del evento A y el evento B *** mayor que el número final de puntos muestrales de B ." Se puede comprobar que esta probabilidad condicional satisface las tres condiciones de probabilidad. Definición axiomática.

1.3.2 Fórmula de multiplicación:

1.3.3 Fórmula de probabilidad total:

Supongamos que es una división del espacio muestral, es decir, es mutuamente incompatible, si lo hay:

Esta fórmula también es fácil de entender, porque las muestras son mutuamente excluyentes y su evento suma es el espacio muestral, por lo que el número de puntos muestrales en el evento A es igual a la suma del evento A * * *La suma de los puntos de muestra en.

1.3.4 Fórmula bayesiana:

La fórmula bayesiana se deriva en función de la fórmula de probabilidad total y la fórmula de multiplicación.

Si es una partición del espacio muestral, es mutuamente excluyente, y si:

La prueba de la fórmula se basa en probabilidad condicional, entonces el numerador y el denominador pueden ser En su lugar, multiplique respectivamente la fórmula y la fórmula de probabilidad total. En la fórmula, la probabilidad conocida se llama probabilidad previa y, en la fórmula, se llama probabilidad posterior. La fórmula de probabilidad total y la fórmula multiplicativa deducen el efecto de la causa, y la fórmula bayesiana deduce la causa del efecto.

1.3.5 Independencia de eventos:

Arriba, introdujimos el concepto de probabilidad condicional. Bajo la condición A, ¿cuál es la probabilidad de que ocurra la condición B, si la ocurrencia de la condición B no se ve afectada por A? Intuitivamente, esto significaría que si están involucrados dos eventos A y B, entonces el evento A y el evento B son independientes entre sí.

Además de la definición de que dos eventos aleatorios se satisfacen entre sí de forma independiente, existen, por supuesto, muchas definiciones que los eventos aleatorios se satisfacen de forma independiente. Para n eventos aleatorios mutuamente independientes, se requiere que cualquier evento aleatorio del evento sea independiente entre sí.

1.3.6 Tipo de probabilidad de Bernoulli:

Definición: si el experimento E tiene solo dos resultados posibles y luego el experimento se repite N veces, se realiza una prueba de Bernoulli N veces o probabilidad de Bernoulli. forma. Obviamente, los resultados de cada evento de prueba de Bernoulli son independientes entre sí, por lo que la prueba de Bernoulli obviamente obedece a la distribución binomial, y luego se introduce la distribución binomial.

1.4.1 Variables aleatorias discretas:

Como se mencionó anteriormente, las variables utilizadas para representar los resultados de fenómenos aleatorios se denominan variables aleatorias. Por ejemplo, el valor de una variable aleatoria puede ser. 1, 2, 3... Obviamente, los resultados de la prueba aleatoria están en correspondencia uno a uno con los valores de las variables aleatorias, por lo que estudiamos las reglas estadísticas de los resultados de la prueba aleatoria en las reglas estadísticas de las variables aleatorias. Al mismo tiempo, esto está establecido artificialmente y es razonable. Las variables aleatorias se llaman cuando sólo pueden tomar un número limitado o una lista de valores.

1.4.2 Lista de distribución de variables aleatorias;

Enumerar los valores de las variables aleatorias y sus valores correspondientes, es decir, las probabilidades, se denomina tabla de distribución. La tabla de distribución aclara las reglas estadísticas de las variables aleatorias de un vistazo, lo que facilita el cálculo de la varianza y la media de sus números característicos. Una lista de distribución satisface las dos propiedades siguientes:

Una lista que satisface las dos propiedades anteriores se denomina lista de distribución.

1.4.3 Función de distribución:

Supongamos que x es una variable aleatoria. Para cualquier número real x, la función de distribución de la variable aleatoria x se escribe como:

La función de distribución satisface las siguientes tres propiedades:

Las propiedades anteriores son condiciones necesarias y suficientes para que la función sea una función de distribución.

1.4.4 Expectativa y varianza matemática:

Veamos un ejemplo. Una fábrica de relojes comprueba aleatoriamente el error horario diario de N=100 relojes entre sus productos. Los datos son los siguientes:

En este momento, el error de tiempo diario promedio de estos 100 relojes es: donde se registra la frecuencia del error de tiempo diario.

El promedio es la suma de la frecuencia multiplicada por la frecuencia, por lo que teóricamente la frecuencia debería reemplazarse por la probabilidad porque la frecuencia es estable en el tiempo. En este momento, llamamos expectativa matemática al valor promedio obtenido después de reemplazar la frecuencia por probabilidad (de hecho, el valor promedio obtenido posteriormente por la ley de números grandes también es estable en la expectativa matemática. La expectativa matemática refleja el resultado). de la variable aleatoria X hasta cierto punto. El grado promedio, es decir, el tamaño del todo, se registra como .

Definición: Sea x una variable aleatoria. Si existe la media de x, se llama varianza de la variable aleatoria.

Obviamente la varianza también es una media, entonces, ¿qué es? Representa la desviación promedio de una variable aleatoria. Podemos deducir que la suma de las desviaciones medias de las variables aleatorias es igual a cero, por lo que la media de la suma de las desviaciones medias también es igual a cero, pero esperamos usar desviaciones para describir las diferencias entre diferentes distribuciones. Si tomamos la media de la suma de las desviaciones medias, entonces cualquier distribución es cero, por lo que agregamos un cuadrado a las desviaciones para evitar sumar las desviaciones a cero.

Entonces, ¿cuál es el significado de varianza, un número que representa características de distribución? Muchas personas parecen haber terminado de estudiar estadística de probabilidad, pero ni siquiera entienden el significado de varianza. De hecho, la varianza se usa para describir la diferencia entre datos, y describir la diferencia entre datos, ya sea un vector en el espacio o un punto en un plano, no es tan bueno como usar la distancia para describir la diferencia entre ellos. En física, si desea comparar correcta y razonablemente la velocidad y la aceleración de dos objetos en movimiento, debe elegir un sistema de referencia apropiado para comparar. De manera similar, cuando comparamos diferencias entre datos, a menudo usamos la media como referencia (de hecho, también se pueden usar otros valores para comparar, pero eso puede causar una variación excesiva). Cuanto mayor es la distancia a la media, mayor es la diferencia entre ambas, y la distancia se divide en positiva y negativa. Entonces, para distinguir entre positivo y negativo, también necesitamos agregar un cuadrado a la distancia desde la media, de donde proviene el concepto de varianza. Generalmente usamos varianza para describir las diferencias entre un conjunto de datos. Cuanto menor es la varianza, más concentrados están los datos, y cuanto mayores son los datos, más dispersos están. Al mismo tiempo, también se utiliza en finanzas para evaluar riesgos como la volatilidad del precio de las acciones. Por supuesto, esperamos que las fluctuaciones del precio de las acciones sean más estables, la variación sea menor y los rendimientos sean más estables.

Debido a que la media y la varianza describen algunas características de las variables aleatorias y su distribución, se denominan números característicos.

1.4.5 Función de densidad de variables aleatorias continuas;

Los valores de variables aleatorias continuas pueden llenar un cierto intervalo, por lo que la distribución de probabilidad de variables aleatorias continuas no puede ser. representado por la línea de la lista de distribución, pero necesita ser representado por otras herramientas, es decir, la función de densidad de probabilidad.

El origen de la función de densidad de probabilidad: por ejemplo, cuando una fábrica mide la longitud de una pieza de trabajo, apilamos las piezas medidas según su longitud. El eje horizontal es la unidad de longitud del componente y el eje vertical es la frecuencia por unidad de longitud del componente. Cuando hay una gran cantidad de originales, se formará un patrón determinado. Para estabilizar este gráfico, cambiamos el eje vertical a frecuencia por unidad de longitud. A medida que aumenta el número de componentes, la frecuencia se estabiliza gradualmente en la probabilidad. Cuando la longitud de la unidad es menor, los números originales son mayores y la gráfica es más estable. Cuando la unidad de longitud se acerca a cero, la gráfica presenta una curva suave. En este momento, la ordenada cambia de "probabilidad por unidad de longitud" a "densidad de probabilidad en un punto". La función de la curva suave formada en este momento se llama función de densidad de probabilidad. Muestra una regla estadística de que es más probable que X tome un valor en algunos lugares y menos probable que tome un valor en algunos lugares.

Aunque la función de densidad de probabilidad no es una densidad, el valor aproximado de la probabilidad en un intervalo pequeño se puede obtener multiplicándolo por un pequeño infinitesimal, es decir,

La probabilidad en el intervalo se puede obtener mediante el elemento diferencial. El resultado acumulativo no es más que la integral en el intervalo =.

A partir de esto se puede obtener la función de distribución de X. Para variables aleatorias continuas, la integral de la función de densidad es la función de distribución y la derivada de la función de distribución es la función de densidad.

Propiedades básicas de la función de densidad:

1.4.6 Expectativa y varianza de variables aleatorias continuas;

Supongamos que la función de densidad de la variable aleatoria x es.

Expectativa matemática:

Diferencia:

1.4.7 Desigualdad de Chebyshev (Chebyshev, 1821-1894);

Supongamos que la expectativa matemática la expectativa y la varianza de la variable aleatoria x existen. Para cualquier constante, existen:

.

La razón de esta fórmula es que la gente cree que la probabilidad del evento {0} debe estar relacionada con la varianza, lo cual es comprensible. Cuanto mayor es la varianza, mayor es la desviación del valor de X. Es decir, cuanto mayor es el valor de la desviación mayor que una determinada constante A, mayor es la probabilidad de que el valor sea mayor que un determinado valor. La fórmula anterior muestra que el límite superior de la probabilidad de grandes desviaciones está relacionado con la varianza. Cuanto mayor es la varianza, mayor es el límite superior.

1.4.8 Distribuciones discretas comunes:

1.4.9 Distribuciones continuas comunes: