¿Cuál es la fórmula para calcular la varianza?

D(X-Y) se refiere a la varianza de (X-Y). La fórmula de cálculo es D(X-Y)=D(X) D(Y)-2Cov(X, Y).

Donde Cov(X, Y) es la covarianza de X e Y. La varianza es una medida de la dispersión de una variable aleatoria o un conjunto de datos en teoría de probabilidad y estadística. En teoría de la probabilidad, la varianza se utiliza para medir la desviación entre una variable aleatoria y su expectativa matemática (es decir, la media).

Propiedades de la fórmula de varianza

1. Supongamos que C es una constante, entonces D(C) = 0 (constante sin fluctuación);

2. CX) =C2D(X) (extracción cuadrática constante, C es una constante, X es una variable aleatoria);

Prueba: En particular, D(-X) = D(X), D(- 2X) = 4D( X ) (la varianza no tiene valor negativo)

3 Si , el tercer término se expande cuando X e Y son independientes entre sí, por lo que el tercer término es cero.

En particular, la suma término por término de premisas independientes se puede generalizar a términos finitos.

Significancia estadística de la varianza

Cuando la distribución de los datos está relativamente dispersa (es decir, los datos fluctúan mucho cerca de la media), la suma de los cuadrados de las diferencias entre cada dato y la la media es grande y la varianza es mayor cuando la distribución de datos está relativamente concentrada, la suma de cuadrados de las diferencias entre cada dato y la media es menor. Por lo tanto, cuanto mayor es la varianza, mayor es la fluctuación de los datos; cuanto menor es la varianza, menor es la fluctuación de los datos.

La suma promedio de los cuadrados de las diferencias entre cada dato de la muestra y la media muestral se llama varianza muestral; la raíz cuadrada aritmética de la varianza muestral se llama desviación estándar muestral. La varianza muestral y la desviación estándar muestral son cantidades que miden la fluctuación de una muestra. Cuanto mayor sea la varianza muestral o la desviación estándar muestral, mayor será la fluctuación de los datos de la muestra.

La varianza y la desviación estándar son los indicadores más importantes y comúnmente utilizados para medir tendencias discretas. La varianza es el promedio de las desviaciones al cuadrado de cada valor de variable de su media. Es el método más importante para medir la dispersión de datos numéricos. La desviación estándar es la raíz cuadrada aritmética de la varianza, representada por S.

La diferencia entre desviación estándar y varianza es que la desviación estándar tiene la misma unidad de cálculo que la variable y es más clara que la varianza, por lo que muchas veces utilizamos más la desviación estándar a la hora de analizar.

¿Referencia para la información anterior? Enciclopedia Baidu: fórmula de cálculo de varianza

ved