La desviación estándar es la raíz cuadrada aritmética de la varianza, lo que significa que refleja el grado de dispersión de un conjunto de datos.
Conocimientos ampliados
1. Acerca de la desviación estándar
La desviación estándar (Standard Deviation), un término matemático, es la media aritmética de las desviaciones al cuadrado de la media. (es decir, la raíz cuadrada aritmética de la varianza), representada por σ. La desviación estándar, también conocida como desviación estándar o desviación estándar experimental, se usa más comúnmente en probabilidad y estadística como una medida del grado de distribución estadística.
2. Propiedades y aplicaciones de la desviación estándar
La desviación estándar se utiliza más comúnmente en estadística de probabilidad como medida de distribución estadística. La desviación estándar se define como la raíz cuadrada de la media aritmética de las desviaciones al cuadrado de los valores estándar de cada unidad de la población respecto de su media. Refleja el grado de dispersión entre los individuos dentro de un grupo. El resultado de medir el grado de distribución tiene en principio dos propiedades:
Es un valor no negativo y tiene la misma unidad que los datos de medición. Existe una diferencia entre la desviación estándar de una cantidad total o una variable aleatoria y la desviación estándar de un subconjunto de muestras. En pocas palabras, la desviación estándar es una medida de la dispersión de la media de un conjunto de datos. Una desviación estándar mayor significa que la mayoría de los valores son significativamente diferentes de la media; una desviación estándar menor significa que la mayoría de los valores están más cerca de la media.
Por ejemplo, los valores medios de los dos conjuntos {0,5,9,14} y {5,6,8,9} son ambos 7, pero el segundo conjunto tiene un estándar menor Diferencia. La desviación estándar puede considerarse una medida de incertidumbre. Por ejemplo, en las ciencias físicas, cuando se realizan mediciones repetidas, la desviación estándar de un conjunto de valores medidos representa la precisión de esas mediciones.
Cuando se trata de decidir si un valor medido coincide con un valor predicho, la desviación estándar del valor medido juega un papel decisivo: si el valor medio medido está demasiado lejos del valor predicho (y en comparación con el valor de desviación estándar), se considera que la medición Los valores contradicen los valores predichos. Esto es fácil de entender porque si todos los valores medidos caen fuera de un cierto rango numérico, se puede inferir razonablemente si los valores predichos son correctos.