Algoritmo inglés

Con respecto a la descripción del algoritmo de ensacado, lo correcto es que cuando se entrena un solo clasificador, la probabilidad de que se extraiga cada muestra es la misma cuando se clasifican nuevas muestras, el resultado general del modelo es la categoría con más votos;

Algoritmo de ensacado (inglés: Bootstrap? El algoritmo de agregación, también conocido como algoritmo de ensacado, es un algoritmo de aprendizaje grupal en el campo del aprendizaje automático. Propuesto originalmente por Leo Breiman en 1996. El algoritmo de ensacado se puede combinar con otros Los algoritmos de clasificación y regresión se combinan para mejorar su precisión y estabilidad evitando el sobreajuste al reducir la varianza de los resultados.

El bagging es una técnica que reduce los errores de generalización al combinar varios modelos para entrenar varios modelos diferentes por separado. y luego dejar que todos los modelos voten sobre el resultado de la muestra de prueba. Este es un ejemplo de una estrategia tradicional en aprendizaje automático llamada promedio de modelos.

La razón por la que el promedio de modelos funciona es que los diferentes modelos generalmente no producen exactamente. El mismo error en el conjunto de prueba. El promedio del modelo es un método muy efectivo y confiable para reducir el error de generalización cuando se usa científicamente. Esto generalmente no se recomienda cuando se comparan algoritmos en papel, ya que cualquier algoritmo de aprendizaje automático puede beneficiarse enormemente del promedio del modelo. expensas de mayor cálculo y almacenamiento)

Dado un conjunto de entrenamiento de tamaño n, el algoritmo de ensacado selecciona m subconjuntos Di de tamaño n' como el nuevo conjunto de entrenamiento y los devuelve uniformemente (eso). es decir, utilizando el método de muestreo bootstrap), y utiliza clasificación, regresión y otros algoritmos en estos M conjuntos de entrenamiento, se pueden obtener M modelos y luego los resultados de Bagging se obtienen mediante votación promedio y mayoritaria. Características del algoritmo Bagging:

1. Bagging mejora la generalización al reducir la varianza del clasificador base.

2 Su rendimiento depende de la estabilidad del clasificador base. el clasificador base es inestable, el ensacado ayuda a reducir el error causado por las fluctuaciones aleatorias de los datos de entrenamiento; si es estable, el error de integración del clasificador se debe principalmente al sesgo del clasificador base. 3. Dado que cada muestra tiene la misma probabilidad de ser seleccionada, el embolsado no se centra en ningún ejemplo específico en el conjunto de datos de entrenamiento.

p>