Una de las razones para escribir este artículo es resumir los algoritmos que aprendí en preparación para la competencia de EE. UU. En lugar de eso, los enumero y los explico en unas pocas oraciones para poder buscarlos si es necesario. necesario en el futuro.
Los problemas de modelado matemático siempre se dividen en cuatro categorías:
1. Problemas de clasificación 2. Problema de optimización 3. Pregunta de evaluación 4. Problema de predicción
Escribí este libro basándome en algoritmos y aplicaciones de modelado matemático.
Problema de optimización
Los métodos de programación lineal y no lineal son los clásicos más básicos: las ideas de función objetivo y función de restricción.
Algoritmos de optimización modernos: búsqueda tabú; recocido simulado; algoritmo genético; red neuronal artificial
Algoritmo de recocido simulado;
Introducción: resultados de la investigación de mecánica estadística de materiales . La mecánica estadística muestra que diferentes estructuras en los materiales corresponden a diferentes niveles de energía de las partículas. A altas temperaturas, las partículas tienen mayor energía y pueden moverse y reorganizarse libremente. A bajas temperaturas, las partículas tienen poca energía. Si la temperatura desciende muy lentamente desde altas temperaturas (un proceso llamado recocido), las partículas pueden alcanzar el equilibrio térmico en cada temperatura. Cuando el sistema se enfría por completo, eventualmente se forman cristales en un estado de baja energía.
Las ideas se pueden utilizar para resolver problemas matemáticos. En el proceso de resolución, la nueva solución se transforma de una manera a la vez, y luego se utiliza el proceso de recocido del estado de aceptación de probabilidad (nueva solución): transformación de probabilidad, la probabilidad es la energía de la base natural/potencia KT.
Algoritmo genético: El algoritmo genético es un algoritmo de búsqueda basado en el principio de selección natural y el mecanismo genético natural. Simular el mecanismo evolutivo de la vida en la naturaleza y lograr la optimización de objetivos específicos en sistemas artificiales.
La esencia del algoritmo genético es utilizar tecnología de búsqueda grupal (?) y basarse en el principio de supervivencia del más apto para obtener finalmente la solución óptima o cuasi óptima.
Proceso de implementación específico (P329~331)
*Codificación
*Determinar la función de aptitud (es decir, función objetivo)
*Confirmar Parámetros de evolución: tamaño de población M, probabilidad de cruce Pc, probabilidad de mutación Pm y condiciones de terminación de la evolución.
*Codificación
* Determina la población inicial, utilizando el clásico algoritmo de círculo mejorado.
*Función objetiva
*Operación de cruce
*Operación de mutación
*Selección
Algoritmo genético mejorado
Dos mejoras: la operación de cruce se cambia a emparejamiento basado en el principio de "emparejamiento puerta a puerta", y la operación de mutación que utiliza secuencias caóticas para determinar la ubicación de los puntos pobres se separa de la operación de cruce .
Problema de clasificación binaria (y algunos métodos de análisis multivariado)
*Máquina de vectores de soporte SVM
*Análisis de conglomerados
*Análisis de componentes principales
*Análisis Discriminante
*Análisis de Correlación Canónica
Máquina de Vectores de Soporte (SVM): La idea principal es encontrar un hiperplano que lo haga lo más correcto posible Separe dos tipos de puntos de datos y aleje los dos tipos de puntos de datos separados de la superficie de clasificación.
Análisis de conglomerados (un algoritmo extremadamente clásico): La clasificación de muestras se denomina análisis de conglomerados Q y la clasificación de indicadores se denomina análisis de conglomerados R.
Conceptos básicos: Medición de similitud de muestras (cuantificación, distancia), como la distancia de Min.
Análisis de componentes principales: Su objetivo principal es utilizar menos variables para explicar la mayor parte de la variación en los datos originales y transformar muchas variables altamente correlacionadas en variables independientes o no correlacionadas. Es común seleccionar varias variables nuevas y componentes principales que tienen menos variables que las variables originales y pueden explicar la mayor parte de la variación en los datos. Es esencialmente un método de reducción de dimensionalidad.
Análisis discriminante: Es un método estadístico para inferir el tipo de individuos a partir de los indicadores de observación de los individuos objeto de estudio. Este criterio es óptimo en cierto sentido, como minimizar la probabilidad de un error de juicio o minimizar la pérdida por un error de juicio. Este método es como un nombre genérico para los métodos de clasificación. Por ejemplo, discriminación de distancia, discriminación bayesiana y discriminación de Fisher
Análisis de correlación canónica: estudia la correlación entre dos grupos de variables en relación con el cálculo de todos los coeficientes de correlación y utiliza la idea de componentes principales similares para descubra los dos grupos Alguna combinación lineal de variables, analice la correlación entre combinaciones lineales.
En tercer lugar, cuestiones de evaluación y toma de decisiones
Los métodos de evaluación se pueden dividir en dos categorías, la diferencia radica en determinar el peso: una es el empoderamiento subjetivo: la evaluación integral de la información determina el peso ; el otro Es una ponderación objetiva: la ponderación se determina en función de la correlación de cada indicador o el grado de cambio del valor de cada indicador.
*Solución ideal
*Método de evaluación integral difusa
*Método de análisis envolvente de datos
*Método de análisis de correlación de grises
*Análisis de componentes principales (omitido)
*Método de evaluación integral de la relación de suma de rangos de la solución ideal
Idea: basado en la distancia desde la solución óptima (solución ideal) como estándar para evaluar muestras.
El método de evaluación integral difusa se utiliza para cuestiones difusas como la evaluación del personal. Método de evaluación integral difusa multinivel.
El análisis envolvente de datos (DEA) es un método eficaz para evaluar sistemas de entrada y salida de múltiples índices. Se basa en el concepto de eficiencia relativa.
La idea del análisis de correlación de grises: calcular la correlación ponderada de grises entre el objeto a evaluar y el objeto ideal, similar al método TOPSIS.
Análisis de componentes principales (omitido)
El concepto de rango de muestra en el método de evaluación integral de la relación de suma de rangos: los indicadores de beneficios se clasifican de pequeños a grandes, los indicadores de costos se clasifican de de grande a pequeño, luego se calcula el rango y la proporción, y finalmente se lleva a cabo la regresión estadística
Cuatro problemas de predicción
*Modelo de ecuación diferencial
*Predicción de grises modelo
*Marco Forecasting
*Serie temporal (omitido)
*Interpolación y ajuste (omitido)
*Red neuronal p>
Lanches Modelo especial de predicción de guerra. .
La característica principal del modelo de predicción gris es que no utiliza la secuencia de datos original, sino la secuencia de datos generada. Ventajas: no se requiere una gran cantidad de datos y se pueden utilizar ecuaciones diferenciales para explorar completamente la esencia del sistema con alta precisión. Se pueden generar datos originales irregulares y se puede obtener una secuencia generada altamente regular. Desventajas: solo es adecuado para pronósticos a corto y mediano plazo, y solo es adecuado para pronósticos de crecimiento exponencial.
La predicción de Markov sobre el futuro de un sistema sólo está relacionada con el estado actual y no tiene nada que ver con el pasado.
Cadena de Markov
Cadena de Markov uniforme en el tiempo
Series temporales (omitidas)
Interpolación y ajuste (omitidas)
Red neuronal (omitida)