Una breve discusión sobre la optimización estocástica robusta distribuida

Tanto la programación estocástica como la optimización robusta pueden describir bien los problemas estocásticos, pero la primera requiere conocimiento de la información de distribución de probabilidad de las variables aleatorias. Aunque la segunda puede resolver el problema, la solución obtenida es demasiado conservadora. La optimización robusta distribuida es un método de optimización que toma decisiones basadas en información insuficiente. En comparación con la programación estocástica y la optimización robusta, cierra la brecha entre los datos y la toma de decisiones y los marcos estadísticos y de optimización. También hereda la solucion de la optimización robusta y la flexibilidad de la programación estocástica para describir problemas estocásticos. Además, la optimización robusta distribuida adopta un enfoque del peor de los casos para regularizar el problema de optimización, aliviando así el problema del desastre del optimizador en la optimización estocástica.

El núcleo de la optimización estocástica robusta distribuida es la construcción de conjuntos difusos. Una vez determinados los conjuntos difusos, se trata de cómo utilizar la tecnología de optimización robusta moderna para que sean solucionables y aplicables. Esto se debe a que, aunque la optimización robusta distribuida ha atraído la atención desde el problema del repartidor de periódicos de Bufanda en 1958, ha crecido rápidamente con el desarrollo de técnicas modernas de optimización robusta. La implementación de variables aleatorias en la optimización robusta distribuida se puede dividir aproximadamente en dos tipos, discreta y continua. En el caso continuo, hay tres formas de construir conjuntos difusos conocidos: ① Conjuntos difusos construidos a partir de información de momento: contiene todas las distribuciones que satisfacen las restricciones de momento (momentos de cada orden) de variables aleatorias; ② Conjuntos difusos basados ​​en métricas; : usando distancias probabilísticas Las funciones (como la métrica de Prohorov, la divergencia K-L, la métrica de Wasserstein, etc.) definen el conjunto difuso como una esfera en el espacio de distribución de probabilidad, donde el centro de la esfera es la distribución uniforme de datos históricos (distribución empírica), y luego supongamos que el radio del conjunto difuso contiene variables aleatorias desconocidas con distribución verdadera. Esto plantea una pregunta: ¿qué confianza tiene esta esfera de Wasserstein en que puede contener la distribución verdadera desconocida de la variable aleatoria? Si el nivel de confianza es muy bajo o no contiene la distribución verdadera desconocida, entonces el conjunto difuso es realmente difuso. Fournier N. y Guillin A. demostraron en su Sobre la tasa de convergencia en la distancia de Wasserstein de la medida empírica que la distribución verdadera desconocida puede incluirse con un nivel de confianza bajo este conjunto difuso. Además, Bertsimas E. demostró que bajo la métrica de Wasserstein de tipo 1, la distribución empírica converge débilmente con la distribución real.

? Los conjuntos difusos basados ​​en métricas son más populares ahora. Debido a que podemos ver por su estructura que la distribución real es probablemente la distribución empírica más una perturbación (aquí la llamamos radio del conjunto difuso), podemos captar el conservadurismo de la distribución desconocida controlando el radio de este conjunto difuso. , obviamente, si , el conjunto difuso se reduce a un singleton que contiene solo distribución empírica. En este caso, el problema de optimización robusta distribuida degenera en un problema de optimización estocástica SAA sin conjunto difuso. El tercer tipo de conjunto difuso es la región de confianza de la prueba de bondad de ajuste.