Aplicación de la tecnología de simulación de predicción en la optimización y el desarrollo de bases de datos espaciales: tomando como ejemplo el método de analogía del sistema experto para estudiar sistemas de desastres por deslizamientos de tierra

Este artículo está traducido de "Environmental Geology", 2002 (41): 765 ~ 775.

Alberto Pistorchi 1 Lucia Luzzi 2 Paola Napolitano 3

Zhu Rulie 4 Traducción y revisión

(165438 Studio Vialle G. Carducci Environment and Land, Cesena, Italia , 1547023; 2 RRS-CNR, Milán, Italia; 3ACTA Studio Association, Nápoles, Italia; Instituto de Métodos Geotécnicos de Ingeniería Hidrogeológica, Servicio Geológico de China, Baoding, Hebei, 071051)

Este estudio de caso se deriva de diferentes modelos de predicción probabilística [probabilidad de Bayes, lógica difusa, AND, OR, AND, salida, operación gris (no lineal) y factores inevitables] en Aplicación en la preparación de mapas de peligro de deslizamientos de tierra en las zonas montañosas de los Apeninos en el norte de Italia. Se utilizan siete capas de datos para probar áreas muy vulnerables: litología, distancia a las líneas estructurales geológicas, precipitaciones anuales, tipo de cobertura del suelo, pendiente y aspecto del terreno, distancia a las secciones de la red hidrológica. Este artículo presenta una discusión cuidadosa para evaluar la posibilidad de utilizar una base de datos tan fácil de usar, aplicable y efectiva en la planificación territorial comparando los diferentes resultados de las predicciones del indicador de tasa de predicción.

Función de soporte de palabras clave; simulación integrada; peligro de deslizamientos de tierra; base de datos espacial

1 Introducción y argumentos generales

En los últimos años, varias regiones y departamentos de planificación en Europa establecimiento Se han logrado grandes avances en las bases de datos espaciales. Sin embargo, muchas bases de datos todavía parecen ineficaces para respaldar las decisiones y los datos válidos que utilizan suelen ser puramente locales. En particular, los usuarios finales de los datos y los tomadores de decisiones casi no tienen idea acerca de las capacidades de simulación de los sistemas de información geográfica (SIG). Pocas agencias gubernamentales locales utilizan modelos predictivos como apoyo eficaz para su toma de decisiones diaria.

Los sistemas de información geográfica (SIG) aportan enormes capacidades para simulaciones detalladas de características espaciales, y muchos gobiernos locales ahora cuentan con tecnología SIG, lo que facilita su uso. ¿Es posible que esta importante información pueda servir como un enfoque más poderoso cuando la gente realiza observaciones habituales diarias de los fenómenos naturales?

La necesidad de participar en la planificación y el disfrute del objetivo ha llevado a los geólogos a notar lo importante que es la evaluación de los recursos identificados en la planificación y el apoyo a las decisiones. Algunos enfatizan el papel de los mapas de geociencia en los procesos de desarrollo de políticas y planificación del uso de la tierra. Según ellos, la función principal de los mapas de peligros es proporcionar a los tomadores de decisiones una perspectiva correcta sobre la definición de las regulaciones de desarrollo territorial.

Los modelos predictivos basados ​​en relaciones causales entre fenómenos naturales han sido ampliamente utilizados por hidrólogos, geocientíficos, analistas ambientales e ingenieros en la evaluación de riesgos naturales, la gestión de recursos naturales, la prevención de la contaminación y la mejora del suelo, y la evaluación del impacto ambiental y otros campos. Sin embargo, en el caso de desastres naturales como deslizamientos de tierra, parece bastante difícil establecer modelos confiables y aplicables a escala regional. Algunas personas han explorado las razones de esta dificultad y creen que está limitada principalmente por el modelo y los datos. A diferencia de otras perspectivas de gestión de riesgos, pocos directivos han explorado la aplicación de modelos cuantitativos.

Los métodos tradicionales de mapeo de peligros de deslizamientos de tierra se basan en la observación empírica y la identificación de geólogos y geomorfólogos (a través de la observación directa de las características del campo e informes de detección remota) para explicar las características de los deslizamientos de tierra. Si bien es muy posible identificar acontecimientos pasados, es prácticamente imposible respaldar cualquier predicción sin el juicio subjetivo y cualitativo de los expertos.

En los últimos años alguien ha propuesto un modelo geotectónico basado en la zonificación. Sin embargo, los métodos computacionales basados ​​en modelos geotectónicos, o incluso los métodos basados ​​en superposición exponencial, están limitados por la falta de datos o su baja calidad. Aunque su base natural es bastante sólida, a menudo no es fiable.

Los analistas, por otro lado, están interesados ​​en elecciones aleatorias posibles y limitadas al predecir modelos "objetivamente" replicables. Especialmente en las siguientes situaciones:

Cuando la planificación supone un conflicto social muy importante;

Cuando el fenómeno no es fácil de detectar;

Cuando la producción cubre el Toda el área de interés Cuando el mapeo detallado de un fenómeno es demasiado costoso, es necesario modelar "rangos de detección" de aquellas áreas que requieren una mayor comprensión.

En general, el proceso de simulación es similar a la toma de decisiones, y su trabajo es coordinado y básico.

Una de las razones por las que los mapas de desastres son válidos es que pueden reproducirse y replicarse de manera metodológica simulada a través de la identificación de expertos, ayudando a comprender las formaciones sociales, es decir, compartiendo criterios correctos de toma de decisiones entre gestores, miembros de la comunidad y científicos.

Este motivo ha llevado a investigar e investigar la posibilidad de utilizar probabilidades para la predicción. En estas exploraciones, hacemos pleno uso del conocimiento previo sobre eventos de deslizamientos de tierra, determinamos parámetros razonablemente y utilizamos métodos de superposición de mapas difusos o aleatorios para predicciones probabilísticas.

En los últimos años, se han realizado muchas exploraciones de este enfoque. Todos estos métodos son ampliamente utilizados en análisis de sensibilidad o estudios de desempeño de diferentes métodos en el mismo caso. La principal dificultad de estas aplicaciones actualmente es la comparación de diferentes mapas.

Para mejorar la función de dibujo, algunas personas han propuesto ideas para solucionar el problema. En el trabajo de estos autores se muestran categorías probabilísticas y difusas, que pueden ser demostradas por las funciones de detección más soportadas en la zona donde ocurre el fenómeno, como deslizamientos de tierra o depósitos minerales. Estas técnicas funcionan mediante especulación y verificación; para otros métodos, como las redes neuronales y las redes bayesianas, las propiedades generales son similares a las simulaciones matemáticas generales. Este método facilita encontrar un criterio único, llamado índice de predicción, que se utiliza principalmente para comparar diferentes mapas de predicción y puede considerarse una medida eficaz para que el modelo tenga un buen rendimiento. La explicación es la siguiente: El propósito de la función de soporte es producir mapas que contengan al menos el juicio científico basado en prescripciones de que las predicciones son más correctas, como se puede obtener de la experiencia de campo. Por supuesto, debido a la profundización gradual del conocimiento y la comprensión del fenómeno por parte de los expertos, es inevitable elegir múltiples simulaciones durante la evaluación. Al mismo tiempo, las probabilidades supuestas de las variables también pueden conducir a resultados erróneos debido a una coordinación inadecuada, así como a la falta o falta de fiabilidad de los datos. Sin embargo, la calibración y validación de modelos pueden respaldar la transparencia y la plausibilidad de las predicciones mediante el uso de métodos cuantitativos. El método de simulación de la función de soporte se ha aplicado recientemente en una serie de estudios de casos organizados específicamente para este propósito.

El propósito de este artículo es explorar la aplicabilidad de la simulación de funciones de soporte en la preparación de mapas de peligro para eventos de deslizamientos de tierra identificados por los estándares de bases de datos existentes y examinar cómo se puede mejorar este método en la aplicación de información de Se comparan las bases de datos existentes para que sean compatibles con otras técnicas (por ejemplo, mapeo de frecuencia de deslizamientos por unidad litológica o mapeo de inventario de deslizamientos puros).

Las simulaciones funcionales de apoyo también se pueden utilizar para construir el entorno conceptual de una base de datos: la recopilación de datos se basa estrictamente en una comprensión precisa de la mejor información disponible dentro de un marco teórico.

2 Antecedentes Teóricos

Muchos autores señalan que el uso de técnicas numéricas se asocia a aquellos acontecimientos destacables debido al valor local de los fenómenos relevantes. Los atributos se consideran factores probatorios de un evento, y se encuentra que el grado de "verosimilitud", "probabilidad" o "probabilidad" de un evento es, en cierto sentido, muy consistente con la presencia de cada atributo relevante. Supongamos que a es el dominio que se ha analizado y f es el fenómeno del evento que se ha examinado. Si la capa de datos r son datos válidos, entonces para mk en cada categoría de atributo, sea k=1,...r, puede definir una función de asignación para cada capa de datos:

Estudio y monitoreo de peligros geológicos Procedimientos de Métodos Tecnológicos

Asigna cada píxel de a a una capa en la secuencia de capas k; se puede determinar otra función para cada capa:

Investigación de Peligros Geológicos y Procedimientos de Tecnología de Monitoreo. Métodos

En este caso, el mapa tiene un intervalo [a, b] en el que los valores disminuyen en cada capa. Aquí, a y b dependen de otros supuestos hechos por el analista (que se señalarán más adelante). Este valor representa popularidad, es decir, la popularidad cuando se encuentra un fenómeno de atributo particular.

Después de definir los componentes de la función V y R como cada capa de datos, la función de soporte se puede expresar como:

Procedimientos de métodos tecnológicos de monitoreo y investigación de peligros geológicos

Los extremos del intervalo A y B deben ser determinados por el analista basándose en su interpretación de "fiabilidad". Si confiabilidad es lo mismo que "probabilidad", entonces A = 0 y B = 1. Si el rango de confiabilidad es igual al coeficiente de certeza, a = -1, b = 1. Si elige un método diferente, es posible que se requiera otro valor.

Los diferentes usos de la accesibilidad en este proyecto se explicarán en este informe.

Si la hipótesis de apoyo está relacionada con un fenómeno específico F, entonces establezca el tipo de atributo consistente con la posibilidad del evento en E1,...,E, y luego presione E1,...,E según el teorema de Bess.

La hipótesis de la condición independiente se puede escribir como:

Proceedings of Geological Hazard Investigation and Monitoring Technology Methods

En ppsI, I=1,...,n, que es la probabilidad prioritaria de la aparición de tipos de atributos inevitables. Esto se puede estimar como un porcentaje del área total en la que existe el tipo de propiedad. Pps1 a n se consideran la probabilidad a priori del tipo de propiedad; esta se puede expresar como un porcentaje del área total de cada tipo. PpaI, I=1,...,n es la posibilidad de observación de F para eventos del tipo de atributo Ei; esto se puede calcular según la fórmula. PPAI = 1-(1-(áreaI)-1)nb(i), donde áreaI es el área que satisface las condiciones de la serie I, y Nb(I) es el área de la serie I que también satisface las Condiciones F. PsF es la probabilidad de prioridad de que todos los F cubran toda el área, que se puede calcular como el porcentaje de todas las áreas calificadas de F.

Según esta regla, se puede compilar un mapa contando cada combinación de tipos de atributos que ocurren. Esto se puede hacer en la cuadrícula del SIG mediante el proceso de operación de intersección regular.

Si se utiliza el coeficiente de certeza, el algoritmo cambia en consecuencia de la siguiente manera:

(1) El coeficiente de certeza de la categoría de atributo se puede definir como:

Investigación de peligros geológicos y procedimientos de métodos de tecnología de monitoreo

Donde: I=1,...,n; es el número de categorías de datos del sujeto como factores de causa.

(2) Para ambos tipos de datos, el coeficiente de certeza se calcula de acuerdo con las siguientes reglas:

Cuando CF1 y CF2 son ambos signos positivos, entonces cf 1+2 = cf 1 +CF2 -(cf 1×CF2);

Si los signos de CF1 y CF2 son opuestos, entonces cf 1+2 = cf 1+CF2/{ 1-min(| cf 1 |, | CF2 |);

Si CF1 y CF2 son ambos signos negativos, entonces cf 1+2 = cf 1+CF2+(cf 1×CF2).

(3) El programa primero calcula CF1+2=CF12, luego CF13=CF12+3, y así sucesivamente. En consecuencia, se pueden obtener más mapas.

Como último método, la teoría de conjuntos difusos se utiliza para calcular la suma difusa, la salida difusa, la suma difusa, el OR difuso y la función no lineal difusa. Todas estas funciones operan bajo el supuesto de que el valor predicho de la probabilidad de existencia de F es igual a la clase dada EI (ppaI). Son:

OR difuso = min (PPAI), I = 1,…n;

OR difuso = Max (PPAI), I = 1,…n;

“Resultado difuso”=ⅱ(PPAI), i=1,…n;

“Suma difusa”= 1-ⅱ(1-PPAI), I=1,…n;

"Cálculo no lineal difuso" = (suma difusa) (resultado difuso) 1-γ, γ es un parámetro en el rango de 0:1.

De acuerdo con este método, se pueden determinar reglas para preparar mapas de cobertura para permitir a los analistas evaluar las diferencias en los datos de atributos para diferentes eventos que cubren toda el área de estudio y para ayudar a identificar aún más los sitios con más fenómenos. Estos cálculos representan el número de indicadores asociados a fenómenos considerados favorables. Cabe señalar que, además de lo descrito, se pueden utilizar diferentes técnicas dependiendo de los correspondientes componentes de evidencia de datos, funciones de credibilidad, probabilidades de cobertura de regresión lineal y muchas otras condiciones.

Cabe señalar que la probabilidad de prioridad psF debe calcularse estimando y midiendo coeficientes de certeza, pero no tiene sentido utilizarla para condiciones de contorno absolutas porque es casi imposible predecir la probabilidad de futuros deslizamientos de tierra. eventos. La causa de la predicción sólo puede confirmarse después de resumir todas las condiciones y obtener indicadores de respaldo, y no puede basarse en los resultados del cálculo numérico del desastre.

3 Aplicación

El área utilizada en este estudio de caso es la cuenca del río Savio en el norte de Italia (Figura 1). El estudio geológico regional es básicamente una cuenca sedimentaria compuesta de margas y areniscas. Con más detalle, se puede dividir en las siguientes tres capas geológicas principales:

Figura 1 Mapa de ubicación del área de estudio

(1) El Toltoniano N1 es sedimentario de Turbidita, fangoso y arenoso gris. Las rocas, los principales estratos geológicos, están expuestas a ambos lados de esta corriente principal.

(2) Está compuesto por capas de yeso microcristalino, arcilla arcillosa y arena, siendo la base una capa de piedra caliza azufrada.

(3) Está compuesto por roca arcillosa, arenisca y conglomerado, todos ellos conteniendo piedra caliza.

Además, en superficie quedan expuestas capas de margas arcillosas, capas de areniscas del Eoceno tardío, capas de arcillas del Plioceno y capas de arcillas de acumulación mixta.

La zona se encuentra cubierta por un gran número de deslizamientos de tierra, en su mayoría en forma de deslizamientos o flujos de escombros en diferentes unidades geológicas. Además, en algunas zonas se observan desprendimientos de rocas y movimientos de traslación de bloques, pero no se realizó ningún análisis. Los datos utilizados en el estudio fueron proporcionados por el Servicio Geológico Regional de Emilia-Romaña.

La base de datos utilizada en este caso de estudio consta de varias capas temáticas, que incluyen:

Estructuras lineales (fallas, sinclinales, anticlinales), escala 1:50000;

Unidades litológicas, escala 1:50000;

Cobertura terrestre obtenida a partir de imágenes de TM Landsat según el protocolo de directrices europeas de ingeniería de CORINE, escala 1:50000;

Modelo digital del terreno (DTM), interpolado con contornos curvos basados ​​en contornos obtenidos de la base de datos de mapas de las autoridades locales de la región de Emilia-Romaña, con un espaciado vertical de 50 metros;

Datos de medición de precipitaciones de 7 estaciones de medición de precipitaciones en la región;

Red de hidrología digital a escala 1:10000.

Cabe destacar que la resolución de la base de datos es muy pobre y, además, el tamaño de los datos también es muy desigual. Se ha argumentado que la información topográfica es significativamente inexacta, especialmente cuando se compara con el área promedio de deslizamientos de tierra, y por lo tanto se convierte en una representación cinemática de deslizamientos no reales. El propósito de este estudio es evaluar las capacidades predictivas de las bases de datos del mundo real (como se mencionó anteriormente). Hay que reconocer que no es importante producir un mapa de peligros confiable porque, aunque se ha agotado la mejor información, no es posible obtener más estudios ni datos. Como se destaca a continuación, los resultados de la evaluación proporcionarán más información para mejorar la base de datos que las predicciones de planificación territorial.

Los mapas de pendiente y aspecto se forman a partir del modelo digital del terreno DTM, y la pendiente se clasifica en intervalos numéricos fijos.

La distancia entre estructuras lineales se calcula para evaluar el posible impacto de la interferencia estructural en la estabilidad del talud. Calcule los resultados con imágenes rasterizadas y rasterización.

Se analizaron los datos de precipitaciones para encontrar la relación entre la altitud y las precipitaciones anuales. A partir de una ecuación de regresión de estas dos variables, se encuentra que y=0,7086x+708,19 (R2=0,66), X es la altitud (m) e Y es el promedio general de la serie de precipitaciones a largo plazo durante 30 años. (mm/a) . Posteriormente, esta ecuación se utilizó para crear gráficos de lluvia continua. Los resultados muestran claramente que el DTM no es sólo un indicador de las características de la lluvia sino también una indicación de la posible liberación de energía.

Cabe señalar que la correlación entre la altitud excesiva y las precipitaciones es bastante débil, y se necesitan más análisis para describir mejor la distribución real de las precipitaciones en la región. Sin embargo, según los datos disponibles, esto sólo puede significar que las tendencias generales en la distribución de las precipitaciones se han identificado adecuadamente.

Aunque se pueden distinguir características conceptuales diferenciales entre el fenómeno del deslizamiento de tierra y los factores requeridos, cuando otras características requeridas están presentes, es precisamente el "factor" que desencadena el deslizamiento de tierra. Se puede considerar que todas estas capas de datos tienen prioridad.

En cuanto a los datos sobre el potencial de deslizamientos de tierra, sólo se pueden obtener a través de informes de inestabilidad del terreno de las autoridades locales. Cabe destacar que esta base de datos es adecuada para construir análisis de series de SIG a largo plazo. Además, la densidad y distribución de sus datos son, estadísticamente hablando, una distribución típica y realista de un deslizamiento de tierra. Se puede demostrar que, de hecho, cuando el conjunto de datos cultivados para el procedimiento bayesiano no es lo suficientemente grande (y el arreglo no es lo suficientemente aleatorio), lo cual está relacionado con la adquisición de variables aleatorias de bloque, no tiene sentido medir Simulaciones probabilísticas integrales desde la perspectiva de la evaluación cuantitativa. En este caso, las probabilidades ppa1 y psf de condiciones preferenciales y favorables (grados especiales) para la ocurrencia de deslizamientos requieren del juicio de expertos. Además, es importante seleccionar el tipo y la edad de los deslizamientos de tierra para formar una serie de datos que pueda ocuparse de deslizamientos de tierra similares. Algunas personas han analizado los tipos de deslizamientos de tierra "flujo de escombros" y "flujo de escombros" y creen que generalmente ocurren en áreas locales. En este proyecto de investigación sólo se utilizó de manera efectiva al compilar algunos mapas.

El registro informado de inestabilidad territorial regional también tiene en cuenta desprendimientos de rocas, deslizamientos de bloques y áreas de inestabilidad potencial, pero estos no se incluyen en el análisis. La Figura 2 muestra la capa de datos utilizada para el análisis.

En principio, los datos de todos los temas considerados están potencialmente relacionados. Debido a que la información redundante puede dar lugar a resultados no válidos, se realizan algunos cálculos heurísticos.

Para el análisis, se llevó a cabo un experimento conjunto para siete condiciones temáticas (es decir, pluviómetro, petrología, cobertura del suelo, pendiente, orientación, distancia a la red hidrológica y distancia a estructuras lineales). Siete condiciones temáticas se clasificaron en leyendas independientes como criterio para la identificación de condiciones que promueven la actividad de deslizamientos de tierra en el mapa.

Para cada par de gráficos, se realiza un cálculo conjunto de cuatro indicadores:

índice x cuadrado (x2);

índice de Cramers;

Índice de Accidentes;

* * *Mismo puntaje de incertidumbre de la información.

Aquí, el primer índice se determina como:

Figura 2 Mapa temático de factores causantes previstos

Colección de métodos tecnológicos de investigación y monitoreo de peligros geológicos

Fórmula

Procedimientos de Métodos Técnicos de Investigación y Monitoreo de Peligros Geológicos

Y t = el número total de píxeles, Ti = el número de píxeles tipo I en el mapa 1, TJ = mapa 2 El número de píxeles de tipo J en . Los índices n y m son el número de categorías en el mapa 1 y el mapa 2 respectivamente.

El índice de Cramer (V) y el índice de accidentalidad (C) se determinan de la siguiente manera:

Recopilación de métodos técnicos de investigación y seguimiento de peligros geológicos

Los significados de los mismos símbolos son los mismos que Los mismos que antes, m toma el valor mínimo de (m-1, n-1), n ​​y m son el número de tipos de datos en cada una de las dos imágenes.

La misma puntuación de incertidumbre de la información del par cartográfico de * * * y B depende de:

Procedimientos de investigación de peligros geológicos y métodos tecnológicos de monitoreo

Entre. .. Medio

Procedimientos de métodos tecnológicos de monitoreo y investigación de peligros geológicos

n y m son el número de categorías en el mapa A y el mapa B respectivamente, y Pij son el número de píxeles y el número de categorías I y J respectivamente. La proporción del número total de píxeles en la intersección del mapa A y el mapa B. Pj es el número total de píxeles de clase J en la imagen A y Pi representa el número total de píxeles de clase I en la imagen B.

Los indicadores anteriores pueden determinar el grado de coordinación entre un par de mapas. El índice x cuadrado proporciona una medida absoluta de coordinación (ilimitada), pero es inútil por sí solo; v y C representan la escala estándar de precaución del área [0, 1]; cuanto más cerca de 1, más fuerte es la conexión entre los dos; dos gráficos. La combinación de estas tres métricas puede proporcionar un criterio de escala de conectividad integral y permitirnos comparar la conectividad de pares de imágenes desde diferentes perspectivas fuera de un conjunto de mapas. En general, se puede observar que estos tres indicadores presentan respuestas muy similares a lo esperado. También se puede utilizar la incertidumbre * * * y los registros de información para determinar el modelo de conectividad determinado por el indicador anterior, el cual se supone varía entre 0 (gráfico completamente independiente) y 1 (gráfico completamente conectado). La Tabla 1 muestra los índices calculados por mapa como se describe anteriormente.

Tabla 1 Indicadores de conectividad entre capas de datos

Aunque bajo condiciones estrictas, los indicadores calculados no se utilizan para determinar la condición bayesiana de independencia (más fuerte que los atributos no correlacionados), pero estas métricas relacionadas se infieren de todas las capas de datos puede ser independiente.

Como se señala en el análisis, cabe señalar que el deslizamiento muestra alguna conexión con la petrología (el deslizamiento ocurrió solo una vez y no tiene nada que ver con el tema de la petrología debido a la incertidumbre de la misma información ), con Existe una tendencia de relación espacial entre elevación/precipitación y cobertura de superficie.

Cabe señalar que, a partir de factores distintos de la causalidad, la petrología está relacionada con la altitud/lluvia y la cobertura del suelo, pero está débilmente relacionada con la pendiente y tiene poca o ninguna conexión con otros temas. Un DTM inadecuado previsto para el proyecto de investigación parece ser la principal causa de este fenómeno. Excepto por el vínculo débil entre pendiente y precipitación/elevación, se pueden ignorar otros vínculos.

Según el análisis de los estudios geológicos locales, parece que se ha llegado a la misma conclusión. Los factores litológicos sólo se utilizan para compilar mapas de peligro de deslizamientos de tierra, y la frecuencia de deslizamientos de cada unidad litológica se utiliza como índice de peligro de deslizamientos de tierra.

En cada operación, sólo la mitad de los deslizamientos de tierra conocidos (seleccionados mediante muestreo aleatorio) se utilizan para generar mapas de predicción, pero el resto debe tratarse como conjuntos de datos igualmente válidos. Como intento de predecir los peligros de deslizamientos de tierra, primero se utilizaron los posibles factores causantes, pero en el segundo experimento sólo se utilizaron los tres factores más relevantes, que se explicarán en una sección posterior.

4 Discusión de resultados

Como se describe a continuación, el cálculo de la función de soporte se realiza bajo diferentes supuestos de simulación. El poder predictivo de cada buen gráfico generado por el cálculo se prueba mediante el índice de predicción de la curva.

Esta curva se calibra y clasifica calibrando y clasificando el porcentaje acumulado del área de estudio, con la reducción de los valores de evaluación de soporte (siguiendo las reglas anteriores) como abscisa, y el porcentaje acumulado del área de deslizamiento como ordenada. Se dice que cuando el porcentaje de deslizamientos previsto es consistente con el 20% del máximo regional, es una buena evaluación de la capacidad predictiva del modelo. El concepto más amplio es que cuanto más regularmente se acerque la curva al eje vertical, más consistentes serán las predicciones. Por el contrario, si hay más curvas cerca de la línea recta de 45°, significa que los factores integrales hacen que la predicción esté cerca del rango de distribución aleatoria del valor de soporte, y esta predicción tiene poco valor útil. Entre estos factores causales, se reconoce que las redes hidrológicas desempeñan un papel menor porque los detalles mapeados para ellas son mucho más precisos que para otros factores. A primera vista, la incisión del río parece “ubicua”, lo que hace inconveniente relacionar la distribución de los deslizamientos con su distancia de la red hidrológica. Por tanto, los sistemas fluviales no se incluyen entre los factores causales.

En la Figura 3, las proporciones previstas para los seis factores causales considerados se muestran uno por uno. En este proyecto, las frecuencias condicionales ppaI, I = 1,...n (probabilidades condicionales de eventos de deslizamientos de tierra, dada la categoría I) estimadas por el pronosticador se aplican a cada categoría en cada pregunta.

Figura 3 Relación de predicción causal: utilizando la polilínea cerrada general de deslizamientos de tierra y la frecuencia condicional.

El primer paso es calcular los datos utilizados como evidencia de todas las polilíneas cerradas que muestran actividad de deslizamientos de tierra. Los deslizamientos de tierra se dividieron en dos grupos de muestreo aleatorio, uno para calibración y otro para validación. Los tres temas más relevantes (litología, cobertura del suelo y elevación/lluvia) se utilizaron en los cálculos y siguieron las métricas descritas anteriormente. La curva de relación prevista se muestra en la Figura 4.

Además, en el cálculo se utilizan los seis indicadores y los ratios previstos se muestran en la Figura 5.

Observamos que debido a que se traza todo el deslizamiento de tierra, puede contener cierto sesgo de precisión. El punto desencadenante de un deslizamiento de tierra es diferente del frente del deslizamiento debido a la colección de factores inductores. Por lo tanto, solo se utiliza para la predicción el punto más alto en cada polilínea cerrada de deslizamiento de tierra; considerando el principio cinemático del movimiento del material, el punto de activación debe estar en la posición más alta. Bajo este supuesto, las proporciones previstas calculadas a partir de los seis indicadores causales se muestran en la Figura 6.

Figura 4 Proporciones predichas por 7 pronosticadores - utilizando 3 indicadores causales

(litología, lluvia y cobertura del suelo) y toda la polilínea cerrada de deslizamientos

Figura 5 Proporciones predicho por 7 pronosticadores, utilizando los 6 indicadores de causa relevantes y toda la polilínea cerrada del deslizamiento de tierra.

Las figuras 7 y 8 muestran los ratios de pronóstico de 7 pronosticadores utilizando 3 y 6 indicadores causales respectivamente.

En términos de relevancia de los datos de entrada, muestra que el uso de la pendiente, la orientación y la distribución de la lluvia (es decir, MDT y lluvia más precisos, datos obtenidos de más pluviómetros de área) es más representativo y mejorará los resultados. . Una vez que haya nuevos datos disponibles, los analistas pueden reevaluar su impacto potencial en los pronósticos.

A partir de la comparación de los ratios pronosticados, se puede determinar que:

Cuando se utilizan seis indicadores causales en lugar de los tres indicadores más relevantes para los deslizamientos de tierra (litología, cobertura del suelo y precipitaciones) No parece haber una mejora significativa; las predicciones en ambos casos son muy similares, como el uso de un limpiador de poda sobre la población de especies, pero con más indicadores aplicados.

Se pueden demostrar efectos de remoción adicionales utilizando únicamente los puntos desencadenantes sin considerar el deslizamiento de tierra en su conjunto. Esto no conducirá a un deterioro de la capacidad predictiva general del mapa; sin embargo, debe tenerse en cuenta que una eliminación excesiva puede provocar una reducción de la fiabilidad del mapa o incluso su desaparición;

Figura 6 Ratios predichos utilizando únicamente indicadores causales de puntos gatillo.

Figura 7 Ratios de predicciones de puntos de activación realizadas por siete pronosticadores utilizando solo tres indicadores causales (litología, cobertura del suelo y precipitaciones).

Figura 8 Ratios de 7 predictores utilizando 6 indicadores causales correlacionados y puntos desencadenantes de deslizamientos de tierra.

La petrología, de todos modos, tiene claramente un mayor poder predictivo en el mapa de índice de predicción de los indicadores de génesis (por lo que es comprensible por qué el Servicio Geológico local eligió esta capa temática solo para el mapeo de peligros), por supuesto, también incluye la tierra. cobertura y precipitaciones. Sin embargo, no todos los demás temas son relevantes para la previsión.

En este estudio de caso, los pronósticos utilizados por los siete pronosticadores fueron extremadamente similares excepto en el caso de la probabilidad bayesiana. Sin embargo, la distribución efectiva de datos es muy delicada. Cuando se toma como evidencia todo el deslizamiento de tierra, las predicciones son casi aleatorias en algunas situaciones ambiguas o mixtas.

En general, el coeficiente de certeza parece ser la herramienta más útil para los pronosticadores que trabajan en este caso específico, aunque en cada caso hay pronosticadores que hacen la misma predicción utilizando curvas de razón de pronóstico y gráficos de pronóstico.

La Figura 9 muestra que, en este caso, muestra además las siete predicciones cuando los tres factores se utilizan como evidencia corporal junto con el punto gatillo * * *. Esta es una de las situaciones discutidas en este estudio de caso, que tiene un buen índice de predicción y puede conducir a las mejores ideas básicas sobre la zonificación de peligros de deslizamientos de tierra, mostrando el estado actual del conocimiento.

La Figura 9 es un mapa de pronóstico basado en 7 tipos de pronósticos.

5 Conclusión

El método analizado en este artículo consiste en utilizar modelos numéricos (menos juicio subjetivo de expertos) para clasificar las calidades del terreno según los peligros de deslizamientos de tierra. Esto parece indicar que cuando se pueden extraer predicciones objetivas de bases de datos espaciales, se puede decir que sus temas tienen algún valor agregado "sistemático", es decir, usar todos los datos juntos es mejor que usar solo ciertos temas.

Se debe enfatizar que este enfoque comienza con el desarrollo de las bases de datos existentes, manteniendo la comprensión de cada tema abierta y completa. Entre las diversas pruebas de los mejores pronosticadores (coeficientes de certeza, probabilidad bayesiana, operaciones difusas y otras técnicas posibles), solo pueden tomar decisiones basadas en el poder predictivo de las diversas técnicas de prueba y, al final, tienen precaución. Las curvas de proporción de pronóstico son utilizado para la previsión.

Estos análisis llevaron a la conclusión de que las bases de datos existentes son imperfectas y, por supuesto, no es apropiado generar simulaciones de pronóstico con referencia únicamente a los datos del terreno. Con suerte, en el futuro invertiremos en más estudios y captura de datos para determinar mejores modelos digitales del terreno. Siempre que se produce un mapa de factores causales mejorado, o se confirma que un nuevo factor causal es relevante para el fenómeno, se pueden recalcular los cálculos y se puede generar un nuevo mapa predictivo. La validez del índice de predicción se puede comparar con las mejoras que realmente funcionan y también se puede utilizar para señalar el camino a seguir en la recopilación de datos y el monitoreo geotécnico. Por ejemplo, en este estudio de caso, la litología, la cobertura del suelo y las precipitaciones (descritas por elevación, como se mencionó anteriormente) son claramente los factores más relevantes para los deslizamientos de tierra, por lo que el análisis hasta ahora se ha dedicado principalmente a la investigación y mapeo de estos factores. Además, es necesario preparar y utilizar MDT con capacidades de interpretación adecuadas para examinar la influencia de los datos del terreno con más detalle. El análisis también pone gran énfasis en otras condiciones del tema, como la altura del cuerpo de agua, que puede llegar a ser muy importante cuando se utiliza para mapear peligros.