El enfoque de este artículo: ampliar la captura de información estructural en el modelo de agrupamiento profundo de vista única de DEC y utilizar la estructura GCN para capturarla. En comparación con la estructura de GAE, la parte sobre GCN no utiliza la reconstrucción de la matriz de adyacencia para la supervisión, sino que utiliza la información de distribución objetivo agrupada para construir otra distribución estructural para cuantificar la supervisión de la información estructural.
Leyenda: y son los datos de entrada y los datos reconstruidos respectivamente. Y son las salidas de los módulos DNN y GCN de primera capa respectivamente. Diferentes colores representan diferentes actuaciones aprendidas de DNN. La línea continua azul representa la distribución objetivo calculada a partir de la distribución y las dos líneas discontinuas rojas representan el mecanismo de autocontrol dual. La distribución de destino guía las actualizaciones del módulo DNN y del módulo GCN simultáneamente.
Resumen: Primero, cree un gráfico KNN basado en los datos originales. Luego, los datos originales y el mapa KNN se ingresan en AE y GCN respectivamente. Los autores conectan cada capa de AE con la capa GCN correspondiente para que las representaciones específicas de AE puedan integrarse en representaciones con reconocimiento de estructura a través de operadores transitivos. Al mismo tiempo, se propone un mecanismo dual de autocontrol para monitorear el proceso de capacitación de AE y GCN.
b: En términos generales, el número de capas mencionadas al introducir la estructura AE se refiere al número de capas desde la primera capa oculta hasta la capa de codificación, además de la capa de entrada y la capa de reconstrucción.
El módulo DNN adopta una estructura AE básica jerárquica, que no se describirá aquí.
Paso-: Obtener el resultado de salida de la operación de convolución de la primera capa.
La operación de convolución en los resultados de cada capa es consistente con la red neuronal gráfica, pero en la estructura de salida, el autor conecta la matriz de expresión de la capa correspondiente del módulo DNN (se propagará a través del matriz de adyacencia normalizada), y elija el factor de equilibrio para combinar la información de DNN y GCN.
Paso-: Pero para la salida de la primera capa, solo se conserva la salida original.
Paso-: En la construcción de la distribución de información estructurada, se utiliza una capa softmax multiclase para obtenerla.
Los resultados muestran que la muestra probabilística pertenece al centro del conglomerado, lo que podemos considerar como una distribución de probabilidad.
Ventajas de la función objetivo:
(1) En comparación con la función de pérdida de clasificación múltiple tradicional, la divergencia KL actualiza todo el modelo (etiqueta suave) de una manera más "suave". , evitando que la representación de los datos se vea gravemente perturbada;
(2) Los módulos GCN y DNN están unificados en el mismo objetivo de optimización, lo que hace que sus resultados sean consistentes durante el proceso de capacitación.
Dado que el objetivo del módulo DNN y el módulo GCN es aproximarse a la distribución objetivo y existe una fuerte conexión entre los dos módulos, se denomina mecanismo de autocontrol dual.
En este artículo se utiliza la expresión de la emisión acústica de GCN en diferentes capas para añadir estructura.
Los resultados experimentales verifican la efectividad del modelo y brindan soporte teórico. Todo el experimento está completo. Se da una nueva idea para la estructura de la relación entre muestras y se lleva a cabo una exploración más profunda de la estructura general de la muestra.
Aún no he leído la sección de soporte teórico, continuará. .