Lectura del documento del sistema de recomendación (35) - Amazon: algoritmo de recuperación de productos de diversidad complementaria

Tesis:

Título de tesis: P-Companion: ¿Un marco de principios para la diversidad? ¿Productos complementarios? Recomendado》

Dirección: https://dl.ACM.org/doi/pdf/10.1145/3340531.3412732.

En el artículo anterior ya mencioné la relación entre sustituibilidad y complementariedad de bienes. Este artículo de Amazon se centra en cómo aprovechar las relaciones complementarias entre productos manteniendo la diversidad.

La recomendación de productos complementarios (CPR) tiene como objetivo proporcionar recomendaciones de productos que a menudo se compran juntos para satisfacer las necesidades de las personas y es una parte importante de los servicios de comercio electrónico. Sin embargo, los métodos existentes están lejos de ser óptimos. Para un producto, cómo recomendar diferentes tipos de productos complementarios es una cuestión clave que queremos resolver en este trabajo.

Como mencionamos en nuestro anterior artículo 34, creemos que * * * los productos comprados y son complementarios, pero el artículo aquí propone que los productos cocomprados no son necesariamente complementarios. Tomemos un ejemplo sencillo. Si un usuario compra dos barras de labios de diferentes marcas, por supuesto las dos barras de labios no son productos complementarios, pero se puede decir que son productos similares. Si el usuario compra un teléfono móvil y una funda para teléfono móvil, entonces la funda para teléfono móvil es un producto de soporte para el teléfono móvil. Lo contrario no es cierto, porque el usuario no podrá encontrar un teléfono móvil que coincida porque compró el teléfono móvil. primero la funda del teléfono móvil.

Más específicamente, considere el siguiente ejemplo:

En la Figura 1, mostramos un ejemplo comparativo que ilustra los métodos utilizados para generar recomendaciones de "comprar juntos" de alta calidad. Tomando las raquetas de tenis como "producto de consulta", comparamos tres conjuntos de listas recomendadas. El Listado 1 contiene otras tres raquetas de tenis similares. El Listado 2 contiene tres pelotas de tenis y el Listado 3 contiene una pelota de tenis, una funda para raqueta y una diadema. Por supuesto, creemos que la Lista 1 generalmente está más orientada a productos sustitutos y es menos probable que se compren juntos en la Lista 1. Aunque tanto la Lista 2 como la Lista 3 pueden considerarse recomendaciones razonables, creemos que la Lista 3 es la mejor opción porque propone tres tipos diferentes de productos * * * para satisfacer mejor las necesidades de pelotas de tenis de los clientes. Este ejemplo muestra que la solución ideal recomendada para la producción complementaria debe considerar tanto la relevancia como la diversidad para satisfacer las necesidades del cliente.

En trabajos anteriores, estaríamos más inclinados a modelar la similitud entre elementos, como el filtrado colaborativo o algunos métodos item2vec, pero modelar la similitud entre elementos ha encontrado los siguientes desafíos:

C1: La relación complementaria es asimétrica y las recomendaciones complementarias no se basan únicamente en medidas de similitud. Por ejemplo, una raqueta de tenis y una diadema no son en absoluto similares en características de personalidad o imagen. Y la tarjeta SD puede ser un producto complementario a la cámara, y no al revés. Estos hechos descartan la mayoría de los enfoques basados ​​en similitudes y requieren el uso de diferentes mecanismos para modelar relaciones complementarias. ?

C2: Las recomendaciones complementarias deben considerar la diversidad. Estas recomendaciones suelen ser un conjunto de productos de diferentes categorías y funciones que satisfacen las necesidades de los clientes. Como se muestra en la Figura 1, una lista de recomendaciones diversificada que contenga tres categorías de productos relacionados con el tenis es mejor que una lista de recomendaciones con una sola categoría.

C3: Las recomendaciones suplementarias se frustran en proyectos de arranque en frío. En otras palabras, en el campo del comercio electrónico, la recomendación de similitud es difícil de resolver el problema del arranque en frío.

Con estos desafíos, veamos cómo Amazon resuelve estos problemas.

I: Conjunto de elementos

B ∈ I × I, que representa tres relaciones entre pares de elementos recopilados a partir del comportamiento histórico de los clientes (es decir, * * * comprado, * * *ha explorado y Explorar para comprar).

c? Representa las características de la categoría del producto I (por ejemplo, categoría de producto, tipo, título y descripción)

? , representa el tipo de producto, es decir, representa las características funcionales del producto en sí.

El problema de recomendar productos complementarios se expresa de la siguiente manera:

Dadas las características de la categoría de producto C (incluido el título, el tipo de producto, etc.).

) y los datos de comportamiento del usuario B como entrada, queremos aprender un modelo de recomendación M, que pueda usarse para consultar el elemento I, la categoría del elemento y la diversidad. Bajo las condiciones, ¿m predecirá primero? ¿Diferentes tipos de elementos complementarios {} y luego generados en función de cada tipo de elemento complementario previsto? Conjunto de productos {0}.

En la comparación de diferentes combinaciones de * * * con navegación, * * con compra y * * compra después de navegar, observamos que solo * * * con registros de compra incluidos los pares de productos tienen la puntuación más alta en MTurk , en comparación con * * * El par de señales sin procesar con compras es 30 mayor, por lo que Amazon utiliza estos datos para entrenamiento.

Echemos un vistazo a las definiciones de algunos símbolos en el modelo:

Diagrama del modelo:

Aquí se utiliza el método GAT para detalles específicos. consulte GAT. Este documento no se presentará en detalle aquí.

Entre ellos, FFN es una red neuronal feedforward, Z es la puntuación obtenida por la atención, Ni es el nodo vecino, que es la muestra positiva y la muestra negativa durante el entrenamiento, e Y se define como:

Entre ellos, la muestra positiva y se define como:

La muestra negativa y se define como:

El método de cálculo es:

f(.) es una función que mide el aprendizaje. Es distinguir la distancia de mí, no el borde. El propósito de la optimización anterior es forzar que la distancia entre y sea menor que ? Al mismo tiempo, sea la distancia entre y al menos ? ?.

La función de pérdida es en realidad la pérdida de bisagra.

Aquí es donde hablamos de cómo resolver el problema de la diversidad, principalmente en función del elemento de consulta y el tipo de este elemento, generando múltiples tipos relacionados con este elemento.

Dado el elemento de consulta I y el elemento candidato j, tenemos el par de tipos {} entre ellos y la etiqueta. Este artículo utiliza el modelo codificador-decodificador para modelar:

Primero asigne la categoría W del elemento I y luego aprenda a través del aprendizaje métrico.

Para otras definiciones de símbolos, consulte la tabla anterior y no se repetirá aquí. El objetivo principal de esta optimización es hacer que las incrustaciones de categorías entre artículos comprados conjuntamente sean más similares.

Esta parte es la parte más crítica de todo el documento. No solo define cómo recomendar productos complementarios a través del aprendizaje de medición, sino que también define el aprendizaje en diversas condiciones.

Primero, seleccionamos varias incrustaciones de categorías que son similares a las incrustaciones de categorías de los elementos de consulta y luego asignamos las incrustaciones de los elementos mismos a las categorías correspondientes.

El método de aprendizaje de métricas aquí es el mismo que antes, excepto que lo que queremos optimizar aquí es la métrica de la distancia entre la incrustación de nuestro elemento mapeado y el elemento candidato j.

Esta parte pondera principalmente las dos funciones de optimización métricas en 3.2 y 3.3. El coeficiente de ponderación es

Esta parte habla principalmente sobre la configuración de varios superparámetros, como L = 64, d = 128, etc.

Y, necesitamos saber cómo predecir después del aprendizaje end-2-end del modelo, es decir, cómo generar candidatos, lo cual ya hemos dicho al definir el problema. Desde un punto de vista intuitivo, consiste en dividir al Sr. Wang en las k categorías más cercanas y luego utilizar el método en 3.3 para generar candidatos en cada categoría. Específicamente:

Ya lo tenemos.

Puedes recomendarlo y encontrar lo más parecido a este vector.

Cada categoría se trata de la misma manera para que podamos generar una lista diversa de recomendaciones en múltiples categorías.