Actualmente, las Redes Neuronales Recurrentes (RNN) son muy utilizadas en la traducción automática. Este modelo es bueno para modelar el lenguaje natural, convirtiendo oraciones de longitud arbitraria en vectores de punto flotante de dimensiones específicas, mientras "recuerda" las palabras más importantes de la oración para que la "memoria" pueda conservarse durante mucho tiempo. Este modelo resuelve el problema de vectorización de oraciones en lenguaje natural y es de gran importancia para el uso de computadoras para procesar lenguajes naturales. Permite a las computadoras procesar el lenguaje ya no en el nivel de coincidencia de texto simple, sino en el nivel de comprensión semántica.
Instituciones y empresas de investigación representativas, incluido el Laboratorio de Aprendizaje Automático de la Universidad de Montreal en Canadá, han lanzado Marmot, un sistema de traducción automática de código abierto basado en redes neuronales. En 2015, Baidu lanzó un sistema de traducción en línea que integra estadísticas y métodos de aprendizaje profundo, y Google también ha realizado una investigación en profundidad en esta área.