Pensamientos después de leer los dos primeros capítulos de "Intelligent Era"

Accidentalmente obtuve el libro "Intelligent Era" escrito por Wu Jun. Después de leer los dos primeros capítulos del libro, sentí que me había beneficiado mucho. Especialmente al leer el Capítulo 2 "Big Data e inteligencia artificial", tengo una comprensión general de la historia de la inteligencia artificial y ahora expresaré mis propios sentimientos al respecto.

1. Descripción general de los "datos"

Aunque no conozco la situación específica de la inteligencia artificial, en general sé que la inteligencia artificial en esta etapa debe basarse en big data. El capítulo 1 de la "Era inteligente" presenta en detalle cuestiones relacionadas con los datos.

En primer lugar, "Antes de la llegada de las computadoras, el contenido textual de los libros en general no se consideraba datos". Hoy en día, no se trata solo del contenido textual de los libros, sino también de nuestras actividades, nuestros comportamientos diarios. , preferencias, etc. se han considerado como algún tipo de datos.

En los primeros días de la sociedad humana, observábamos fenómenos, resumíamos datos, extraíamos información útil de los datos y formábamos conocimiento (el conocimiento es sistemático) basado en la información para guiar nuestro comportamiento. Nuestro proceso estándar para el uso de datos es el siguiente:

En el pasado, no se valoraba el papel de los datos. "Hay dos razones. En primer lugar, debido a la falta de datos en el pasado, la acumulación de grandes cantidades de datos lleva demasiado tiempo, por lo que el efecto no es evidente en poco tiempo. En segundo lugar, la conexión entre los datos y el La información que desea obtener suele ser indirecta y solo puede reflejarse a través de la correlación entre diferentes datos. "Esta correlación debe explorarse. El profesor Wu Jun citó la correlación entre las fotografías de Wang Jinxi y las ofertas japonesas, la correlación entre el volumen de búsqueda de un determinado programa por parte de los usuarios de Google y las calificaciones del programa, y ​​la correlación entre las tendencias de búsqueda y la epidemia de influenza para ilustrar la importancia de la correlación.

En cuanto a la primera razón, "Antes de la llegada de Internet, no era fácil obtener una gran cantidad de datos representativos. Por supuesto, no hay problema en hacer algunas estadísticas dentro del rango de error permitido. , pero sólo en casos raros los problemas complejos pueden resolverse únicamente con datos. Por lo tanto, antes de la década de 1990, la sociedad en su conjunto no otorgaba mucha importancia a los datos. Sistemas apropiados. Modelos matemáticos para explotar mejor las correlaciones en los datos. "Para construir un modelo matemático, se deben resolver dos problemas, uno es qué tipo de modelo usar y el otro es cuáles son los parámetros del modelo". Al principio, será difícil retocarlo más adelante. Por lo tanto, en el pasado, ya fuera teoría o ingeniería, todos se concentraban en encontrar un modelo”.

“Con el modelo, el segundo paso es. Encuentre los parámetros del modelo para que el modelo pueda al menos ser consistente con los datos observados anteriormente. En el pasado, este aspecto recibió mucha menos atención que encontrar un modelo, pero hoy tiene una palabra más moderna y profunda: máquina. aprendizaje "(Cheng Publishing House: ingresar datos y ajustar constantemente el modelo es similar al aprendizaje automático actual. Método)

"Volviendo al modelo matemático, de hecho, siempre que haya suficientes datos, varios. Se pueden utilizar modelos simples para reemplazar un modelo complejo. Este método se denomina método basado en datos porque primero se utiliza una gran cantidad de datos en lugar de un modelo preestablecido y luego se utilizan muchos modelos simples para ajustar los datos. este método basado en datos encuentra un conjunto de modelos; en el caso de datos insuficientes, puede haber ciertas desviaciones del modelo real, pero dentro del rango de error permitido, los resultados son equivalentes al modelo exacto y están matemáticamente justificados. En principio, esto es similar a la ley de los grandes números de Chebyshev mencionada anteriormente.

Por supuesto, para que los métodos basados ​​en datos sean exitosos, además de la gran cantidad de datos, también existe un requisito previo. La muestra debe ser muy representativa. Esta es una frase de cualquier libro de texto de estadística, pero es difícil de lograr en la vida real ..."

En segundo lugar, big data e inteligencia artificial

. "Después de 2000, debido a la aparición de Internet, especialmente la posterior Internet móvil, la cantidad de datos no solo aumentó drásticamente, sino que también comenzó a interrelacionarse, surgió el concepto de big data. Después de 2000, debido a la aparición de Internet Especialmente en la posterior Internet móvil, los científicos e ingenieros descubrieron que el uso de métodos de big data puede dar un salto en el nivel de inteligencia de las computadoras, de modo que las computadoras puedan alcanzar una inteligencia superior a la humana en muchos campos.

Se puede decir que estamos viviendo una revolución tecnológica provocada por el big data, y su característica más típica es la mejora de la inteligencia informática, por lo que bien podríamos llamar a esta revolución revolución inteligente. Cuando el nivel de inteligencia de las computadoras alcance o incluso supere al de los humanos, nuestra sociedad experimentará cambios trascendentales. Esto es lo aterrador de los big data.

Entonces, ¿por qué los big data finalmente conducen a tales resultados? ¿Cuál es la relación entre los big data y la inteligencia artificial? Para dejar esto claro, primero debemos explicar qué es la inteligencia artificial. "

"En 1946 nació la primera computadora electrónica ENIAC, lo que hizo que la humanidad se replanteara la cuestión de si las máquinas pueden ser inteligentes. ”

“La verdadera definición científica de lo que es la inteligencia artificial la da el Dr. Alan Turing, el fundador de las computadoras electrónicas. En 1950, Turing publicó un artículo titulado "Computing Machines and Intelligence" en la revista Mind. En el artículo, Turing no habló de cómo las computadoras adquieren inteligencia, ni propuso ningún método inteligente para resolver problemas complejos. Sólo propuso un método para juzgar si una máquina es inteligente. "Deje que un árbitro se siente frente a la tumba y se comunique con el" humano "detrás de escena. Hay una máquina y una persona detrás de escena. Si el árbitro no puede determinar si la persona que se comunica con él es un humano o una máquina, entonces significa que la máquina tiene la misma inteligencia que un humano.

"Este método fue llamado prueba de Turing por las generaciones posteriores. Los científicos informáticos creen que si una computadora logra una de las siguientes cosas, se puede considerar que tiene el tipo de inteligencia que dijo Turing:

1. Reconocimiento de voz

2. /p>

Resumen o escritura automática de texto

4. Vence al campeón de ajedrez humano

Responde preguntas automáticamente

Hoy en día, las computadoras han hecho lo anterior. y, a veces, tareas sobrecumplidas. Por ejemplo, en ajedrez, no solo derrotó al campeón mundial de ajedrez, sino que también derrotó al campeón mundial de Go, y este último era de 6 a 8 órdenes de magnitud más difícil que el primero. Por supuesto, no ha sido fácil para la humanidad llegar a este punto, pero ha sido necesario más de diez años de desvíos. "

The Bird School: Inteligencia artificial 1.0

"Según los registros, en el verano de 1956, Shannon y un grupo de jóvenes académicos celebraron un seminario de intercambio de ideas en Dartmouth College. .....En realidad este es un taller de lluvia de ideas. Estos 10 jóvenes académicos discutieron temas que aún no se habían resuelto o ni siquiera estudiado en informática en ese momento, incluida la inteligencia artificial, el procesamiento del lenguaje natural y las redes neuronales. En esta reunión se propuso el término inteligencia artificial. ”

“Estrictamente hablando, el término inteligencia artificial tiene hoy dos definiciones. El primero se refiere a la inteligencia artificial, que es cualquier método que permita a una computadora pasar la prueba de Turing, incluidos los métodos basados ​​en datos de los que hablaremos con frecuencia en este libro. El segundo es un concepto en un sentido estricto, es decir, el método específico de estudiar la inteligencia de las máquinas en las décadas de 1950 y 1960. Hasta el día de hoy, casi todos los libros de texto con la palabra "inteligencia artificial" en el título (incluido Artificial Intelligence: A Modern Approach de Stuart Russell y Norweig, uno de los libros de texto más vendidos del mundo), todavía presentan principalmente aquellos "buenos vieja inteligencia artificial".

De moda). Más tarde, para trazar una línea clara entre ellos y los métodos tradicionales, los académicos que utilizaron otros métodos para generar inteligencia artificial enfatizaron que no estaban utilizando inteligencia artificial. Por lo tanto, la comunidad académica divide la inteligencia artificial en métodos tradicionales de inteligencia artificial y otros métodos modernos (como el basado en datos, el descubrimiento de conocimiento o el aprendizaje automático). Por supuesto, cuando personas ajenas al campo de la informática hablan de inteligencia artificial, a menudo se refieren a cualquier inteligencia artificial y no se limitan a los métodos tradicionales. Por lo tanto, para facilitar la distinción, utilizamos la inteligencia artificial para expresar el concepto amplio tanto como sea posible en este libro. Cuando se expresa en términos de inteligencia artificial, generalmente se refiere a los métodos tradicionales de inteligencia artificial, e incluso a veces enfatizamos la inteligencia artificial 1.0.

¿Cuáles son entonces los métodos tradicionales de inteligencia artificial? En pocas palabras, primero se trata de comprender cómo los humanos generan inteligencia y luego dejar que la computadora haga lo que los humanos piensan. Hoy en día, casi todos los científicos no insisten en que “las máquinas deberían pensar como los humanos para adquirir inteligencia”, pero muchos profanos todavía imaginan que “las máquinas piensan como nosotros” cuando hablan de inteligencia artificial, lo que les entusiasma y les preocupa.

De hecho, cuando volvemos al origen de la descripción que hace el Dr. Turing de la inteligencia artificial, podemos encontrar que lo más importante de la inteligencia artificial es que puede resolver problemas que el cerebro humano puede resolver, no si necesita adoptar las mismos métodos que los humanos.

¿Por qué las ideas de los primeros científicos eran tan ingenuas como las de los profanos de hoy? La razón es sencilla, porque pensar según nuestra intuición es la forma más sencilla. En la historia de la invención humana, los primeros intentos en muchos campos consistieron en imitar el comportamiento humano o animal. Por ejemplo, los humanos han soñado con volar hace miles de años, por eso comenzaron a imitar a las aves. Hay registros similares en Oriente y Occidente, donde se ataban plumas de pájaros a los brazos de las personas y éstas saltaban. Por supuesto, los resultados del experimento son imaginables. Posteriormente, a esta metodología se le llamó la “escuela de vuelo de pájaros”, que consiste en construir aviones imitando a los pájaros observando cómo vuelan los pájaros sin entender la aerodinámica. De hecho, sabemos que los hermanos Wright se basaron en la aerodinámica más que en la biónica para inventar el avión. Aquí no debemos reírnos intuitivamente de las ideas ingenuas de nuestros predecesores. Esta es una ley universal del entendimiento humano.

Cuando se propuso por primera vez la inteligencia artificial, este tema de investigación era muy popular en todo el mundo. Todo el mundo parecía pensar que las computadoras no tardarían en ser más inteligentes que los humanos. Desafortunadamente, después de más de diez años de investigación, los científicos han descubierto que la inteligencia artificial no puede resolver ningún problema práctico excepto fabricar algunos "juguetes" simples, como dejar que los robots recojan plátanos como monos. A finales de la década de 1960, otras ramas de la informática se estaban desarrollando muy rápidamente, pero la investigación sobre la inteligencia artificial no podía continuar. Por ello, la comunidad informática estadounidense comenzó a reflexionar sobre el desarrollo de la inteligencia artificial. Aunque algunas personas piensan que el nivel de inteligencia de las máquinas es limitado porque no son lo suficientemente rápidas y su capacidad no es lo suficientemente grande, también hay algunas personas conocedoras que creen que los científicos han tomado el camino equivocado, si toman ese camino, las computadoras lo harán. No podremos resolver problemas de inteligencia por muy rápidos que sean. "

Minsky citó un ejemplo utilizado por Bashir en el procesamiento de información semántica: el bolígrafo está.

"In the Box" y "The Box is in the Pen" ilustran las limitaciones de la tecnología artificial actual. inteligencia

“Estas dos oraciones obtendrán el mismo árbol de análisis sintáctico, y es imposible juzgar qué pluma de oración debe usarse como valla y qué oración basándose en las dos oraciones mismas o incluso en el artículo completo. . significa bolígrafo. De hecho, la comprensión de las personas de estas dos oraciones no proviene del análisis gramatical y la semántica en sí, sino de su sentido común o conocimiento del mundo, que no puede resolverse mediante métodos tradicionales de inteligencia artificial. Por lo tanto, Minsky llegó a su conclusión: Los métodos "actuales" (refiriéndose a 1968) no pueden permitir que las computadoras posean verdaderamente una inteligencia similar a la humana. Debido a la reputación de Minsky en informática, su artículo llevó al gobierno de Estados Unidos a recortar la financiación de casi todas las investigaciones sobre inteligencia artificial. En los siguientes 20 años aproximadamente, la investigación sobre inteligencia artificial en los círculos académicos de todo el mundo estaba en su punto más bajo. ”

Otra forma: estadísticas

“En la década de 1970, los humanos comenzaron a probar otro camino de desarrollo de la inteligencia artificial, es decir, utilizando métodos de supercomputación basados ​​en datos. Este esfuerzo comenzó en. industria y no en las universidades.

En ese momento, IBM se encontraba en una situación desesperada en las computadoras del mundo e incluso en toda la industria de TI. ..... En este momento, IBM ya no puede considerar cómo ocupar una mayor participación de mercado, sino cómo hacer que las computadoras sean más inteligentes.

En 1972, el profesor de la Universidad de Cornell Fred Jelinek (1932-2010) fue a IBM para un año sabático académico. En ese momento, IBM quería desarrollar una "computadora inteligente" y Jarinick era "temporalmente" responsable de este proyecto. En cuanto a qué es una computadora inteligente, todos sabían en ese momento que podía comprender las palabras de las personas, traducir un idioma a otro o ganar el campeonato mundial de ajedrez. Basándose en su propia experiencia y en las condiciones de IBM, Jarinik eligió la primera tarea, que fue el reconocimiento automático por computadora de voces humanas. "

Jarinik cree que el reconocimiento de voz no es un problema de inteligencia, sino un problema de comunicación, es decir, el habla humana es un proceso de codificación cerebral. Una vez completada la codificación, se transmite a los oídos del oyente y la aceptación y comprensión del oyente es un proceso de decodificación, y los problemas de reconocimiento de voz también se pueden manejar de esta manera.

Él "utilizó varias tecnologías de comunicación digital maduras en ese momento para lograr el reconocimiento de voz, abandonando por completo el método de inteligencia artificial (refiriéndose al método tradicional", mientras estudiaban el reconocimiento de voz, Jarinik y sus colegas crearon sin darse cuenta un método para resolver problemas inteligentes utilizando métodos estadísticos. Debido a que este método requiere una gran cantidad de datos, la mayor ventaja de este método es que a medida que los datos se acumulan, el sistema mejorará cada vez más en comparación con los métodos anteriores de inteligencia artificial, y es difícil beneficiarse de las mejoras en los datos".

"Después del reconocimiento de voz, los científicos europeos y estadounidenses comenzaron a considerar si los métodos basados ​​en datos se pueden utilizar para resolver otros problemas de inteligencia. Su colega Peter Brown aplicó este enfoque basado en datos a la traducción automática en los años 80. Sin embargo, , los resultados iniciales de la traducción fueron insatisfactorios debido a la falta de datos. Especialmente los primeros estudiosos que trabajaron en esta área creyeron que no era suficiente resolver problemas inteligentes como la traducción automática a través de estadísticas basadas en datos. En la década de 1990, hubo un debate en el campo de la informática sobre si los métodos basados ​​​​en datos deberían usarse en varios campos. ¿Es el reconocimiento de voz solo un caso especial? En pocas palabras, los académicos que originalmente se dedicaban al reconocimiento de voz, la traducción automática y el reconocimiento de imágenes y la comprensión del lenguaje natural se dividen en dos grupos que insisten en utilizar la inteligencia artificial tradicional, el método resuelve el problema simplemente imitando a las personas, y el otro grupo aboga por un enfoque basado en datos. Las dos escuelas tienen diferentes puntos fuertes en diferentes campos. En el campo del reconocimiento de voz y la comprensión del lenguaje natural, la escuela basada en datos se ha hecho cargo con relativa rapidez. En términos de reconocimiento de imágenes y traducción automática, la escuela basada en datos ha estado en desventaja durante mucho tiempo. La razón de esta situación es que en el campo del reconocimiento de imágenes y la traducción automática, la cantidad de datos en el pasado era muy pequeña. No hace falta decir que el reconocimiento de imágenes, antes de la llegada de Internet, ningún laboratorio tenía millones. En el campo de la traducción automática, además de los datos de texto generales, se necesitaba una gran cantidad de datos bilingües (o incluso multilingües). Antes de la llegada de Internet, no se podían encontrar datos similares excepto la Biblia y un libro. Sin embargo, con el auge de Internet, la adquisición de datos se hizo más fácil. En 2005, Google derrotó al mundo con su enfoque basado en datos, gana porque utiliza miles o incluso decenas.

“Hoy en día, en muchos campos relacionados con la “inteligencia” en campos de investigación como el reconocimiento de imágenes y la comprensión del lenguaje natural, si los métodos utilizados no pueden aprovecharse. los datos, se considerarán obsoletos.

Los métodos basados ​​en datos comenzaron en las décadas de 1970 y 1980 y se desarrollaron lenta pero constantemente en la década de 1990 después de entrar en el siglo XXI. Internet, la cantidad de datos disponibles ha aumentado dramáticamente y las ventajas de los métodos basados ​​​​en datos se han vuelto cada vez más obvias, completando finalmente un salto del cambio cuantitativo al cambio cualitativo. Ahora las computadoras pueden hacer muchas cosas que requieren inteligencia humana. se beneficia del aumento de datos.

Los datos en varios campos alrededor del mundo se han ido expandiendo hacia afuera y gradualmente se ha formado otra característica, es decir, una gran cantidad de datos ha comenzado a cruzarse y los datos en varias dimensiones se han transformado gradualmente desde puntos y líneas en redes, o en otras palabras, entre datos. La correlación entre ellas aumenta enormemente. En este contexto surgió el big data. "

"Antes de la llegada del big data, las computadoras no eran buenas para resolver problemas que requerían inteligencia humana, pero hoy estos problemas se pueden resolver cambiando la mentalidad. El núcleo es convertir los problemas de inteligencia en problemas de datos. Como resultado, el mundo ha iniciado una nueva ronda de revolución tecnológica y revolución inteligente. ”

Aunque las computadoras pueden hacer cada vez más cosas en los últimos años, todavía se siente como “rápidas pero no lo suficientemente inteligentes”. Pero cuando tenemos suficientes datos, podemos convertir los problemas inteligentes en máquinas. Ya no es necesario pensar y resolver problemas como los humanos. Siempre que ingresemos suficientes datos y coincidamos con el algoritmo (modelo) apropiado, la máquina puede tomar el juicio óptimo.

Incluso si Deep Blue venciera a Casper, "pero detrás de la apariencia aparentemente inteligente, en realidad hay una combinación de grandes cantidades de datos, en lugar de algoritmos complejos y superpotencia informática: Deep Blue nunca ha pensado como un ser humano".

“Las computadoras que juegan al ajedrez y responden preguntas reflejan el papel decisivo del big data en la inteligencia de las máquinas. Veremos muchos tipos de robots en el futuro, como los autos autónomos de Google, computadoras que pueden diagnosticar cáncer o escribir artículos para periódicos. No necesitan ser humanoides como los robots de las películas de ciencia ficción, pero todos son más inteligentes que los humanos en algunos aspectos. Detrás de estos robots hay poderosos grupos de servidores en los centros de datos. No es a través del razonamiento como nosotros, sino que utiliza big data para aprender información y conocimiento a partir de datos. Hoy en día, esta revolución que cambia el mundo causada por big data se ha producido silenciosamente en los siguientes capítulos. La característica es la inteligencia de las máquinas, por eso no es exagerado llamarla revolución inteligente”

.