Herbert Simon y la inteligencia artificial

Después de la década de 1950, la dirección de la investigación de Simon cambió mucho y gradualmente se dirigió hacia los campos de la psicología cognitiva y la inteligencia artificial. Simon cree que las ciencias sociales carecen de la misma naturaleza científica que las ciencias naturales necesitan aprender de los métodos de investigación estrictos y precisos de las ciencias naturales para convertirse en una ciencia real. Al mismo tiempo, en opinión de Simon, las materias estudiadas en economía, gestión y psicología son en realidad "procesos humanos de toma de decisiones y procesos de resolución de problemas". Para comprender verdaderamente el proceso de toma de decisiones en una organización, es necesaria una comprensión más profunda de las personas y sus procesos de pensamiento. Por lo tanto, con la ayuda del desarrollo de la tecnología informática, Simon y sus colegas Newell y otros comenzaron a intentar utilizar computadoras para simular el comportamiento humano, creando así un nuevo campo de investigación en psicología cognitiva e inteligencia artificial. Simon cree que los procesos de pensamiento humano y los procesos operativos de la computadora son consistentes y son una serie de símbolos de procesamiento. Por lo tanto, las computadoras pueden usarse para simular el funcionamiento del cerebro humano. Incluso predijo audazmente que las computadoras pueden hacer lo que puede hacer el cerebro humano. La aparición de software de inteligencia artificial como EPAM y GPS ha confirmado parcialmente la predicción de Simon.

En aquel momento, había tres escuelas principales de inteligencia artificial: ① El simbolismo, también conocido como logicismo, psicologismo o informática, sus principios se basan principalmente en la suposición de un sistema de símbolos físicos y el principio de limitación. racionalidad. Esta escuela de pensamiento cree que la inteligencia artificial proviene de la lógica matemática. Después del surgimiento de otras escuelas de inteligencia artificial, el simbolismo sigue siendo la escuela principal de inteligencia artificial. Los representantes de este grupo incluyen a Newell, Xiao, Simon y Nelson. ②El conexionismo, también conocido como biónica o fisiología, se basa principalmente en las redes neuronales y los mecanismos de conexión y algoritmos de aprendizaje entre redes neuronales. Esta escuela de pensamiento cree que la inteligencia artificial proviene de la biónica, especialmente del estudio de modelos del cerebro humano. Desde modelos hasta algoritmos, desde análisis teóricos hasta implementación de ingeniería, ha sentado una base sólida para que las computadoras de redes neuronales ingresen al mercado. ③El conductismo, también conocido como teoría de la evolución o cibernética, se basa en la cibernética y los sistemas de control del activismo de percepción. Tienen diferentes puntos de vista sobre la historia del desarrollo de la inteligencia artificial. Esta escuela de pensamiento cree que la inteligencia artificial se originó a partir de la cibernética.

La contribución más fundamental de Simon a la inteligencia artificial es su propuesta de la "Hipótesis del sistema de símbolos físicos" (PSSH). En este sentido, es uno de los fundadores y representantes de la escuela simbolista. Su punto de vista básico es: el elemento básico del conocimiento son los símbolos, la base de la inteligencia depende del conocimiento y el método de investigación consiste en utilizar software informático y métodos psicológicos para simular las funciones macroscópicas del cerebro humano. La base principal del simbolismo son dos principios básicos: ① El principio de asunción del sistema de símbolos físicos. ②El principio de racionalidad limitada propuesto por Simon. Esta teoría anima a las personas a realizar una exploración exhaustiva de la inteligencia artificial. Simon cree que si cualquier sistema de símbolos físicos es inteligente, ciertamente puede realizar seis operaciones: entrada, salida, almacenamiento, copia, transferencia condicional y establecimiento de estructuras simbólicas. Por el contrario, cualquier sistema que pueda realizar estas seis operaciones debe exhibir inteligencia. Con base en esta suposición, podemos sacar las siguientes conclusiones: las personas son inteligentes, por lo que son un sistema de símbolos físicos; las computadoras son un sistema de símbolos físicos, por lo que deben ser inteligentes y pueden simular las funciones del cerebro humano y de las personas.

En 1956, Simon, Newell y otro famoso erudito, John Shaw, desarrollaron con éxito el programa heurístico más antiguo del mundo, "Logic Theorist" LT (1 Logic Theorist), convirtiendo así a la máquina en el primer paso en el razonamiento lógico. . En el laboratorio de computación de la Universidad Carnegie Mellon, Simon y Newell comenzaron analizando las habilidades humanas para resolver problemas matemáticos. Pidieron a algunas personas que pensaran detenidamente sobre varios problemas matemáticos y les pidieron que no sólo escribieran las respuestas, sino que también expresaran las suyas. respuestas: métodos y pasos de razonamiento. A través de una gran cantidad de ejemplos, Simon y Newell recopilaron una amplia gama de métodos para resolver problemas generales. Descubrieron que cuando las personas resuelven problemas matemáticos, suelen utilizar un método de prueba y error. Al intentarlo, no necesariamente enumere todas las posibilidades, sino utilice el razonamiento lógico para limitar rápidamente su búsqueda. Los humanos tenemos patrones de pensamiento similares cuando se trata de demostrar teoremas matemáticos. Descomponiendo un problema complejo en varios subproblemas simples, sustituyendo constantes conocidas por variables desconocidas y utilizando axiomas, teoremas o reglas de resolución de problemas conocidos para el razonamiento tentativo, hasta que todos los subproblemas finalmente se conviertan en Saber. Luego, basándose en los axiomas y teoremas probados en la memoria, se resuelven subproblemas utilizando métodos de sustitución y permutación, y finalmente se resuelve todo el problema. La verificación humana de teoremas matemáticos es también una búsqueda heurística, similar a los principios del ajedrez informático.

Sobre esta base, utilizaron el programa "Logic Theorist" para desafiar teoremas matemáticos, establecieron un método de búsqueda heurística para que las máquinas prueben teoremas matemáticos y utilizaron computadoras para demostrar 52 teoremas en el Capítulo 2 de la obra maestra matemática de Russell y Whitehead "Principios de Matemáticas". Los 38 teoremas de (1963), el programa mejorado "Logic Theorist" en una computadora más grande, finalmente completaron la totalidad del Capítulo 2.

Basándose en este éxito, Simon y Newell El programa "Logic Theorist" amplía Al proceso de los seres humanos para resolver problemas generales, imaginando el uso de máquinas para simular actividades de pensamiento humano con significado universal, el "Teórico de la Lógica" ha sido muy elogiado por la gente como la primera computadora en explorar los resultados reales de las actividades inteligentes de los seres humanos. Primera prueba práctica de la afirmación de Turing de que las máquinas pueden ser inteligentes. En el proceso de desarrollo del programa "Logic Theorist", Simon propuso por primera vez y aplicó con éxito la "lista" como estructura de datos básica, diseñando e implementando el lenguaje de procesamiento de tablas IPL (Procesamiento de información). Idioma). En la historia de la inteligencia artificial, IPL es el antepasado de todos los lenguajes de procesamiento de tablas y el primer lenguaje en utilizar subrutinas recursivas. Su elemento básico son los símbolos e introduce los datos más básicos por primera vez. La estructura de IPL es una estructura de tabla, que se puede utilizar para reemplazar direcciones de almacenamiento o matrices de reglas, lo que ayuda a los programadores a liberarse de detalles tediosos y pensar en problemas en un nivel superior. Otra característica de IPL es la introducción de generadores. valor cada vez, y luego se cuelga, esperando ser llamado, comenzando desde el lugar donde se suspendió. Muchos de los primeros programas de inteligencia artificial se escribieron en lenguajes de procesamiento de tablas, por lo que los propios lenguajes de procesamiento de tablas también han experimentado un desarrollo y mejora. proceso, su última versión, IPLⅴV, podía manejar tablas estructuradas en árbol. En el verano de 1956, se reunieron en el Dartmouth College de Hanover, New Hampshire, docenas de académicos de diversos campos, incluidos matemáticas, psicología, neurología, informática e ingeniería. , Estados Unidos discutió cómo utilizar las computadoras para simular el comportamiento humano y, basándose en las sugerencias de J. McCarthy (ganador del Premio Turing en 1971), la convocatoria de la conferencia marcó la formalización de este campo temático y el nacimiento oficial de la disciplina. Herbert Simon señaló que el estudio de la inteligencia artificial consiste en aprender a programar computadoras para completar comportamientos humanos inteligentes. Los "teóricos de la lógica" que Simon trajo a la reunión fueron los únicos que podían trabajar en el software de inteligencia artificial. gran interés y atención por parte de los participantes, por lo que Simon, Newell y los fundadores de la Conferencia de Dartmouth, McCarthy y Minsky (M.L. Minsky, ganador del Premio Turing 1969) son reconocidos como los cuatro de la inteligencia artificial. Ellos formaron el primer grupo de investigación de inteligencia artificial en 1960, que promovió efectivamente el desarrollo de la inteligencia artificial.

En 1960, los Simons llevaron a cabo un interesante experimento psicológico que demostró que el proceso de resolución de problemas humanos es una búsqueda. proceso, y su eficiencia depende de la función heurística. Sobre la base de este experimento, Simon, Newell y Xiao desarrollaron con éxito un "solucionador de problemas universal" que puede resolver 11 tipos diferentes de problemas. El principio básico de este sistema de resolución es encontrar la diferencia entre los requisitos objetivo y la situación actual, y seleccionar operaciones que conduzcan a eliminar la diferencia, para reducir gradualmente la diferencia y finalmente lograr el objetivo. Simon enfatizó repetidamente que el descubrimiento científico es sólo un tipo especial de resolución de problemas y, por lo tanto, también puede lograrse a través de programas informáticos. De 1976 a 1983, Simon colaboró ​​con Pat W. Langley y Gary L. Bratz para diseñar seis versiones del programa de descubrimiento del sistema baconiano, redescubriendo una serie de famosas leyes físicas y químicas y demostrando el argumento anterior de Simon. Esto abre un gran campo de inteligencia artificial para "resolver problemas".

Desde que se dedicó a la tecnología informática, Simon ha estado estudiando ajedrez informático. Desde 65438 hasta 0966, Simon, Newell y Baylor colaboraron para desarrollar el primer programa de ajedrez MATER. En 1997, después de que el ordenador "Deep Blue" de IBM derrotara al gran maestro internacional bielorruso Kasparov, Simon, de 81 años, publicó junto con T. Munakata, experto en inteligencia artificial de la Universidad Estatal de Ohio, "Lecciones de inteligencia artificial". Este artículo comentaba este asunto, señalando que la puntuación de un programa de ajedrez ejecutado en la computadora era de 2600 puntos, lo que equivale al nivel del campeón mundial de ajedrez bielorruso Kasparov.

La otra contribución importante de Simon a la inteligencia artificial es el desarrollo y la mejora de los conceptos y métodos de las redes semánticas como medio universal de representación del conocimiento, y ha logrado un gran éxito. La red semántica es un método de representación del conocimiento importante y eficaz. Esta representación fue propuesta por M.R. Quillian a finales de la década de 1960 como un modelo de psicología de visualización de la memoria asociativa humana. Al desarrollar el sistema TLC, Quilling lo utilizó para describir el significado del inglés, simulando la memoria asociativa humana. El uso de redes semánticas como método de representación del conocimiento general fue descubierto básicamente por Simon durante su investigación sobre la comprensión del lenguaje natural en 65438-0970. A mediados de la década de 1970, Simon colaboró ​​con el experto en CAD C.M. Eastman para estudiar la síntesis espacial automática de residencias, que no sólo creó una "arquitectura inteligente" sino que también se convirtió en el comienzo de la investigación de CAD inteligente, es decir, ICAD.

DSS (Sistema de Apoyo a la Decisión) se originó a finales de los años 1960 y principios de los 1970, y ahora ha recibido gran atención. El núcleo de su concepto es la teoría del modelo de toma de decisiones, que también fue establecida por Simon. Además del modelo bayesiano, otro modelo teórico importante para la toma de decisiones en condiciones de incertidumbre es el modelo de maximización del valor esperado que utiliza la función de utilidad de von Neumann-Morgenstern. Simon formó la idea de que las computadoras electrónicas pueden simular el pensamiento humano en su libro "El modelo humano" y comenzó una serie de investigaciones sobre inteligencia artificial. Simon propuso el modelo de racionalidad limitada del modelo de valor máximo esperado de la función de utilidad. La idea básica del modelo de racionalidad limitada es: primero, todos los tomadores de decisiones participan dentro de un rango limitado; segundo, no podemos dar un valor de probabilidad al futuro, pero será mejor que tengamos un concepto aproximado de los eventos futuros; si Sin alejarnos de lo primero, nuestros deseos en un área pueden ser completamente diferentes a los de otra, al final nos centramos más en recopilar información que en analizar necesidades; Después de recopilar información, la elección más común se basa en la intuición. Basado en la teoría del patrón de toma de decisiones de Simon, P. G. Keen propuso un método de diseño llamado "método adaptativo". El sistema de soporte de decisiones se considera un sistema adaptativo, que consta de tres niveles técnicos: sistema de aplicación DSS, sistema de generación DSS y herramienta DSS. Está dirigido por tomadores de decisiones y puede adaptarse a los cambios de los tiempos. Simon elogió una vez un sistema de este tipo por ser capaz de adaptarse a varios cambios en tres horizontes de tiempo, es decir, en operaciones a corto plazo, el sistema puede buscar respuestas dentro de un rango relativamente estrecho, en operaciones a mediano plazo, el sistema puede adaptarse; cambios en sus funciones y actividades al modificar sus funciones. Al aprender a adaptarse; durante largos períodos de tiempo, los sistemas pueden evolucionar para adaptarse a estilos de comportamiento y capacidades muy diferentes.

Estos estudios vinculan estrechamente la tecnología informática con la toma de decisiones de gestión.