Cada uno tiene su propia opinión. Por tanto, existen muchas definiciones diferentes de redes neuronales en la comunidad científica.
Perspectiva. En la actualidad, la definición de T.Koholen es la más utilizada, es decir, "Red neuronal es una red interconectada ampliamente paralela compuesta de unidades adaptativas simples, cuya organización puede simular nervios biológicos
p>
La respuesta interactiva del sistema a los objetos del mundo real "
Si comparamos las características de la actividad de información del cerebro humano con la superficie de trabajo actual de las computadoras von Neumann
Comparando tipos, puede Se puede observar que el cerebro humano tiene las siguientes características destacadas:
1. Paralelismo a gran escala.
En una máquina von Neumann el procesamiento de la información es centralizado y serial, es decir, todos los programas están referenciados.
Los comandos deben transmitirse a la CPU y luego ejecutarse uno por uno. La gente reconoce una imagen o crea un objeto.
A la hora de tomar una decisión, muchos aspectos del conocimiento y la experiencia en el cerebro actuarán simultáneamente para dar una respuesta rápida.
Según la investigación, hay alrededor de 10 (10) ~ 10 (11) neuronas en el cerebro humano, y cada neurona tiene 103 conexiones del orden de magnitud, lo que proporciona una enorme capacidad de almacenamiento que se puede utilizar. en niveles altos cuando sea necesario.
Juzga la velocidad de reacción.
2. Se combinan unidades de procesamiento y almacenamiento de información.
En una máquina von Neumann, el contenido del almacenamiento y la dirección de almacenamiento están separados, y primero se debe encontrar el almacenamiento.
Dirección, así podremos saber qué está almacenado. Una vez que ocurre una falla de hardware en la memoria, toda la información almacenada en la memoria será destruida. Las neuronas del cerebro humano tienen capacidades tanto de procesamiento como de almacenamiento de información.
, por lo que no solo no necesita encontrar la dirección de almacenamiento antes de llamar al contenido almacenado, sino que también puede
restaurar todo el contenido a partir de una parte. Cuando ocurre una falla de "hardware" (como una lesión en la cabeza) y
no toda la información almacenada no es válida, solo se pierden las partes más dañadas de la información.
3. Funciones de autoorganización y autoaprendizaje.
La máquina von Neumann no tiene capacidad de aprendizaje activo ni adaptabilidad. Sólo puede seguir las letras.
Las personas tienen pasos programados para realizar los correspondientes cálculos numéricos o cálculos lógicos. El cerebro humano puede
mediante capacidades internas de autoorganización y autoaprendizaje, podemos adaptarnos continuamente al entorno externo, de modo que podamos
hacer frente de manera efectiva a diversas situaciones simuladas, difusas o problema aleatorio.
El principal proceso de desarrollo de la investigación de redes neuronales se puede dividir a grandes rasgos en cuatro etapas:
1. La primera etapa tuvo lugar antes de mediados de la década de 1950.
El anatomista español Cajal fundó la teoría de la neurona a finales del siglo XIX, creyendo que el nervio
La célula tiene forma bipolar, y su cuerpo celular y sus dendritas reciben señales de otras neuronas de impulsos y el axón envía una señal.
Transferido desde el cuerpo celular. Después de él, se inventaron continuamente diversas técnicas de teñido y técnicas de microelectrodos.
Aporta las principales características y propiedades eléctricas de las neuronas.
En 1943, el psicólogo estadounidense W.S McCulloch y el matemático W.A. Pitts escribieron su artículo "Nerve".
Las actividades lógicas contenidas en las actividades de pensamiento proponen un modelo neuronal muy simple, a saber, el modelo
M-p. Este modelo trata a la neurona como un dispositivo lógico funcional, creando así el nervio.
Investigación teórica sobre modelos de redes.
En 1949, el psicólogo D.O Hebb escribió un libro llamado "La organización del comportamiento", en el que
En el libro, proponía la fuerza de las conexiones entre las neuronas La ley del cambio. Más tarde se llamó ley del aprendizaje de Hebb.
Hebb escribió: "Cuando el axón de la célula nerviosa A está lo suficientemente cerca de la célula B para excitarla, si A es pesada,
si B se estimula repetida o continuamente, entonces hay Debe haber algún crecimiento o producción en ambas células o en una de ellas.
Gracias al cambio en el proceso, este cambio mejora la eficiencia de A activando b." En pocas palabras, significa que si dos neuronas se excitan, la sinapsis entre ellas aumentará la fuerza de la conexión.
A principios de la década de 1950, el fisiólogo Hodgkin y el matemático Huxley estaban estudiando la electricidad equivalente de las membranas de las células nerviosas. p>
La migración de iones en la membrana equivale a una resistencia variable al Na+ y al K+. respectivamente, estableciendo así la famosa ecuación de Hodgkin-Huxley
El trabajo de estos pioneros inspiró a muchos estudiosos a dedicarse a investigaciones en esta área, sentando así las bases para la aparición de un instrumento neurométrico
La segunda etapa comenzó desde mediados de los años 50 hasta finales de los 60.
En 1958, F. Rosenblatt y otros desarrollaron las características de la primera red neuronal de aprendizaje de la historia, que es el nombre en clave. Para el perceptrón Mark I, este importante evento marcó la segunda etapa de la investigación de redes neuronales. Para la prueba de Rosenblatt más simple sin capas intermedias, para mejorar la convergencia del algoritmo de aprendizaje, es iterativo. permisos para que la red realice los cálculos esperados. Posteriormente, Rosenblatt, B. Widrow y otros crearon
La unidad de procesamiento de red, el elemento lineal adaptativo Adaline, también descubrieron una Adaline y
Además de Rosenblatt y. Widrow, hay muchas personas que actualmente estudian la estructura y construcción de la computación neuronal.
Ha hecho grandes contribuciones a la realización de ideas. K.Steinbuch estudió la llamada matriz de aprendizaje.
Una estructura de red de asociación binaria y su implementación de hardware publicada en 1965
El libro "Machine Learning" la resumió. Las actividades de este período
La tercera etapa es desde finales de la década de 1960 hasta. principios de la década de 1980.
La tercera etapa comienza con M. Minsky y S. Papert marcados por la publicación del libro "Perceptual Machines" escrito en 1969. En este libro se analizan las redes neuronales de una sola capa. y demostrado matemáticamente Las funciones complejas son limitadas y ni siquiera pueden resolver problemas de operación lógica simples como XOR. Al mismo tiempo, también descubrieron que hay muchos patrones que no pueden ser entrenados por una red de una sola capa. Las redes de capas son factibles.
Dudoso.
Debido a la enorme reputación de M. Minsky en el campo de la inteligencia artificial, las conclusiones pesimistas que sacó en sus trabajos
arruinaron la investigación de redes neuronales en la dirección del perceptrón en ese momento. tiempo. agua fría. Tras ser publicado en el libro "Perceptual Machines"
En los 15 años posteriores a su publicación, ningún fondo federal de Estados Unidos financió la investigación sobre redes neuronales, ni tampoco la antigua Unión Soviética.
Se cancelaron varios proyectos de investigación prometedores.
Sin embargo, incluso en este punto bajo, todavía hay algunos investigadores que continúan trabajando en redes neuronales.
Obras, como las de S. Grossberg de la Universidad de Boston en Estados Unidos y T. Kohonen de la Universidad Tecnológica de Helsinki en Finlandia.
Y Jun Amari de la Universidad de Tokio, Japón. Su incansable trabajo es el estudio de las redes neuronales.
El avivamiento abrió el camino.
4. La cuarta etapa es desde principios de los años 80 hasta la actualidad.
En 1982, el biofísico de Caltech J.J. Hopfield adoptó un sistema totalmente interconectado.
El modelo de red neuronal resuelve con éxito la siguiente complejidad computacional
Problema del viajante (TSP) NP-completo utilizando una función de energía computacional definida. Este
Este avance marca la cuarta etapa de la investigación sobre redes neuronales, que también es una etapa de vigoroso desarrollo.
Escenario.
Después de que se propuso el modelo de Hopfield, muchos investigadores intentaron ampliar el modelo para acercarlo más al cerebro humano.
Características. En 1983, T. Sejnowski y G. Hinton propusieron el concepto de "unidad oculta" y se desarrolló la máquina de Boltzmann. Basado en el perceptrón Rosenblatt,
al agregar unidades de capas ocultas, se construye una "máquina cognitiva" que puede realizar el aprendizaje asociativo. Aplicación Kohonen 3000
La función de aprendizaje asociativo de la red bidimensional se realiza mediante la construcción de una red neuronal con tres dispositivos de umbral. 1986,
D. Rummelhart y J. McClelland publicaron un libro de gran éxito "Parallel Distributed Processing-Cognition".
La publicación de "Exploración de Microestructura" anunció que la investigación sobre redes neuronales ha entrado en un clímax.
En 1987 se celebró en San Diego la primera conferencia internacional sobre redes neuronales, de la Federación Internacional de Redes Neuronales.
Se estableció (Posada). Posteriormente, INNS fundó revistas como "Neural Networks".
Revistas profesionales como Neural Computing e IEEE Transactions on Neurology.
Red, Revista Internacional de Sistemas Neurológicos, etc.
Sal. Muchas universidades famosas del mundo han anunciado sucesivamente la creación de institutos de investigación en computación neuronal y han formulado una educación relevante.
Muchos países también han establecido sociedades de redes neuronales y han organizado varias conferencias regionales e internacionales.
Siguen surgiendo conferencias, excelentes trabajos y grandes logros.
Hoy, después de años de preparación y exploración, el trabajo de investigación sobre redes neuronales ha entrado en una etapa decisiva.
Etapa cualitativa. Japón, Estados Unidos y los países de Europa occidental han formulado planes de investigación pertinentes.
Japón ha formulado el "Plan Científico de la Frontera Humana". El plan tiene una duración de 15 a 20 años y sólo la inversión inicial supera el billón de yenes. Dentro de este programa ocupó un lugar el estudio de las redes neuronales y la función cerebral.
Estado importante, porque la llamada "ciencia de la frontera humana" se refiere primero al cerebro y al cerebro humanos.
El campo científico del desarrollo de una nueva generación de ordenadores con referencia al cerebro humano.
En Estados Unidos, la investigación sobre redes neuronales ha recibido un fuerte apoyo del ejército. El Departamento de Defensa de Estados Unidos invirtió 400 millones de dólares en un plan de investigación de 8 años desarrollado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DAPRA).
Y establecer las organizaciones y comités directivos correspondientes. Al mismo tiempo, la Oficina de Investigación Naval (ONR) y la Oficina de Investigación Científica de la Fuerza Aérea (AFOSR) también han invertido enormes cantidades de dinero en la investigación de redes neuronales. DARPA reconoce que las redes neuronales "parecen ser la única esperanza para resolver la inteligencia artificial" y cree que "es algo mejor que la bomba atómica".
La ingeniería es una tecnología más importante." La Fundación Nacional de Ciencias, la Administración Nacional de Aeronáutica y del Espacio (NASA) y otras agencias gubernamentales también conceden gran importancia al desarrollo de redes neuronales. Apoya muchos temas de investigación en diferentes formas.
En su programa ESPRIT, hay un proyecto.
"Aplicaciones de redes neuronales en la industria europea", además de las agencias de energía atómica británica y alemana, hay muchas otras importantes europeas. empresas involucradas en este proyecto de investigación, como British Aerospace y Siemens de Alemania.
Además, algunos países de Europa occidental también tienen sus propios planes de investigación, como Alemania, que ha estado realizando una investigación. Proyecto llamado "Teoría de la información neuronal" desde 1988.
Desde 1986, China ha celebrado muchos seminarios informales sobre redes neuronales en 1990
65438+2 meses, organizados por el Instituto de la Federación de Computación de China. de Electrónica e Inteligencia Artificial, el Instituto de Automatización y el Instituto de Comunicaciones.
Ocho sociedades, incluidas la Sociedad de Física, la Sociedad de Biofísica y la Sociedad de Psicología, celebraron conjuntamente la Conferencia "China". en Beijing.
Primera conferencia académica sobre redes neuronales en China”, creando así una nueva era en la investigación de redes neuronales en China.