En 1945, se produjo en los Estados Unidos la primera computadora digital electrónica completamente automática "ENIAC" (la abreviatura en inglés es ENIAC y el significado chino es integrador y calculadora digital electrónica ). Fue desarrollado por el campo de pruebas de armas de Auberdine en los Estados Unidos para satisfacer las necesidades de los cálculos balísticos. Los principales inventores son el ingeniero eléctrico Eckert y el físico Dr. Mauchly. Esta computadora se envió en febrero de 1946 y funcionó durante 9 años. Utiliza tubos de electrones como componente básico de la computadora y puede realizar 5.000 sumas y restas por segundo. Utiliza 18.000 tubos de lámpara, 10.000 condensadores, 7.000 resistencias, tiene un volumen de 3.000 pies cúbicos, una superficie de 170 metros cuadrados, un peso de 30 toneladas y un consumo de energía de 140 a 150 kilovatios. Es un verdadero "monstruo".
La llegada de ENIAC tiene una importancia trascendental y presagia la llegada de la era de la informática. En los siguientes 40 años, la tecnología informática se desarrolló extremadamente rápidamente. Ninguna disciplina en la historia de la ciencia y la tecnología humanas puede igualar la velocidad de desarrollo de las computadoras electrónicas.
A continuación se presenta la estructura del hardware y las características del sistema de cada generación de computadoras:
La primera generación (1946~1958): computadoras digitales de tubo
La lógica los componentes de la computadora adoptan tubos de vacío, la memoria principal usa líneas de retardo de mercurio, tambores magnéticos y núcleos magnéticos usan cintas, el software utiliza principalmente lenguaje de máquina y las aplicaciones se basan principalmente en cálculos científicos; Se caracteriza por su gran tamaño, alto consumo de energía, poca confiabilidad, alto precio y mantenimiento complejo, pero sentó las bases para la futura tecnología informática.
Segunda generación (1958~1964): ordenador digital con transistores.
La invención del transistor impulsó el desarrollo de los ordenadores. Después de utilizar transistores como componentes lógicos, el tamaño de la computadora se reduce considerablemente, el consumo de energía se reduce, la confiabilidad mejora y el rendimiento mejora considerablemente en comparación con la computadora de primera generación.
La memoria principal utiliza núcleos magnéticos y la memoria externa ha comenzado a utilizar discos más avanzados; el software ha avanzado mucho y han aparecido varios lenguajes de alto nivel y sus compiladores, así como sistemas por lotes. Sistemas operativos basados principalmente en informática científica y procesamiento de diversas transacciones, y comenzaron a usarse en control industrial.
La tercera generación (1964~1971): computadora digital con circuito integrado.
En la década de 1960, los circuitos integrados de tamaño pequeño y mediano (SSI, MSI) se utilizaban como componentes lógicos de las computadoras, lo que las hacía más pequeñas, consumían menos energía, eran más confiables y más poderosas que las computadoras de décima generación. Ha habido una gran mejora. En esta época, las minicomputadoras también estaban en auge y sus campos de aplicación se estaban expandiendo.
La memoria principal todavía utiliza núcleos magnéticos, el software está mejorando gradualmente y muchos lenguajes de alto nivel, como los sistemas operativos de tiempo compartido y los lenguajes conversacionales, tienen nuevos desarrollos.
La cuarta generación (después de 1971): computadora digital de circuito integrado a gran escala.
Los circuitos integrados a gran escala (LSI) se utilizan en los componentes lógicos y en la memoria principal de los ordenadores. El llamado circuito integrado de gran escala se refiere a un circuito integrado que integra más de 1.000 a 2.000 transistores en una sola oblea de silicio. Su nivel de integración es más de 1 a 2 órdenes de magnitud mayor que el de los integrados de pequeña y mediana escala. circuitos. En este momento, las computadoras se han desarrollado hasta una etapa de miniaturización, bajo consumo de energía y alta confiabilidad. Los circuitos integrados a gran escala han desarrollado la industria militar, la tecnología espacial y la tecnología de energía atómica. El vigoroso desarrollo de estos campos ha planteado mayores requisitos para las computadoras y promovido efectivamente el desarrollo sin precedentes de la industria informática. Con el rápido desarrollo de la tecnología de circuitos integrados a gran escala, las computadoras no solo se están desarrollando en la dirección de las supercomputadoras, sino también en la dirección de las computadoras y microcomputadoras ultrapequeñas. A finales de 1971, nació el primer microprocesador y microcomputadora del mundo en Silicon Valley, al sur de San Francisco, lo que marcó el comienzo de una nueva era de microcomputadoras. Desde entonces, han surgido diversos microprocesadores y microcomputadoras que inundaron el mercado y se convirtieron en los productos más vendidos en ese momento. Este impulso continúa hoy. Especialmente después del nacimiento de la serie de computadoras IBM-PC, casi unificó el mercado mundial de microcomputadoras y se lanzaron una tras otra varias máquinas compatibles.
2. Etapa de la computadora moderna (es decir, etapa de mainframe tradicional)
2. Etapa de la computadora moderna (es decir, etapa de mainframe tradicional)
La llamada computadora moderna se refiere gracias al uso de tecnología electrónica avanzada se sustituye la tecnología mecánica o de relés obsoleta.
Los ordenadores modernos han experimentado más de medio siglo de desarrollo. Los representantes destacados de este período son el científico británico Turing y el científico húngaro-estadounidense von Neumann.
Las contribuciones de Turing a las computadoras modernas incluyen: establecer el modelo teórico de las máquinas de Turing y desarrollar la teoría de la computabilidad; se propuso la prueba de Turing que define la inteligencia de las máquinas.
La principal aportación de von Neumann es: establecer la estructura básica de los ordenadores modernos, la estructura von Neumann. Sus características se pueden resumir de la siguiente manera:
(1) Se utiliza una única unidad de procesamiento para completar el trabajo de cálculo, almacenamiento y comunicación;
(2) La unidad de almacenamiento es una organización lineal con una longitud fija;
p>
(3) La unidad de espacio de almacenamiento se aborda directamente
(4) Utilizando el lenguaje de máquina, las instrucciones pueden completar operaciones simples a través de la operación; códigos;
(5 ) control de secuencia centralizado de cálculos.
El principio de generación de las computadoras modernas se divide principalmente según los diferentes dispositivos electrónicos utilizados por las computadoras. Esto es lo que la gente suele llamar la cuarta generación de tubos de electrones, transistores, circuitos integrados y VLSI.
En 1666, el británico Samuel Moran inventó una máquina contadora mecánica que podía calcular sumas y restas.
En 1673, Gottfried Leibniz construyó un contador con una rueda cilíndrica escalonada llamada "calculadora de pasos". Esta calculadora puede multiplicar números repetidos y sumarlos automáticamente al sumador.
En 1694, el matemático alemán Gottfried Leibniz mejoró el de Pascal y construyó una máquina que podía calcular multiplicadores. Todavía funciona mediante engranajes y diales.
En 1773, Philippe Matthäus fabricó y vendió un pequeño número de ordenadores con una precisión de 12 dígitos.
En 1775, el tercer conde Stanhope inventó una calculadora de multiplicaciones similar a la de Leibniz.
En 1786, J.H. Mueller diseñó una ampliación diferencial, pero lamentablemente no disponía de fondos para fabricarla.
En 1801, el telar de Joseph-Marie Jacquard utilizaba tarjetas perforadas para controlar el patrón de tejido.
En 1854, George Boole publicó "Un examen de las leyes del pensamiento", que hablaba de símbolos y razonamiento lógico, que más tarde se convirtió en el concepto básico del diseño informático.
En 1858, una línea telegráfica cruzó por primera vez el Atlántico y prestó servicio durante unos días.
En 1861, una línea telegráfica transcontinental conectaba las costas del Atlántico y el Pacífico.
En 1876, Alexander Graham Bell inventó y patentó el teléfono.
De 1876 a 1878, el barón Kelvin construyó el analizador de armónicos y la máquina de predicción de mareas.
En 1882, William S. Burroughs dejó su trabajo como empleado de banco y se dedicó a inventar la máquina sumadora.
En 1889, la máquina tabuladora eléctrica de Herman Hollery obtuvo buenos resultados en una competición y se utilizó en el censo de 1890. Herman Hollery utilizó el concepto del telar jacquard para calcular. Usó una tarjeta para almacenar los datos y luego la introdujo en una máquina para compilar los resultados. La máquina permite que los resultados de un censo que habría tardado una década en estar disponibles en sólo seis semanas.
En 1893 se inventó la primera calculadora de cuatro funciones.
En 1895, Guglielmo Marconi transmitió una señal de radio.
En 1896, Hollerith fundó la Tabulated Machine Company.
En 1901 aparecieron las teclas perforadas y poco cambió en el siguiente medio siglo.
En 1904, John A. Fleming obtuvo una patente para el diodo de vacío, sentando las bases de las comunicaciones por radio.
En 1906, Liedfeldt añadió un diodo con una tercera válvula a Fermin, creando un tubo de vacío de tres electrodos.
En 1907, la música grabada formó la primera estación de radio oficial de Nueva York.
1908, ¿el científico británico Campbell Swinton? Se describen métodos de escaneo electrónico y predicciones para fabricar televisores a partir de tubos de rayos catódicos.
En 1911, Watch Machine Company de Hollerith se fusionó con otras dos empresas para formar Computerized Tabulated and Recording Company (C-T-R), una empresa de relojería y grabación. Pero en 1924 pasó a llamarse International Business Machines Corporation (IBM).
En 1911, el físico holandés Kamerlingh Onnes descubrió la superconductividad en la Universidad de Leiden.
En 1931, Vannifer Bush inventó una máquina de contar que podía resolver programas diferenciales. La máquina podría resolver complejos programas de diferencias que molestan a matemáticos y científicos.
En 1935, IBM (International Business Machines Corporation) lanzó el "IBM 601", una máquina de tarjetas perforadas con un componente aritmético que podía calcular multiplicadores en 1 segundo. Desempeña un papel muy importante en la informática científica y la informática empresarial. Se fabricaron un total de 1.500 unidades.
En 1937, Alan Turing propuso el concepto de una "máquina universal" que puede ejecutar cualquier algoritmo, formando el concepto básico de "computabilidad". El concepto de Turing fue superior a otros inventos similares porque utilizó el concepto de procesamiento de símbolos.
En octubre, John Vincent Atansov y John Bury construyeron un sumador de 16 bits. Fue la primera máquina en calcular mediante tubos de vacío.
En 1939, Zuse y Schreyer crearon "V2" (más tarde llamado Z2), que tomó el almacenamiento mecánico del Z1 y añadió un nuevo componente aritmético utilizando lógica de relé. Pero cuando Zuzer completó el borrador, el plan quedó en pausa durante un año.
En 1939-40, Schreyer completó un sumador de 10 bits usando tubos de vacío y una memoria usando lámparas de neón.
En junio de 1940, Bell Labs, Samuel Williams y Stibitz completaron una máquina que podía calcular números complejos. Se llamó "Calculadora de números complejos" y luego pasó a llamarse I (Calculadora de retransmisión modelo I). Utiliza como elementos lógicos interruptores telefónicos: 145 disyuntores e interruptores de 10 barras. El número está representado por "más 3BCD". En septiembre de ese año, se instaló un teletipo en una conferencia matemática y se conectó desde New Hampshire a Nueva York.
En 1940, Zuse finalmente completó el Z2, que era mejor que el funcionamiento, pero no muy confiable.
En el verano de 1941, Atanasov y Berry completaron una calculadora diseñada específicamente para resolver ecuaciones lineales, más tarde conocida como "ABC (Atanasoff-Berry Computer)"). Tiene memoria de 50 bits a 60 Hz en forma de condensadores montados en dos tambores giratorios. Reloj
En febrero de 1941, Zuse completó "V3" (más tarde llamado Z3), la primera computadora que podía programarse para funcionar. También utiliza aritmética de coma flotante, un exponente de 7 bits, una mantisa de 14 bits y un signo. La memoria puede almacenar 64 palabras, por lo que se requieren 1400 disyuntores. Tiene más de 1200 componentes informáticos y de control, y la programación, entrada y salida son las mismas que las del Z1. 1943 65438 Octubre Howard H. Aiken completa la "ASCC Mark I" (Calculadora automática de control secuencial Mark I), también conocida como "Harward Mark I". La máquina mide 51 pies de largo y pesa 5 toneladas. Consta de 750.000 piezas. Dispone de 72 acumuladores, cada uno con su propia unidad aritmética y un registro de 23 bits.
1943 65438 En febrero, Tommy Flowers y su equipo completaron el primer "Colossus", que tenía 2400 tubos de vacío como elementos lógicos y 5 lectores de cintas de papel, cada lector podía trabajar con 5000 caracteres.
En 1943, bajo el liderazgo de John Brainered, ENIAC inició la investigación. John Mauchly y J. Presper Eckert fueron los responsables de la implementación del plan.
1946v Se fabrica en Estados Unidos la primera Calculadora Integradora Numérica Electrónica (ENIAC).
En 1947 se creó la Asociación de Maquinaria de Computación (ACM).
En 1947, el Reino Unido completó el primer tubo de vacío de almacenamiento. En 1948, la Bell Telephone Company desarrolló semiconductores.
En 1949, se construyó en el Reino Unido la "Calculadora automática de almacenamiento retardado electrónico" (EDSAC).
1950 El término "automatización" se utiliza por primera vez en la industria del automóvil.
En 1951 se fabricó el núcleo magnético en el MIT.
En 1952 nació la primera "calculadora de programa almacenado".
En 1952, se anunció la finalización del IBM701, el primer sistema informático a gran escala.
En 1952 se inventó con éxito el primer traductor de lenguaje simbólico.
En 1954, Bell Telephone Company desarrolló con éxito el primer ordenador semiconductor.
En 1954 nació el primer procesador de datos de uso general IBM650.
En 1955 se construyó el primer ordenador de gran tamaño con núcleo magnético, el IBM705.
En 1956, IBM lanzó el ordenador Scientific 704.
En 1957 apareció el lenguaje de programación FORTRAN.
En 1959 se desarrolló con éxito la primera calculadora científica pequeña, la IBM620.
En 1960 se desarrolló con éxito el sistema de procesamiento de datos IBM1401.
En 1961 apareció el lenguaje de programación COBOL.
En 1961, el MIT diseñó el primer ordenador de subsistema.
En 1963 apareció el lenguaje BASIC.
En 1964 se produjo la tercera generación de ordenadores de la serie IBM360.
En 1965, la American Digital Equipment Corporation lanzó el primer miniordenador, el PDP-8.
En 1969, IBM desarrolló con éxito la máquina de tarjetas de 90 columnas y el sistema informático System-3.
En 1970 se produjo la serie de ordenadores IBM System 1370.
En 1971, la Universidad de Illinois diseñó y completó el superordenador Ilium IV.
En 1971, Intel desarrolló con éxito el primer microprocesador 4004.
Del 65438 al 0972 se empezaron a producir y vender en masa sustratos para microprocesadores.
En 1973, IBM desarrolló con éxito el primer disquete.
En 1975 apareció el microordenador Atari-8800.
En 1977, Komodo anunció el exitoso desarrollo del microordenador totalmente integrado PET-2001.
En 1977 nació el microordenador TRS-80.
En 1977 nació el microordenador Apple II.
Del 65438 al 0978 se empezó a aplicar VLSI.
En 1978, la memoria burbuja se utilizó por segunda vez en ordenadores comerciales.
En 1979, Sharp anunció el primer microordenador portátil.
Desde 65438 hasta 0982, los microordenadores comenzaron a popularizarse y entraron en grandes cantidades en escuelas y hogares.
Del año 65438 al 0984, la industria informática japonesa comenzó a desarrollar la "computadora de quinta generación", una computadora con inteligencia artificial.
Basado en las cuatro eras de los elementos constituyentes.
La primera generación de computadoras de tubo de vacío (1945-1956)
Durante la Segunda Guerra Mundial, el gobierno de Estados Unidos buscó computadoras para explotar su potencial valor estratégico. Esto promueve la investigación y el desarrollo informático. En 1944, Howard H. Aiken (1900-1973) desarrolló una calculadora totalmente electrónica para que la Armada de los Estados Unidos la utilizara en la producción de cartas balísticas. La máquina, conocida simplemente como Mark I, tenía el tamaño de medio campo de fútbol y contenía 500 millas de cables. Utiliza señales electromagnéticas para mover piezas mecánicas, lo que es muy lento (una vez cada 3-5 segundos) y tiene poca adaptabilidad.
Se utiliza sólo en áreas especializadas, pero puede realizar operaciones aritméticas básicas así como ecuaciones complejas.
El 4 de febrero de 1946 se hizo público en Filadelfia el ENIAC (Electronic Numerical Integrator and Computer), que marcó el nacimiento de los ordenadores modernos. ENIAC representa un hito en la historia del desarrollo informático. Se programa mediante recableado entre diferentes partes, con capacidad de computación en paralelo. ENIAC fue desarrollado conjuntamente por el gobierno de Estados Unidos y la Universidad de Pensilvania. Utiliza 18.000 tubos de lámpara, 70.000 resistencias, 5 millones de uniones de soldadura y consume 160 kilovatios de electricidad. Con una velocidad de cálculo 65.438.000 veces más rápida que la Mark I, ENIAC fue la primera computadora de propósito general.
A mediados de la década de 1940, John von Neumann (1903-1957) se unió a un grupo de la Universidad de Pensilvania y diseñó una computadora automática electrónica variable discreta (EDVAC) en 1945. Almacena programas y datos juntos en el mismo formato. Esto permite pausar la computadora o reanudar su funcionamiento en cualquier momento. La parte clave de la arquitectura von Neumann es la unidad central de procesamiento, que unifica todas las funciones de la computadora a través de un único recurso.
La primera generación de ordenadores se caracterizó por tener instrucciones de funcionamiento programadas para tareas específicas. Cada máquina tiene su propio lenguaje de máquina diferente, funcionalidad limitada y velocidad lenta. Otra característica distintiva es el uso de tubos de vacío y tambores magnéticos para almacenar datos.
La segunda generación de ordenadores a transistores (1956-1963)
Del 65438 al 0948, la invención del transistor impulsó en gran medida el desarrollo de los ordenadores. Los transistores reemplazaron a los voluminosos tubos de electrones y los dispositivos electrónicos continuaron reduciéndose de tamaño. Desde 65438 hasta 0956, se utilizaron transistores, transistores y memoria de núcleo magnético en computadoras que dieron lugar a la segunda generación de computadoras. Las computadoras de segunda generación son de tamaño pequeño, velocidad rápida, bajo consumo de energía y rendimiento más estable. La tecnología de transistores se utilizó por primera vez en las primeras supercomputadoras, principalmente para el procesamiento de datos a gran escala en la ciencia atómica. Estas máquinas son caras y producen muy poco.
En 1960, algunas computadoras de segunda generación se utilizaron con éxito en empresas, universidades y departamentos gubernamentales. La segunda generación de computadoras utilizó transistores en lugar de tubos de electrones, así como algunos componentes de las computadoras modernas: impresoras, cintas, discos, memoria, sistemas operativos, etc. Los programas almacenados en una computadora hacen que ésta sea adaptable y pueda usarse de manera más eficiente con fines comerciales. Durante este período, surgieron lenguajes de nivel superior como COBOL (lenguaje común orientado a los negocios) y FORTRAN (traductor de fórmulas), que reemplazaron los oscuros códigos de máquina binarios con palabras, oraciones y fórmulas matemáticas, lo que facilitó la programación informática. Nacieron nuevas profesiones (programadores, analistas y expertos en sistemas informáticos) y toda una industria del software.
La tercera generación de ordenadores con circuitos integrados (1964-1971)
Aunque el transistor supone una mejora significativa con respecto al tubo de electrones, todavía genera mucho calor, lo que puede dañar el Componentes internos de la computadora. En 1958, el ingeniero de Texas Instruments, Jack Kilby, inventó el circuito integrado, que combina tres componentes electrónicos en un pequeño chip de silicio. Los científicos integran más componentes en un chip semiconductor. Como resultado, las computadoras se hicieron más pequeñas, consumían menos energía y eran más rápidas. Los avances durante este período también incluyeron el uso de sistemas operativos, que permitían a las computadoras ejecutar muchos programas diferentes simultáneamente bajo el control y coordinación de un programa central.
La cuarta generación de computadoras con circuitos integrados a gran escala (1971-presente)
Después de la aparición de los circuitos integrados, la única dirección de desarrollo es expandir la escala. Los circuitos integrados a gran escala (LSI) pueden acomodar cientos de componentes en un solo chip. En la década de 1980, los circuitos integrados a muy gran escala (VLSI) contenían cientos de miles de componentes en un chip, y más tarde (ULSI) ampliaron este número a millones. Se pueden acomodar tantos componentes en un chip del tamaño de una moneda, lo que permite que las computadoras sigan disminuyendo en tamaño y precio al tiempo que aumentan la funcionalidad y la confiabilidad.
A mediados de la década de 1970, los fabricantes de computadoras comenzaron a llevar computadoras a los consumidores comunes.
En ese momento, las minicomputadoras tenían paquetes de software fáciles de usar, programas para profanos y los programas de procesamiento de textos y hojas de cálculo más populares. Los pioneros en este campo son Commodore, Radio Shack y Apple Computer.
En 1981, IBM lanzó el ordenador personal (PC) para uso doméstico, de oficina y escolar. En la década de 1980, la competencia de las computadoras personales hizo que los precios siguieran bajando y aumentara el número de microcomputadoras que se podían conservar. Las computadoras continúan reduciéndose de tamaño, desde escritorios hasta regazos y palmas. La línea Apple Macintosh, que competía con la IBM PC, se lanzó en 1984. Macintosh proporciona una interfaz gráfica amigable que los usuarios pueden operar fácilmente con el mouse.