Filosofía del origen de las computadoras

A lo largo de la historia de la humanidad, lo más parecido a una computadora es el ábaco, que en realidad se considera una calculadora porque requiere operación manual. Las computadoras, por otro lado, realizan cálculos automáticamente siguiendo una serie de comandos integrados llamados software.

En el siglo XX, los avances tecnológicos hicieron posibles las computadoras en constante evolución que vemos hoy. Sin embargo, incluso antes de la llegada de los microprocesadores y las supercomputadoras, algunos científicos e inventores famosos ayudaron a sentar las bases de una tecnología que revolucionaría nuestras vidas.

El lenguaje universal utilizado por las computadoras para ejecutar las instrucciones del procesador se originó en el siglo XVII y es una forma de sistema numérico binario. Este sistema fue inventado por el filósofo y matemático alemán Gottfried Wilhelm Leibniz. Es una forma de representar un número decimal utilizando sólo dos dígitos, es decir, el cero y el número 1. Su sistema se inspiró en parte en interpretaciones filosóficas del clásico libro chino El Libro de los Cambios, que entiende el universo en términos de luz y oscuridad, y la dualidad entre hombre y mujer. Aunque su nuevo sistema de codificación no tenía ningún uso práctico en ese momento, Leibniz creía que algún día las máquinas podrían utilizar estas largas cadenas de números binarios.

En 1847, el matemático británico George Boole introdujo un lenguaje algebraico de nuevo diseño basado en el trabajo de Leibniz. Su "álgebra booleana" era en realidad un sistema lógico que utilizaba fórmulas matemáticas para expresar enunciados en lógica. Igualmente importante es que requiere un enfoque binario, donde las relaciones entre diferentes cantidades matemáticas pueden ser verdaderas o falsas, 0 o 1. Aunque el álgebra de Boole no tenía aplicaciones obvias en ese momento, otro matemático, Charles Sanders Pierce, pasó décadas ampliando el sistema y finalmente descubrió en 1886 que se podían utilizar interruptores eléctricos para realizar cálculos. Con el tiempo, la lógica booleana se convertirá en una herramienta del diseño informático. Al matemático británico Charles Babbage se le atribuye el mérito de haber ensamblado la primera computadora mecánica, al menos técnicamente. Sus máquinas de principios del siglo XIX se caracterizaban por la forma en que ingresaban números, memoria, procesador y generaban resultados. Su primer intento con lo que llamó el "motor de diferencias" fue construir la primera computadora del mundo, pero después de gastar más de £65,438 para desarrollarla, el esfuerzo casi fue abandonado. El diseño requiere una máquina para calcular los valores e imprimir automáticamente los resultados en una tabla. Era una manivela y pesaba cuatro toneladas. El proyecto finalmente se interrumpió después de que el gobierno británico cortara la financiación de Babbage.

Esto obligó al inventor a recurrir a otra idea, a la que llamó Motor Analítico, una máquina informática de uso general más ambiciosa que iba más allá de la simple aritmética. Aunque el diseño de Babbage no fue diseñado para ejecutar y crear un dispositivo funcional, su diseño tenía esencialmente la misma estructura lógica que las computadoras electrónicas utilizadas en el siglo XX. Los motores analíticos se encuentran en todas las computadoras como memoria integrada, una forma de almacenamiento de información. También permite que la computadora ejecute un conjunto de instrucciones y bucles que se desvían del orden de secuencia predeterminado, que son secuencias de instrucciones que se ejecutan repetidamente. Aunque Babbage no logró construir una computadora completamente funcional, persistió en su idea. Entre 1847 y 1849 dibujó un diseño nuevo y mejorado para la segunda versión del motor diferencial. Esta vez, calcula hasta 30 dígitos decimales de forma más rápida y sencilla porque requiere menos piezas. Sin embargo, el gobierno británico decidió que no valía la pena la inversión. Al final, el mayor avance de Babbage en el prototipo fue completar una séptima parte de su primer motor diferencial.

En esta temprana era de la informática, hubo algunos logros notables. Inventada en 1872 por el matemático, físico e ingeniero escocés-irlandés Sir William Thomson, la máquina de predicción de mareas se considera la primera computadora analógica moderna. Cuatro años más tarde, su hermano James Thomson propuso el concepto de que las computadoras resolvieran problemas matemáticos conocidos como ecuaciones diferenciales. Llamó a su dispositivo "integrador" y sería la base de un sistema llamado analizador diferencial en los próximos años. En 1927, la científica estadounidense Vaneva Bushsh comenzó a desarrollar la primera máquina con ese nombre y publicó una descripción de su nuevo invento en una revista científica en 1931.

Hasta principios del siglo XX, la computación evolutiva era simplemente un dispositivo mecánico con el que los científicos incursionaban para realizar eficientemente una variedad de cálculos para diversos propósitos. No fue hasta 1936 que finalmente se propuso una teoría unificada sobre qué era una computadora de propósito general y cómo funcionaba. Ese año, el matemático británico Alan Turing publicó un artículo titulado "Sobre la contabilización y las determinaciones aplicadas", en el que describía un dispositivo teórico conocido como "máquina de Turing" que podía realizar una variedad de cálculos matemáticos. En teoría, una máquina así tendría memoria ilimitada y podría leer datos, escribir resultados y almacenar programas de instrucciones.

El ordenador de Turing es un concepto abstracto. El hombre que construiría la primera computadora programable del mundo fue un ingeniero alemán llamado Konrad Zuzer. Su primer intento de desarrollar una computadora electrónica, la Z1, fue una computadora binaria que leía instrucciones de una película perforada de 35 mm. El problema era que la tecnología no era fiable, por lo que posteriormente introdujo el Z2, un dispositivo similar que utilizaba circuitos de relés electromecánicos. Sin embargo, fue mientras montaba su tercer modelo cuando todo salió bien. El Z3 se introdujo en 1941 y era más rápido, más confiable y más capaz de realizar cálculos complejos. Pero la gran diferencia es que las instrucciones se almacenan en una cinta externa, lo que lo convierte en un sistema controlado por programa totalmente operativo. Quizás lo más notable es que Chuze hizo gran parte del trabajo por su cuenta. Nunca supo que Z3 era Turing completo o, en otras palabras, que podía resolver cualquier problema matemático computable, al menos en teoría. Tampoco estaba al tanto de otros proyectos similares que se estuvieran llevando a cabo al mismo tiempo en otras partes del mundo. El más notable fue el Mark I de la Universidad de Harvard, patrocinado por IBM, lanzado en 1944. Más prometedores, sin embargo, fueron los avances en sistemas electrónicos informáticos, como el prototipo informático británico Colossus de 1943. La primera computadora electrónica de propósito general completamente operativa entró en funcionamiento en la Universidad de Pensilvania en 1946.

El siguiente gran salto en los proyectos informáticos fue la tecnología informática. El matemático húngaro John von Neumann preguntó acerca de un proyecto informático que sentó las bases para las computadoras con programas almacenados. En este momento, los programas fijos de la computadora deben reajustarse manualmente para cambiar sus operaciones funcionales, como realizar cálculos y procesamiento de textos. Por ejemplo, Chu Ze pasó varios días reprogramando. Idealmente, Turing sugirió almacenar el programa en la memoria, lo que permitiría a la computadora modificarlo. El concepto de Von Neumann, redactado en 1945, proporcionó un marco viable para el cálculo de programas almacenados. Sus artículos publicados serán ampliamente difundidos entre los grupos de investigación que trabajan en diversos diseños de computadoras. En 1948, un equipo británico presentó la Manchester Small Laboratory Machine, la primera computadora que ejecutaba un programa almacenado basado en la arquitectura von Neumann. La Manchester Machine, apodada "The Baby", fue una computadora experimental y la predecesora de la Manchester Mark I. Electronic Data Computer, que según von Neumann fue diseñada originalmente para una computadora de datos electrónicos y no se completó hasta 1949.

Los primeros ordenadores modernos eran completamente diferentes a los productos comerciales que utilizan los consumidores actuales. Son dispositivos delicados e incómodos que a menudo ocupan habitaciones enteras. También absorben mucha energía y tienen muchos errores. Debido a que estas primeras computadoras usaban pesados ​​tubos de vacío, los científicos querían aumentar la velocidad de procesamiento o tenían que encontrar una habitación más grande o idear una alternativa. Afortunadamente, este avance tan necesario ya está en marcha. En 1947, un grupo de científicos de los Laboratorios Bell desarrolló una nueva tecnología llamada transistor de contacto puntual. Al igual que los tubos de vacío, los transistores amplifican la corriente eléctrica y pueden usarse como interruptores. Pero lo más importante es que son mucho más pequeños (aproximadamente del tamaño de una pastilla), más confiables y consumen mucha menos energía. * * * Los inventores John Bardeen, Walter Branden y William Shockley ganarían finalmente el Premio Nobel de Física en 1956.

Mientras Bardeen y Bratton continuaban con sus esfuerzos de investigación, Shockley se dedicó a seguir desarrollando y comercializando la tecnología de transistores. El primer empleado de su nueva empresa fue un ingeniero eléctrico llamado Robert Noyce, quien finalmente se separó y formó su propia empresa, Fairchild Camera and Instrumentation Division de Fairchild Semiconductor.

En ese momento, Noyce estaba integrando transistores sin costura y otros componentes en circuitos integrados, que ensamblaban a mano. Jack Kilby, ingeniero de Texas Instruments, tuvo la misma idea y finalmente solicitó una patente. Pero el diseño de Noyce sería ampliamente adoptado.

Entre ellos, el impacto más importante de los circuitos integrados es allanar el camino para una nueva era de la informática personal. Con el tiempo, abre la posibilidad de ejecutar procesos: millones de impresiones de energía en todos los chips del circuito. Básicamente, hace que nuestros omnipresentes dispositivos portátiles sean más potentes que las primeras computadoras.