Claude Shannon (1916-2001) nació el 30 de abril de 1916 en Gaylord, Michigan, Estados Unidos. En aquel momento, la ciudad tenía sólo 3.000 habitantes. El padre de Shannon es el juez de la ciudad y su madre es la directora de la escuela secundaria de la ciudad. Creció en un ambiente bien educado, pero sus padres parecen haber tenido menos influencia científica sobre él que su abuelo. El abuelo de Shannon era un granjero e inventor que inventó la lavadora y muchas máquinas agrícolas, lo que tuvo un impacto directo en Shannon. Además, la familia Shannon tiene un parentesco lejano con el gran inventor Thomas Alva Edison (1847-1931).
Las dos contribuciones principales de Shannon: una es el concepto de teoría de la información y entropía de la información; la otra es la lógica simbólica y la teoría del cambio. La teoría de la información de Shannon contribuyó decisivamente a definir el concepto de cantidad de información.
Shannon obtuvo una licenciatura en matemáticas e ingeniería eléctrica de la Universidad de Michigan en 1936 y luego ingresó a la escuela de posgrado en el Instituto Tecnológico de Massachusetts. Shannon obtuvo una maestría en ingeniería eléctrica del MIT en 1938. El título de la tesis de maestría es Análisis simbólico de circuitos de conmutación y relés. En ese momento, había notado la similitud entre los circuitos de conmutación telefónica y el álgebra booleana, es decir, el "verdadero" y el "falso" del álgebra booleana correspondían al "encendido" y "apagado" del sistema de circuitos, ambos representados por 1 y 0. Así que utilizó el álgebra booleana para analizar y optimizar circuitos de conmutación, sentando las bases teóricas de los circuitos digitales. Universidad de Harvard
El profesor Howard Gardner dijo: "Esta puede ser la tesis de maestría más importante y famosa de este siglo.
En 1940, Shannon recibió el MIT en matemáticas de la universidad, pero Su tesis doctoral fue sobre genética humana, titulada "El álgebra de la genética teórica", lo que indica que Shannon tenía una amplia gama de intereses y luego publicó muchos artículos influyentes en diferentes disciplinas. También dedicó parte de su tiempo a estudiar el analizador diferencial con el profesor. Winnipeg Bush. Este analizador fue uno de los primeros ordenadores de simulación mecánica utilizados para obtener soluciones numéricas de ecuaciones diferenciales ordinarias. En 1941, Shannon publicó "El analizador diferencial", escribió: "La mayoría de los resultados se dan en forma de teoremas demostrados". . Lo más importante es lidiar con algunas condiciones, algunas condiciones pueden generar funciones de una o más variables, algunas condiciones pueden permitir resolver ecuaciones diferenciales ordinarias. También se dan algunas notas, y se dan la aproximación de la función, la aproximación de la tasa de ajuste y el método de control automático de la tasa. "
En 1941, Shannon ingresó a Bell Telephone Company y trabajó en Bell Labs hasta 1972, de 24 a 55, 31 años. Shannon colaboró con John Riordan y publicó un artículo en Paper on double terminal numers in series and Redes paralelas en 1942. Este artículo promovió la teoría del artículo de McMahon en "Electrician" en 1892. Shannon publicó "La teoría matemática de la comunicación" en 1948 y fundó la teoría de la información. Durante la Segunda Guerra Mundial, el Dr. Shannon también fue un famoso descifrador de códigos. (que recuerda al Dr. Turing, que era cuatro años mayor que él). Su equipo de descifrado en Bell rastreó principalmente aviones y cohetes alemanes, especialmente la guerra relámpago de cohetes alemanes contra los británicos 65438-0949, Shannon publicó otro artículo importante "Comunicación". Teoría de los sistemas de seguridad" basada en esta práctica de trabajo, su importancia es transformar el concepto de comunicación de seguridad del arte a la ciencia.
La característica importante de la teoría de Shannon es el concepto de Entropía, que demuestra que la entropía es igual a la incertidumbre de la información. La entropía fue introducida una vez por Boltzmann en la segunda ley de la termodinámica, y podemos entenderla como el grado de desorden en el movimiento de las moléculas. Por ejemplo, en el procesamiento de información china, la entropía de información promedio estática de los caracteres chinos es relativamente grande, que es de 9,65 bits para el chino y de 4,03 bits para el inglés. Esto muestra que la complejidad del chino es mayor que la del inglés. y conciso, pero también es difícil de procesar. Una gran entropía de la información significa una gran incertidumbre. Por lo tanto, debemos realizar una investigación en profundidad y buscar avances profundos en el procesamiento de la información china. No podemos creer ciegamente que los caracteres chinos son los más bellos del mundo. . Texto, llegando así a la conclusión errónea de que los caracteres chinos son los más fáciles de manejar.
Como todos sabemos, la masa, la energía y la información son tres cantidades muy importantes. La gente sabe desde hace mucho tiempo que utilizan básculas o balanzas. para medir la calidad de la materia, sin embargo, la relación entre calor y trabajo sólo quedó clara a mediados del siglo XIX con la aclaración del equivalente mecánico del calor y el establecimiento de la ley de conservación de la energía.
La palabra energía es su nombre colectivo, y la medición de la energía se soluciona mediante la aparición de nuevas unidades como calorías y julios. Sin embargo, el conocimiento de las palabras, los números, las imágenes y los sonidos existe desde hace miles de años. Pero cuáles son sus nombres comunes y cómo unificar las medidas no se propuso correctamente hasta finales de 2019 y mucho menos cómo solucionarlos.
A principios del siglo XX, con el desarrollo del telégrafo, el teléfono, la fotografía, la televisión, la radio y el radar, el problema de cómo medir la información en las señales se puso vagamente en la agenda. R.V. H. Harley en 1928 consideró el problema de tomar N símbolos de D símbolos diferentes para formar una palabra. Si cada símbolo tiene la misma probabilidad y se selecciona de forma completamente aleatoria, se pueden obtener DN diferentes palabras. Tome uno específico de estas palabras, correspondiente a una cantidad de información I. Hartley sugirió que la cantidad de información se expresara mediante la cantidad N log D, es decir, I = I = N log D, donde log representa el logaritmo con base 10. . Posteriormente, Weiner, fundador de la cibernética en 1949, también estudió el problema de la medición de información y lo condujo a la segunda ley de la termodinámica. Pero Shannon fue la figura central que dio el modelo matemático básico de transmisión de información. Las docenas de páginas del artículo de Shannon "La teoría matemática de la comunicación" de 65438 a 0948 se convirtieron en un hito en el nacimiento oficial de la teoría de la información. En su modelo matemático de comunicación, planteó explícitamente la cuestión de la medición de la información. Extendió la fórmula de Hartley a situaciones con diferentes probabilidades pi, y obtuvo la famosa fórmula para calcular la entropía de la información h:
H=∑-pi logaritmo pi
Si el cálculo es El logaritmo de log se basa en 2, entonces la entropía de la información calculada está en bits. Palabras como byte, KB, MB y GB, que se utilizan ampliamente en las computadoras y las comunicaciones hoy en día, evolucionaron a partir de bits. La aparición de los "bits" indica que los humanos saben medir la cantidad de información.
La motivación original de Shannon era eliminar el ruido del teléfono. Dio un límite superior a la velocidad de comunicación. Esta conclusión se aplicó primero a los teléfonos, luego a la fibra óptica y ahora a las comunicaciones inalámbricas. Hoy en día es evidente que podemos realizar llamadas al extranjero o llamadas por satélite, lo que está estrechamente relacionado con la mejora de la calidad de los canales de comunicación.
Shannon pasó la mayor parte de su tiempo en Bell Labs y MIT. La gente describe la vida de Shannon. Siempre trabajaba a puerta cerrada durante el día y iba en su monociclo a Bell Labs por la noche. Su colega D. Slepian dijo: "Todos venimos a trabajar durante el almuerzo y después de cenar jugamos juegos de matemáticas en la pizarra, pero Claude rara vez viene. "Siempre trabaja a puerta cerrada. Sin embargo, si quieres encontrarlo, él te ayudará con paciencia. Puede captar la esencia del problema de inmediato. Es un genio. Entre la gente que conozco, sólo uso esta palabra para él. "
Claude Shannon no es particularmente conocido por el público, pero es uno de los pocos científicos que ha hecho posible nuestro mundo con comunicación instantánea. Es miembro de la Academia Nacional de Ciencias, la Academia Nacional de Ingeniería, la Royal Society y miembro de la American Philosophical Society. Recibió numerosos honores y premios como la Medalla Morris de 1949, la Medalla Ballantine de 1955, la Medalla Kelly de 1962, la Medalla Nacional de Ciencias de 1966 y el Jacquard de 1978. Medalla y Premio Fritz de 1983, 650. Recibió numerosos títulos honoríficos.
Tanto los Laboratorios Bell como el MIT consideran a Shannon como el fundador de la era de la teoría de la información y las comunicaciones digitales. " y "apagado" del circuito "falso", está representado por 1 y 0. Este es un vínculo importante entre la teoría y el diseño real del producto.