Artículos de informática

La primera computadora electrónica del mundo se desarrolló con éxito en la Universidad de Pensilvania en febrero de 1946. Llamado ENIAC, pesa 30 toneladas, cubre un área de 170 metros cuadrados y opera a una velocidad de 5.000 veces por segundo.

Bases de clasificación: rendimiento de la computadora y componentes principales

Una breve discusión sobre la aplicación de los componentes de almacenamiento en el período principal de los dispositivos

1 Tubos de electrones desde 1946 hasta el finales de la década de 1950, científico Todas las operaciones del tubo de cálculo de ingeniería están controladas por la CUP y no existe ningún software del sistema. Generalmente, está escrito en lenguaje máquina y ensamblador.

2 Los transistores se utilizaron en informática científica y procesamiento de datos entre 1958 y 1964, y comenzaron a utilizarse en el control de procesos. Con el software de sistemas se propusieron sistemas operativos y aparecieron lenguajes de alto nivel.

3 Los circuitos integrados pequeños y medianos se utilizaron en diversos campos entre 1965 y 1970, y los sistemas operativos de tiempo compartido y los sistemas operativos en tiempo real aparecieron en los semiconductores.

4 Circuitos integrados a gran escala y muy gran escala 1971 ~ Ahora los semiconductores se han utilizado ampliamente y se están desarrollando hacia la creación de redes y la miniaturización.

(Ya, ya, microordenador, Pentium, 486...)-Cuarta generación (circuito integrado de gran escala, muy grande)

Principios y estructuras de los ordenadores modernos;

¿Feng? Neumann: un científico húngaro-estadounidense que hizo grandes contribuciones al desarrollo de las computadoras y propuso la idea de diseño de "almacenamiento y control de programas". Así funcionan todavía los ordenadores modernos.

Pensamiento:

① Un sistema informático consta de cinco componentes básicos: unidad aritmética, memoria, controlador, dispositivos de entrada y salida, y se especifican las funciones básicas de estos cinco componentes.

②Los datos e instrucciones deben expresarse en binario en las computadoras.

(3) Almacenamiento y control del programa (el programa se almacena en la memoria principal de antemano y la computadora puede recuperar y ejecutar automáticamente las instrucciones una por una sin la intervención del operador.

>En 1958, mi país desarrolló con éxito la primera computadora digital de tubo DSJ-1, la computadora de propósito general a gran escala con transistores de 1965, la computadora electrónica de circuito integrado TQ-16 de 1971 y la computadora digital de propósito general DSJ-165438.

El desarrollo de las microcomputadoras;

La primera microcomputadora fue diseñada por M.E. Hoff de Intel en 1969.

Chip de representación digital del tiempo de generación

El primero generación 1972 Intel8008 de 8 bits

Segunda generación 1973 Intel 8085, M8600 (Motorola) y Z80 (Zilog) de 8 bits

Tercera generación 1978 Intel 8086, M8600 (Motorola) de 16 bits ) y Z8000 (Zilog)

Intel8086 de 32 bits de cuarta generación de 1985, Z8000 (Zilog), HP-32, NS-16032, serie Pentium

Tendencias de desarrollo informático: gigante, Miniaturizado, en red, inteligente Con el rápido desarrollo de la tecnología informática, las computadoras se utilizan cada vez más y cada vez más personas necesitan dominar los conocimientos y el uso básicos de las computadoras. Cada vez más complejas, rápidas y precisas, las computadoras se han convertido en la herramienta más importante para la ofimática y en un asistente y herramienta indispensable para las personas. En resumen, las computadoras son máquinas electrónicas que pueden realizar automáticamente cálculos y operaciones lógicas de alta velocidad. procesar información automáticamente de acuerdo con los programas El proceso general es que los usuarios de computadoras almacenan programas preprogramados en la computadora y luego usan los programas almacenados para comandar y controlar la computadora para realizar automáticamente varias operaciones básicas hasta que se obtengan los resultados de procesamiento esperados. En febrero de 1946 se presentó la primera computadora moderna en los Estados Unidos. Al mismo tiempo, el mundialmente famoso matemático Dr. von Neumann publicó por primera vez "Investigación preliminar sobre la estructura lógica de los dispositivos informáticos motores". Este artículo propuso la teoría del almacenamiento de programas en computadoras electrónicas, que sentó las bases para el diseño. Desde entonces, la informática se ha convertido en la ciencia de más rápido crecimiento en el siglo XX. Fue grande y lento, sentó las bases para el futuro desarrollo de las computadoras. El desarrollo de los circuitos electrónicos sentó las bases materiales y técnicas para el desarrollo de las computadoras.

Como resultado, se han mejorado los dispositivos físicos de las computadoras electrónicas y han surgido cuatro etapas de desarrollo informático, que son lo que llamamos computadoras de primera, segunda, tercera y cuarta generación. La primera generación de computadoras fue la era de las computadoras de tubos y la segunda generación de computadoras fue la era de las computadoras de transistores. Las computadoras de tercera y cuarta generación son computadoras de circuitos integrados, que utilizan principalmente circuitos integrados. A medida que mejoran los componentes de las computadoras, las computadoras tienden a volverse más pequeñas, más rápidas, más baratas y más ampliamente disponibles. Las "computadoras de quinta generación" actualmente en desarrollo no son computadoras de von Neumann, que se acercan más a la forma de pensar de los humanos. Según las clasificaciones internacionales, las computadoras se dividen en supercomputadoras, mainframes, pequeñas supercomputadoras y minicomputadoras según su tamaño y potencia de procesamiento. Las estaciones de trabajo y las microcomputadoras se dividen en seis categorías. Son utilizados por gobiernos, bancos, empresas, escuelas y hogares. Son ampliamente utilizados en la investigación militar, científica, la economía, la cultura y la vida. Al mismo tiempo, pueden realizar informática científica, procesamiento de datos, control automático, enseñanza de diseño, inteligencia artificial, aplicaciones multimedia y redes informáticas, brindando comodidad a nuestra vida y producción. Actualmente, las computadoras pueden procesar texto e imágenes. La información y los datos, como audio y vídeo, están representados por dos símbolos binarios, "0" y "1". El binario es un método de conteo en el sistema de conteo. La representación de valores numéricos en el sistema de conteo contiene dos elementos básicos: el número base y el "peso de bit" de cada bit. El binario tiene sólo dos símbolos numéricos diferentes, de base 2, dos cada uno. El binario tiene dos leyes: operaciones aritméticas y operaciones lógicas. Las operaciones aritméticas se refieren principalmente a operaciones de suma y resta. Es suficiente dominar "cada binario es uno" y "pedir prestado uno para formar dos" y utilizar las reglas de operación de 1 número binario. La cantidad lógica se refiere a los posibles estados de los aspectos positivos y negativos de una cosa. Si algo existe como verdadero y no como falso, su cantidad lógica tiene sólo dos valores: "verdadero" y "falso", y el símbolo 1 representa "verdadero". Las computadoras utilizan notación binaria, ya sean datos numéricos, texto, imágenes, etc. , se utiliza un estándar de codificación unificado en la computadora, que se puede convertir en números binarios para su procesamiento, y luego la computadora convierte esta información en información visual para su visualización. Los estándares comunes de codificación de información incluyen principalmente código BCD, código ASCII y codificación de caracteres chinos. El código BCD utiliza varios dígitos binarios para representar un número decimal. Existen muchos métodos de codificación para códigos BCD y el más utilizado es el código 8421. El código ASCII utiliza codificación binaria de siete bits y puede representar 128 caracteres, incluidos números del 0 al 9, letras y símbolos en inglés, etc. , incluidos 94 caracteres impresos y 34 caracteres no impresos. La codificación de caracteres chinos incluye código estándar nacional, código interno, código de entrada, código de glifo, etc. Estos códigos de información comunes nos brindan comodidad al escribir. Este artículo nos permite comprender la historia del desarrollo informático. Clasificación, características y áreas de aplicación de los ordenadores. Los conocimientos básicos, como el sistema de conteo de cargas por computadora y la representación de codificación de información, nos brindan una nueva comprensión de las computadoras.