La historia del desarrollo de las tarjetas gráficas de computadora

Historia del desarrollo de las tarjetas gráficas:

Era de las tarjetas gráficas 1.2D: el origen de las tarjetas gráficas civiles se remonta a la década de 1980. Cuando IBM lanzó su computadora personal en 1981, proporcionó dos tipos de tarjetas gráficas, una era "gráfica monocromática" (MDA para abreviar) y la otra era "gráfica en color" (abreviatura CGA); En 1982, IBM lanzó el MGA (Adaptador de gráficos monocromáticos), también conocida como tarjeta Hercules, que no solo podía mostrar gráficos, sino que también conservaba las funciones del MDA original.

En el proceso de avance de la era 2D a la era 3D, la tarjeta gráfica actual que no se puede ignorar es la Trident 8900/9000. Esto hace que la tarjeta gráfica aparezca como un accesorio independiente en la computadora. la primera vez, en lugar de un chip integrado. Entonces su Trident 9685 es el representante de la tarjeta gráfica 3D de primera generación. Sin embargo, debería ser la GLINT 300SX la que realmente abra la puerta a las tarjetas gráficas 3D. Aunque su funcionalidad 3D es sencilla, supone un hito.

2. Era 1 de las tarjetas gráficas 3D AGP: La gloria de 3D FX

El tiempo ha pasado a 1995, que es definitivamente un año histórico para las tarjetas gráficas. Las tarjetas aceleradoras de gráficos 3D han entrado oficialmente en el horizonte de los jugadores. En ese momento, los juegos acababan de entrar en la era 3D y la aparición de una gran cantidad de juegos 3D obligó a expandir la tarjeta gráfica hasta convertirla en una verdadera tarjeta aceleradora 3D. Y también iniciamos una empresa este año, todo el mundo sabe que sí, es 3Dfx;

En 1995, 3Dfx todavía era una empresa pequeña en ese momento, pero era una empresa de tecnología 3D establecida. Luego lanzó la primera tarjeta aceleradora de gráficos Real 3D de la industria: Voodoo; luego lanzó S3 Virge en 1996, que es una tarjeta gráfica acelerada 3D que admite DirectX e incluye muchas funciones avanzadas de aceleración 3D, como almacenamiento en búfer Z, almacenamiento en búfer doble, sombras y atmosférico. Los efectos y la iluminación se convirtieron en los pioneros de las tarjetas gráficas 3D, logrando la segunda gloria de la tarjeta gráfica S3. Desafortunadamente, después de alcanzar a 3Dfx, la serie S3 Virge no siguió siendo brillante.

1997 fue el año en que aparecieron por primera vez las tarjetas gráficas 3D, y 1998 fue el año en el que surgieron las tarjetas gráficas 3D y la competencia fue feroz. En 1998, el mercado de juegos 3D se disparó y se lanzaron colectivamente una gran cantidad de juegos 3D más sofisticados, lo que hizo que los usuarios y fabricantes tuvieran expectativas de tarjetas gráficas más rápidas y potentes.

Aunque 1998 fue un año glorioso para Voodoo2, otros fabricantes también contaban con algunas obras clásicas. El I740 de Intel se lanzó con el chipset 440BX de Intel. Nvidia lanzó el TNT de Riva para bloquear Voodoo2, que ha estado vagando en el mundo de Apple, y también lanzó una tarjeta gráfica llamada Rage Pro, que es un poco más rápida que Voodoo.

Tres. 3D AGP Graphics Era ii: El auge de Nvidia

A finales de 1999, el mercado de las tarjetas gráficas floreció y este año el mercado se deshizo del monopolio de 3Dfx. Debido a errores estratégicos, 3Dfx perdió su mercado. Lanzó Voodoo3, equipado con una memoria de vídeo de 16 Mb y compatible con reproducción de 16 colores. Aunque la calidad de la imagen es impecable, por supuesto el alto precio y los estándares incompatibles con el mercado no pueden ocultar su declive. A finales de siglo, la gloria de las tarjetas gráficas quedó en manos de Nvidia.

En el mercado de tarjetas gráficas de 1999, Matrox MGA G400 era inolvidable, con una capacidad de memoria de 16mb/32mb, soporte para AGP 2X/4X, grandes texturas y renderizado de 32 bits, etc., que eran Técnica muy popular y popular en la industria en ese momento con seguridad. Además, la exclusiva y hermosa tecnología de mapeo de golpes de hardware EMBM, que crea una sensación de golpe perfecta y puede lograr efectos dinámicos de luces y sombras, realmente ha enloquecido a innumerables jugadores. En términos de 3D, su velocidad e imagen están básicamente entre Voodoo3 y TNT2, y las capacidades de reproducción de DVD del G400 son excelentes. Sin embargo, debido al precio y su énfasis en los mercados OEM y profesionales, ¡no ocupa una gran proporción en el mercado de tarjetas gráficas civiles!

De 1999 a 2000, NVIDIA finalmente irrumpió. A finales de 1999, se lanzó la revolucionaria tarjeta gráfica GeForce 256, derrotando por completo a 3Dfx. GeForce 256, con nombre en código NV10, admite mapeo de entornos cúbicos, T&L completo de hardware (transformación y amplificación, iluminación) y los datos originalmente calculados por la CPU se entregan directamente al chip de pantalla para su procesamiento, lo que libera en gran medida la CPU y mejora la rendimiento del chip.

La GeForce256 tiene cuatro canales de textura de gráficos, cada uno de los cuales procesa dos texturas de píxeles en un ciclo. La frecuencia de funcionamiento es de 1,20 MHz y la velocidad máxima puede alcanzar los 480 megapíxeles/seg. Admite SDRAM y DDR RAM; los productos que utilizan DDR pueden utilizar mejor el rendimiento de GeForce256. Su desventaja es que utiliza un proceso de 0,22 nm, que genera una gran cantidad de calor en comparación con otros.

En 2000, nVidia desarrolló la tarjeta aceleradora de gráficos 3D de quinta generación, Geforce 2, utilizando un proceso de 0,18 nm, que no sólo redujo significativamente la generación de calor, sino que también aumentó la frecuencia de funcionamiento de Geforce 2 a 200 MHz. . Geforce 2 tiene cuatro canales de textura de gráficos, cada uno de los cuales procesa dos texturas de píxeles en un solo ciclo, y se utiliza DDR RAM para resolver el problema del ancho de banda insuficiente de la memoria de video. Sobre la base de Geforce 256, Geforce 2 también tiene NSR (NVIDIA Shading Rasterizer), que admite tecnología de procesamiento de sombreado píxel por píxel, S3TC, FSAA, mapeo de relieve Dot-3 y funciones de compensación dinámica de hardware MPEG-2, y es totalmente compatible. Microsoft DirectX 7. Frente a diferentes clasificaciones de mercado, se han lanzado sucesivamente la serie GF2 MX de gama baja y la serie GF2 Pro y GF GTS de gama alta orientada al mercado. Toda la línea de productos convierte a nVidia en un merecido amo de las tarjetas gráficas.

Ahora, el principal competidor de Nvidia, ATI, también confía en la tecnología de T&l para abrir el mercado. Después del fracaso de Leona, ATI también lanzó su propio chip T&L RADEON 256. RADEON también tiene versiones de gama alta y baja como NVIDIA, hardware completo T&L, Dot3 y mapeo de relieve de mapas ambientales, y tiene dos canales de textura, tres texturas pueden ser procesado en consecuencia.

Pero lo más destacable es la tecnología HYPER-Z, que mejora enormemente la velocidad 3D de las tarjetas gráficas RADEON y la acerca a la serie GEFORCE 2. Las tarjetas gráficas ATI también empezaron a dominar el mercado.

Cuatro. 3D AGP Graphics Era iii: NV/ATI presentan un dúo duro.

Después de entrar en 2001, al igual que Intel y AMD en el mercado de procesadores de escritorio, el mercado de tarjetas gráficas evolucionó hasta una situación en la que nVidia y ATI competían por la hegemonía. Nvidia, con su recién lanzada serie Geforce 3, ha conquistado muchos mercados. Geforce 3 Ti 500, Geforce 2 Ti, Geforce 3 Ti y Geforce MX están posicionadas respectivamente en los mercados de nivel medio, alto y bajo. En comparación con las tarjetas gráficas de la serie GeForce 2, la principal innovación técnica de las tarjetas gráficas GeForce 3 es la adición de funciones t&l programables, que pueden proporcionar soporte de hardware para casi todos los efectos de imagen. GeForce 3 tiene un total de canales de 4 píxeles con una tasa de llenado de hasta 800 megapíxeles por segundo. La serie Geforce 3 también cuenta con tecnologías como el procesador de vértices nfiniteFX, el procesador de píxeles nfiniteFX y el sistema anti-aliasing Quincunx.

Como oponente, la serie ATI Radium Dragon 8500/7500 se fabrica mediante un proceso de 0,15 micrones, incluye 60 millones de transistores y utiliza muchas tecnologías nuevas (como Truform y Smartshader). Según la frecuencia de trabajo del núcleo/memoria de la tarjeta gráfica, se divide en diferentes grados: la versión estándar con núcleo/memoria de 275/550MHz, la RADEON 8500LE con núcleo/memoria de 250/500MHz, la versión Ultra con frecuencia de núcleo/memoria 300/600MHz, y el Radium Dragon 7500 de gama media, Radium Dragon 7200 y 7000 de gama baja. Vale la pena mencionar que el Radium Dragon 8500 también admite la tecnología de pantalla de doble cabezal; En 2002, la competencia entre NVIDIA y ATI se hizo más intensa.

Verbo (abreviatura de verbo) era de la tarjeta gráfica PCI-E

En 2005, la plataforma PCI-E ha sido comprendida y aceptada gradualmente por los usuarios comunes. Las tarjetas gráficas han entrado gradualmente en la era de la plataforma PCI-E. Las series Geforce 6200, 6600, 6800 de NVidia y las correspondientes series X300, X700 y X800 de ATI han hecho florecer todo el mercado de pantallas.

Así como AGP reemplazó a PCI, la tendencia de que la interfaz PCI-E reemplace a la interfaz AGP es inevitable. En la era del traspaso, los consumidores también tienen más opciones, AGP o PCI-E. Pero una cosa es segura: las nuevas tecnologías siempre pueden ofrecer a los usuarios efectos de visualización mejores y más rápidos, satisfaciendo el disfrute sensorial estimulante del alma de los jugadores.