Unidad de procesamiento de gráficos
1970seditar
Las placas del sistema Arcade han estado utilizando circuitos gráficos especializados desde la década de 1970. ,
se utilizó un circuito de cambio de barril especializado para ayudar a la CPU a animar los gráficos de framebuffer para varios juegos arcade de la década de 1970 de Midway y Taito, como Gun Fight (1975), Sea Wolf (1976) y Space Invaders (1978). El sistema Arcade Namco Galaxian en 1979 utilizó hardware gráfico especializado que soportaba colores RGB, sprites multicolores y fondos tilemap. El hardware Galaxian fue ampliamente utilizado durante la edad de oro de los videojuegos arcade, por compañías de videojuegos como Namco, Centuri, Gremlin, Irem, Konami, Midway, Nichibutsu, Sega y Taito.,
microprocesador Atari ANTIC en una placa base Atari 130XE
en el mercado doméstico, El Atari 2600 en 1977 utilizó un cambiador de vídeo llamado Adaptador de interfaz de televisión. Los ordenadores Atari de 8 bits (1979) tenían ANTIC, un procesador de vídeo que interpretaba instrucciones que describían una «lista de visualización»-la forma en que las líneas de escaneo se asignan a los modos de mapa de bits o caracteres específicos y donde se almacena la memoria (por lo que no era necesario que hubiera un búfer de fotogramas contiguos)., 6502 las subrutinas de código máquina se pueden activar en las líneas de escaneo configurando un bit en una instrucción de Lista de visualización. ANTIC también soportó desplazamiento vertical y horizontal suave independiente de la CPU.
1980sEdit
NEC µPD7220A
El NEC µPD7220 fue la primera implementación de un procesador de pantalla de gráficos para PC como un único chip de circuito integrado de integración a gran escala (LSI), lo que, Tarjetas gráficas de video de alto rendimiento como las de la tecnología visual número nueve., Se convirtió en la GPU más conocida hasta mediados de la década de 1980. fue el primer procesador de pantalla de gráficos VLSI (very large-scale integration) Metal-oxide-semiconductor (NMOS) totalmente integrado para PC, compatible con una resolución de hasta 1024×1024, y sentó las bases para el emergente mercado de gráficos para PC. Fue utilizado en varias tarjetas gráficas, y fue licenciado para clones como el Intel 82720, la primera de las unidades de procesamiento de gráficos de Intel., Los juegos de arcade de Williams Electronics Robotron 2084, Joust, Sinistar y Bubbles, todos lanzados en 1982, contienen chips blitter personalizados para operar en mapas de bits de 16 colores.
en 1984, Hitachi lanzó ARTC HD63484, el primer Procesador gráfico CMOS importante para PC. El ARTC era capaz de mostrar una resolución de hasta 4K cuando estaba en modo monocromo, y fue utilizado en una serie de tarjetas gráficas y terminales de PC durante la década de 1980. en 1985, el Commodore Amiga presentó un chip gráfico personalizado, con una unidad blitter que aceleraba la manipulación de mapas de bits, el dibujo de líneas y las funciones de relleno de área., También se incluye un coprocesador con su propio conjunto de instrucciones simples, capaz de manipular los registros de hardware de gráficos en sincronización con el haz de video (por ejemplo, para conmutadores de paleta por línea de exploración, multiplexación de Sprites y ventanas de hardware), o conducir el blitter. En 1986, Texas Instruments lanzó el TMS34010, el primer Procesador gráfico totalmente programable. Podía ejecutar código de propósito general, pero tenía un conjunto de instrucciones orientado a gráficos. Durante 1990-1992, este chip se convirtió en la base de las tarjetas aceleradoras de Windows de Texas Instruments Graphics Architecture («TIGA»).,
el adaptador de micro canal IBM 8514, con complemento de memoria.
en 1987, el sistema gráfico IBM 8514 fue lanzado como una de las primeras tarjetas de vídeo compatibles con IBM PC para implementar primitivas 2D de función fija en hardware electrónico. Sharp » s X68000, lanzado en 1987, utilizó un chipset de gráficos personalizados con una paleta de colores de 65.536 y soporte de hardware para sprites, desplazamiento y múltiples campos de juego, sirviendo eventualmente como una máquina de desarrollo para la placa de arcade CP System de Capcom., Fujitsu más tarde compitió con la computadora FM Towns, lanzada en 1989 con soporte para una paleta de colores completa de 16.777.216. En 1988, las primeras tarjetas gráficas 3D poligonales dedicadas se introdujeron en las arcadas con el Namco System 21 y el Taito Air System.
la sección VGA en la placa base en IBM PS/55
el estándar de visualización VGA (Video Graphics Array) patentado de IBM se introdujo en 1987, con una resolución máxima de 640×480 píxeles., En noviembre de 1988, NEC Home Electronics anunció su creación de la Video Electronics Standards Association (VESA) para desarrollar y promover un estándar de pantalla de ordenador Super VGA (SVGA) como sucesor del estándar de pantalla VGA propietario de IBM. Super VGA habilitó resoluciones de visualización de gráficos de hasta 800×600 píxeles, un aumento del 36%.
1990sEdit
Voodoo3 2000 AGP card
en 1991, S3 Graphics presentó el S3 86C911, que sus diseñadores nombraron después del Porsche 911 como una indicación del aumento del rendimiento lo prometió., El 86C911 generó una gran cantidad de imitadores: en 1995, Todos los principales fabricantes de chips gráficos para PC habían agregado soporte de aceleración 2D a sus chips. En ese momento, los aceleradores de Windows de función fija habían superado a los costosos coprocesadores de gráficos de propósito general en el rendimiento de Windows, y estos coprocesadores se desvanecieron del mercado de PC.
a lo largo de la década de 1990, la aceleración GUI 2D continuó evolucionando. A medida que las capacidades de fabricación mejoraron, también lo hizo el nivel de integración de los chips gráficos., Las interfaces de programación de aplicaciones (API) adicionales llegaron para una variedad de tareas, como la biblioteca de gráficos WinG de Microsoft para Windows 3.x, y su posterior interfaz DirectDraw para la aceleración por hardware de juegos 2D dentro de Windows 95 y posteriores.
a principios y mediados de la década de 1990, los gráficos 3D en tiempo real se estaban volviendo cada vez más comunes en los juegos de arcade, computadoras y consolas, lo que llevó a una creciente demanda pública de gráficos 3D acelerados por hardware., Los primeros ejemplos de hardware de gráficos 3D del mercado masivo se pueden encontrar en tableros de sistemas arcade como el Sega Model 1, Namco System 22 y Sega Model 2, y las consolas de videojuegos de quinta generación como Saturn, PlayStation y Nintendo 64. Los sistemas Arcade como el Sega Model 2 y Namco Magic Edge Hornet Simulator en 1993 eran capaces de hardware t&l (transform, clipping, and lighting) años antes de aparecer en las tarjetas gráficas de consumo. Algunos sistemas utilizan DSP para acelerar las transformaciones., Fujitsu, que trabajó en el sistema arcade Sega Model 2, comenzó a trabajar en la integración de T& L en una única solución LSI para su uso en computadoras domésticas en 1995; el Fujitsu Pinolite, el primer procesador de geometría 3D para computadoras personales, lanzado en 1997. El primer Hardware T&L GPU en consolas de videojuegos domésticas fue el coprocesador Reality de Nintendo 64, lanzado en 1996., En 1997, Mitsubishi lanzó el 3DPRO / 2MP, una GPU con todas las funciones capaz de transformación e iluminación, para estaciones de trabajo y escritorios Windows NT; ATi lo utilizó para su tarjeta gráfica FireGL 4000, lanzada en 1997.
El término «GPU» fue acuñado por Sony en referencia a la GPU de 32 bits de Sony (diseñada por Toshiba) en la consola de videojuegos PlayStation, lanzada en 1994.
en el mundo de Las PC, los primeros intentos fallidos de chips gráficos 3D de bajo costo fueron el S3 ViRGE, ATI Rage y Matrox Mystique. Estos chips eran esencialmente aceleradores 2D de generación anterior con características 3D atornilladas., Muchos incluso eran compatibles con los chips de la generación anterior para facilitar la implementación y un costo mínimo. Inicialmente, los gráficos 3D de rendimiento solo eran posibles con tarjetas discretas dedicadas a acelerar funciones 3D (y carentes de aceleración GUI 2D por completo) como el PowerVR y el 3dfx Voodoo. Sin embargo, a medida que la tecnología de fabricación continuaba progresando, el video, la aceleración GUI 2D y la funcionalidad 3D se integraron en un solo chip. Los chipsets Verite de Rendition fueron de los primeros en hacer esto lo suficientemente bien como para ser dignos de mención., En 1997, Rendition fue un paso más allá al colaborar con Hercules y Fujitsu en un proyecto «Thriller Conspiracy» que combinaba un procesador de geometría Pinolite Fujitsu FXG-1 con un núcleo Vérité V2200 para crear una tarjeta gráfica con un motor T&l años antes de la GeForce 256 de Nvidia. Esta tarjeta, diseñada para reducir la carga colocada sobre la CPU del sistema, nunca llegó al mercado.,
OpenGL apareció a principios de los 90 como una API gráfica profesional, pero originalmente sufrió problemas de rendimiento que permitieron que la API de Glide interviniera y se convirtiera en una fuerza dominante en el PC a finales de los 90. Las implementaciones de software de OpenGL fueron comunes durante este tiempo, aunque la influencia de OpenGL finalmente llevó a un soporte de hardware generalizado. Con el tiempo, surgió una paridad entre las características ofrecidas en hardware y las ofrecidas en OpenGL., DirectX se hizo popular entre los desarrolladores de juegos de Windows a finales de los 90. A diferencia de OpenGL, Microsoft insistió en proporcionar un estricto soporte de hardware uno a uno. El enfoque hizo DirectX menos popular como una API gráfica independiente inicialmente, ya que muchas GPU proporcionaron sus propias características específicas, de las que las aplicaciones OpenGL existentes ya podían beneficiarse, dejando DirectX a menudo una generación atrás. (Ver: comparación de OpenGL y Direct3D.,)
con el tiempo, Microsoft comenzó a trabajar más estrechamente con los desarrolladores de hardware, y comenzó a apuntar a las versiones de DirectX para que coincidieran con las del hardware de gráficos de soporte. Direct3D 5.0 fue la primera versión de la creciente API en obtener una adopción generalizada en el mercado de los juegos, y compitió directamente con muchas bibliotecas de gráficos más específicas de hardware, a menudo propietarias, mientras que OpenGL mantuvo un fuerte seguimiento. Direct3D 7.,0 introdujo soporte para transformación acelerada por hardware e iluminación (t& L) para Direct3D, mientras que OpenGL ya tenía esta capacidad expuesta desde su inicio. Las tarjetas aceleradoras 3D se movieron más allá de ser simples rasterizadores para agregar otra etapa de hardware significativa a la canalización de renderizado 3D. La Nvidia GeForce 256 (también conocida como NV10) fue la primera tarjeta de nivel de Consumidor lanzada en el mercado con aceleración de hardware t&L, mientras que las tarjetas 3D profesionales ya tenían esta capacidad., La transformación de Hardware y la iluminación, ambas características ya existentes de OpenGL, llegaron al hardware de nivel de Consumidor en los años 90 y sentaron el precedente para las unidades de sombreado de píxeles y vértices posteriores, que eran mucho más flexibles y programables.
de 2000 a 2010Editar
Nvidia fue la primera en producir un chip capaz de sombreado programable; el GeForce 3 (llamado NV20). Cada píxel ahora podría ser procesado por un «programa» corto que podría incluir texturas de imagen adicionales como entradas, y cada vértice geométrico también podría ser procesado por un programa corto antes de que fuera proyectado en la pantalla., Utilizado en la consola Xbox, compitió con la PlayStation 2, que usaba una unidad vectorial personalizada para el procesamiento de vértices acelerado por hardware; comúnmente referido a VU0/VU1. Las primeras encarnaciones de los motores de ejecución de sombreadores utilizados en Xbox no eran de propósito general y no podían ejecutar código de píxel arbitrario. Los vértices y píxeles fueron procesados por diferentes unidades que tenían sus propios recursos con sombreadores de píxeles que tenían restricciones mucho más estrictas (ya que se ejecutan a frecuencias mucho más altas que con los vértices)., Los motores de sombreado de píxeles eran en realidad más parecidos a un bloque de funciones altamente personalizable y realmente no»ejecutaban «un programa. Muchas de estas disparidades entre el sombreado de vértices y píxeles no se abordaron hasta mucho más tarde con el modelo de sombreado Unificado.
en octubre de 2002, con la introducción del ATI Radeon 9700 (también conocido como R300), el primer acelerador Direct3D 9.0, pixel y vertex shaders del mundo podría implementar looping y matemáticas de punto flotante largas, y se estaban convirtiendo rápidamente en tan flexibles como las CPU, pero órdenes de magnitud más rápido para las operaciones de matriz de imágenes., El sombreado de píxeles se utiliza a menudo para el mapeo de topetones, que agrega textura, para hacer que un objeto se vea brillante, opaco, áspero o incluso redondo o extruido.
con la introducción de la serie Nvidia GeForce 8, y luego las nuevas GPU genéricas de unidades de procesamiento de flujo se convirtieron en dispositivos informáticos más generalizados., Hoy en día, las GPU paralelas han comenzado a hacer incursiones computacionales contra la CPU, y un subcampo de investigación, denominado GPU Computing o GPGPU para computación de Propósito General en GPU, ha encontrado su camino en campos tan diversos como el aprendizaje automático, la exploración petrolera, el procesamiento científico de imágenes, el álgebra lineal, las estadísticas, la reconstrucción 3D e incluso la determinación de precios de opciones de acciones. GPGPU en ese momento fue el precursor de lo que ahora se llama un sombreador de cómputo (e. g., CUDA, OpenCL, DirectCompute) y en realidad abusó del hardware hasta cierto punto al tratar los datos pasados a los algoritmos como mapas de textura y ejecutar algoritmos dibujando un triángulo o un cuadrante con un sombreador de píxeles apropiado. Esto obviamente implica algunos gastos generales, ya que las unidades como el convertidor de escaneo están involucradas donde no son realmente necesarias (ni las manipulaciones de triángulos son una preocupación, excepto para invocar el sombreador de píxeles). A lo largo de los años, el consumo de energía de las GPU ha aumentado y para gestionarlo se han propuesto varias técnicas.,
la plataforma Cuda de Nvidia, introducida por primera vez en 2007, fue el primer modelo de programación ampliamente adoptado para la computación GPU. Más recientemente, OpenCL ha recibido un amplio apoyo. OpenCL es un estándar abierto definido por el Grupo Khronos que permite el desarrollo de código tanto para GPU como para CPU con énfasis en la portabilidad. Las soluciones OpenCL son compatibles con Intel, AMD, Nvidia y ARM, y según un informe reciente de Evan Data, OpenCL es la plataforma de desarrollo GPGPU más utilizada por los desarrolladores tanto en los EE.,
2010 para presentareditar
En 2010, Nvidia comenzó una asociación con Audi para impulsar sus coches» dashboards. Estas GPU Tegra estaban alimentando el» tablero de instrumentos » de los coches, ofreciendo una mayor funcionalidad a los sistemas de navegación y entretenimiento de los coches. Los avances en la tecnología de GPU en los automóviles han ayudado a impulsar la tecnología de conducción autónoma. Las tarjetas de la serie Radeon HD 6000 de AMD fueron lanzadas en 2010 y en 2011, AMD lanzó sus GPU discretas de la serie 6000M para ser utilizadas en dispositivos móviles. La línea Kepler de Tarjetas gráficas de Nvidia salió en 2012 y se utilizaron en las tarjetas Nvidia » S 600 y 700 series., Una característica de esta nueva microarquitectura de GPU incluía GPU boost, una tecnología que ajusta la velocidad de reloj de una tarjeta de video para aumentarla o disminuirla de acuerdo con su consumo de energía. La microarquitectura de Kepler se fabricó en el proceso de 28 nm.
PS4 y Xbox One fueron lanzados en 2013, ambos usan GPU basadas en Radeon HD 7850 y 7790 de AMD. La línea Kepler de Nvidia fue seguida por la línea Maxwell, fabricada en el mismo proceso., Los chips de 28 nm de Nvidia fueron fabricados por TSMC, la Compañía de fabricación de semiconductores de Taiwán, que estaba fabricando utilizando el proceso de 28 nm en ese momento. En comparación con la tecnología de 40 nm del pasado, este nuevo proceso de fabricación permitió un aumento del 20 por ciento en el rendimiento, mientras que consume menos energía. Los auriculares de Realidad Virtual tienen requisitos de sistema muy altos. Los fabricantes de auriculares VR recomendaron el GTX 970 y el R9 290X o superior en el momento de su lanzamiento. Pascal es la próxima generación de Tarjetas gráficas de consumo de Nvidia lanzado en 2016., La serie GeForce 10 de tarjetas están bajo esta generación de tarjetas gráficas. Se fabrican utilizando el proceso de fabricación de 16 nm que mejora las microarquitecturas anteriores. Nvidia ha lanzado una tarjeta para no consumidores bajo la nueva arquitectura Volta, la Titan V. Los cambios de la Titan XP, la tarjeta de gama alta de Pascal, incluyen un aumento en el número de núcleos CUDA, la adición de núcleos tensor y HBM2., Los núcleos Tensor son núcleos especialmente diseñados para el aprendizaje profundo, mientras que la memoria de alto ancho de banda es una memoria en troquel, apilada y de menor reloj que ofrece un bus de memoria extremadamente amplio que es útil para el propósito previsto del Titan V. Para enfatizar que la Titan V no es una tarjeta de juego, Nvidia eliminó el sufijo «GeForce GTX» que agrega a las tarjetas de juego de consumo.
El 20 de agosto de 2018, Nvidia lanzó las GPU RTX serie 20 que añaden núcleos de trazado de rayos a las GPU, mejorando su rendimiento en efectos de iluminación. Las GPU Polaris 11 y Polaris 10 DE AMD se fabrican mediante un proceso de 14 nanómetros., Su lanzamiento resulta en un aumento sustancial en el rendimiento por vatio de las tarjetas de video AMD. AMD También ha lanzado la serie de GPU Vega para el mercado de gama alta como competidor de las tarjetas Pascal de gama alta de Nvidia, que también cuentan con HBM2 como la Titan V.
en 2019, AMD lanzó el sucesor de su conjunto de microarquitectura/instrucciones Graphics Core Next (GCN). Apodado como RDNA, la primera línea de productos con la primera generación de RDNA fue la serie Radeon RX 5000 de tarjetas de video, que más tarde se lanzó el 7 de julio de 2019., Más tarde, la compañía anunció que el sucesor de la microarquitectura RDNA sería una actualización. Apodado como RDNA 2, la nueva microarquitectura fue programada para su lanzamiento en el cuarto trimestre de 2020.
AMD presentó la serie Radeon RX 6000, sus tarjetas gráficas RDNA 2 de próxima generación con soporte para trazado de rayos acelerado por hardware en un evento en línea el 28 de octubre de 2020. La línea inicialmente consiste en el RX 6800, RX 6800 XT y RX 6900 XT. El RX 6800 y el 6800 launched se lanzaron el 18 de noviembre de 2020, y el RX 6900 XT se lanzó el 8 de diciembre de 2020., Se espera que las variantes Rx 6700 y RX 6700 XT, que se basa en Navi 22, se lancen en la primera mitad de 2021.
Las Series X Y S de PlayStation 5 y Xbox fueron lanzadas en 2020, ambas usan GPU basadas en la microarquitectura RDNA 2 con ajustes propietarios y diferentes configuraciones de GPU en la implementación de cada sistema.
GPU companiesEdit
Muchas empresas han producido Gpu bajo una serie de nombres de marca. En 2009, Intel, Nvidia y AMD/ATI fueron los líderes en Cuota de mercado, con 49,4%, 27,8% y 20,6% de Cuota de mercado respectivamente., Sin embargo, esos números incluyen las soluciones gráficas integradas de Intel como GPU. Sin contar esos, Nvidia y AMD controlan casi el 100% del mercado a partir de 2018. Sus cuotas de mercado respectivas son del 66% y del 33%. Además, S3 Graphics y Matrox producen GPU.Los teléfonos inteligentes modernos también utilizan principalmente GPU Adreno de Qualcomm, GPU PowerVR de Imagination Technologies y GPU Mali de ARM.