Graphics processing unit (Français)

0 Comments
Voir aussi: Video display controller, List of home computers by video hardware, and Sprite (computer graphics)

1970sEdit

Les cartes Système D’Arcade utilisent des circuits graphiques spécialisés depuis les années 1970. au début du matériel de jeu vidéo, la RAM pour les tampons d’images était chère, de sorte que les puces vidéo composaient les données ensemble pendant que l’écran était scanné sur le moniteur.,

un circuit de barrel shifter spécialisé a été utilisé pour aider le CPU à animer les graphismes du framebuffer pour divers jeux d’arcade des années 1970 de Midway et Taito, tels que Gun Fight (1975), Sea Wolf (1976) et Space Invaders (1978). Le système D’arcade Namco Galaxian en 1979 a utilisé du matériel graphique spécialisé prenant en charge la couleur RVB, les sprites multicolores et les arrière-plans tilemap. Le matériel Galaxian a été largement utilisé pendant l’âge d’or des jeux vidéo d’arcade, par des sociétés de jeux telles que Namco, Centuri, Gremlin, Irem, Konami, Midway, Nichibutsu, Sega et Taito.,

microprocesseur Atari ANTIC sur une carte mère Atari 130xe

Sur le marché domestique, L’Atari 2600 en 1977 utilisait un sélecteur vidéo appelé Adaptateur D’Interface de télévision. Les ordinateurs Atari 8 bits (1979) avaient ANTIC, un processeur vidéo qui interprétait les instructions décrivant une « liste d’affichage »-la façon dont les lignes de balayage correspondent à des modes bitmappés ou de caractères spécifiques et où la mémoire est stockée (il n’y avait donc pas besoin d’être un tampon de trame contigu)., 6502 les sous-programmes de code machine peuvent être déclenchés sur les lignes de balayage en définissant un bit sur une instruction de liste d’affichage. ANTIC a également pris en charge le défilement vertical et horizontal lisse indépendant de la CPU.

1980sEdit

NEC µPD7220A

le nec µPD7220 a été la première implémentation d’un processeur D’affichage graphique PC en tant que puce de circuit intégré unique à intégration à grande échelle (LSI), permettant la conception-coût, cartes graphiques vidéo hautes performances telles que celles de Number Nine visual technology., Il est devenu le GPU le plus connu jusqu’au milieu des années 1980. c’était le premier processeur D’affichage graphique entièrement intégré VLSI (very large-scale integration) metal-oxide-semiconductor (NMOS) pour PC, prenant en charge une résolution allant jusqu’à 1024×1024, et a jeté les bases du marché émergent des graphiques pour PC. Il a été utilisé dans un certain nombre de cartes graphiques, et a été autorisé pour les clones tels que le Intel 82720, la première des unités de traitement graphique d »Intel., Les jeux D’arcade Robotron 2084, Joust, Sinistar et Bubbles de Williams Electronics, tous sortis en 1982, contiennent des puces blitter personnalisées pour fonctionner sur des bitmaps 16 couleurs.

en 1984, Hitachi a sorti ARTC HD63484, le premier processeur graphique CMOS majeur pour PC. L’ARTC était capable d’afficher jusqu’à une résolution 4K en mode monochrome, et il a été utilisé dans un certain nombre de cartes graphiques et de terminaux PC à la fin des années 1980. en 1985, Le Commodore Amiga comportait une puce graphique personnalisée, avec une unité blitter accélérant les fonctions de manipulation bitmap, de tracé de lignes et de remplissage de zones., Également inclus est un coprocesseur avec son propre jeu d’instructions simple, capable de manipuler les registres matériels graphiques en synchronisation avec le faisceau Vidéo (par exemple pour les commutateurs de palette par ligne de balayage, le multiplexage sprite et le fenêtrage matériel), ou de conduire le blitter. En 1986, Texas Instruments a sorti le TMS34010, le premier processeur graphique entièrement programmable. Il pouvait exécuter du code à usage général, mais il avait un jeu d’instructions orienté graphique. Au cours des années 1990-1992, cette puce est devenue la base des cartes accélératrices Windows Texas Instruments Graphics Architecture (« TIGA »).,

L’adaptateur micro-canal IBM 8514, avec mémoire complémentaire.

en 1987, le système graphique IBM 8514 a été publié comme l’une des premières cartes vidéo compatibles IBM PC à implémenter des primitives 2D à fonction fixe dans le matériel électronique. Le X68000 de Sharp, sorti en 1987, utilisait un chipset graphique personnalisé avec une palette de couleurs 65,536 et un support matériel pour les sprites, le défilement et plusieurs terrains de jeu, servant éventuellement de machine de développement pour la carte d’arcade CP System de Capcom., Fujitsu a ensuite rivalisé avec L’ordinateur FM Towns, sorti en 1989 avec le support d’une palette de couleurs complète de 16 777 216. En 1988, les premières cartes graphiques 3D polygonales dédiées ont été introduites dans les arcades avec le Namco System 21 et le Taito Air System.

section VGA sur la carte mère dans IBM PS/55

la norme D’affichage VGA (Video Graphics Array) propriétaire D’IBM a été introduite en 1987, avec une résolution maximale de 640×480 pixels., En novembre 1988, NEC Home Electronics a annoncé sa création de la Video Electronics Standards Association (VESA) pour développer et promouvoir une norme D’affichage d’ordinateur Super VGA (SVGA) en tant que successeur de la norme D’affichage VGA propriétaire D’IBM. Résolution d’affichage graphique compatible Super VGA jusqu’à 800×600 pixels, soit une augmentation de 36%.

1990sEdit

carte AGP Voodoo3 2000

en 1991, S3 Graphics a présenté Le S3 86C911, que ses concepteurs ont nommé d’après la Porsche 911 comme une indication de l’augmentation de la performance promis., Le 86C911 a engendré une foule d’imitateurs: en 1995, tous les principaux fabricants de puces graphiques PC avaient ajouté la prise en charge de l’accélération 2D à leurs puces. À ce moment-là, les accélérateurs Windows à fonction fixe avaient dépassé les coprocesseurs graphiques à usage général coûteux en termes de performances Windows, et ces coprocesseurs ont disparu du marché des PC.

tout au long des années 1990, l’accélération de L’interface graphique 2D a continué d’évoluer. À mesure que les capacités de fabrication s’amélioraient, le niveau d’intégration des puces graphiques s’améliorait., Des interfaces de programmation d’applications supplémentaires (API) sont arrivées pour une variété de tâches, telles que la bibliothèque graphique Wing de Microsoft pour Windows 3.x, et leur interface DirectDraw ultérieure pour l’accélération matérielle des jeux 2D dans Windows 95 et versions ultérieures.

Au début et au milieu des années 1990, les graphismes 3D en temps réel deviennent de plus en plus courants dans les jeux d’arcade, d’ordinateur et de console, ce qui entraîne une demande croissante du public pour les graphismes 3D accélérés par le matériel., Les premiers exemples de matériel graphique 3D du marché de masse peuvent être trouvés dans les cartes système d’arcade telles que le Sega Model 1, Namco System 22 et Sega Model 2, et les consoles de jeux vidéo de cinquième génération telles que la Saturn, PlayStation et Nintendo 64. Les systèmes d’Arcade tels que le Sega Model 2 et Namco Magic Edge Hornet Simulator en 1993 étaient capables de matériel T&l (transformation, clipping et éclairage) des années avant d’apparaître dans les cartes graphiques grand public. Certains systèmes utilisaient des DSP pour accélérer les transformations., Fujitsu, qui a travaillé sur le système d’arcade Sega Model 2, a commencé à travailler sur l’intégration de t&L en une seule solution LSI pour les ordinateurs personnels en 1995; Le Fujitsu Pinolite, le premier processeur de géométrie 3D pour les ordinateurs personnels, sorti en 1997. Le premier GPU Matériel t&L sur les consoles de jeux vidéo à domicile était le coprocesseur reality de Nintendo 64, sorti en 1996., En 1997, Mitsubishi a sorti le 3DPRO / 2MP, un GPU complet capable de transformation et d’éclairage, pour les postes de travail et les ordinateurs de bureau Windows NT; ATi l’a utilisé pour sa carte graphique FireGL 4000, sortie en 1997.

Le terme « GPU » a été inventé par Sony en référence au GPU Sony 32 bits (conçu par Toshiba) dans la console de jeu vidéo PlayStation, sorti en 1994.

dans le monde du PC, les premiers essais de puces graphiques 3D à faible coût ont été les S3 ViRGE, ATI Rage et Matrox Mystique. Ces puces étaient essentiellement des accélérateurs 2D de génération précédente avec des fonctionnalités 3D boulonnées., Beaucoup étaient même compatibles pin avec les puces de génération précédente pour faciliter la mise en œuvre et un coût minimal. Initialement, les graphiques 3D performants n’étaient possibles qu’avec des cartes discrètes dédiées à l’accélération des fonctions 3D (et dépourvues entièrement d’accélération graphique 2D) telles que le PowerVR et le 3Dfx Voodoo. Cependant, à mesure que la technologie de fabrication continuait de progresser, la vidéo, l’accélération de L’interface graphique 2D et les fonctionnalités 3D ont toutes été intégrées dans une seule puce. Les chipsets Verite de Rendition ont été parmi les premiers à le faire assez bien pour être dignes de mention., En 1997, Rendition est allé plus loin en collaborant avec Hercules et Fujitsu sur un projet « Thriller Conspiracy » qui combinait un processeur de géométrie Pinolite Fujitsu FXG-1 avec un cœur Vérité V2200 pour créer une carte graphique avec un moteur complet t&l des années avant la GeForce 256 de Nvidia. Cette carte, conçue pour réduire la charge placée sur le processeur du système, n’a jamais été commercialisée.,

OpenGL est apparu au début des années 90 en tant qu’API graphique professionnelle, mais souffrait à l’origine de problèmes de performances qui ont permis à L’API Glide d’intervenir et de devenir une force dominante sur le PC à la fin des années 90. Les implémentations logicielles D’OpenGL étaient courantes à cette époque, bien que L’influence D’OpenGL ait finalement conduit à une prise en charge matérielle généralisée. Au fil du temps, une parité est apparue entre les fonctionnalités offertes dans le matériel et celles offertes dans OpenGL., DirectX est devenu populaire parmi les développeurs de Jeux Windows à la fin des années 90. contrairement à OpenGL, Microsoft a insisté pour fournir un support strict du matériel. L’approche a rendu DirectX moins populaire en tant qu’API graphique autonome au départ, car de nombreux GPU fournissaient leurs propres fonctionnalités spécifiques, dont les applications OpenGL existantes pouvaient déjà bénéficier, laissant DirectX souvent une génération derrière. (Voir: comparaison entre OpenGL et Direct3D.,)

Au fil du temps, Microsoft a commencé à travailler plus étroitement avec les développeurs de matériel, et a commencé à cibler les versions de DirectX pour coïncider avec celles du matériel graphique de soutien. Direct3D 5.0 a été la première version de L’API en plein essor à être largement adoptée sur le marché du jeu, et elle a directement concurrencé de nombreuses bibliothèques graphiques plus spécifiques au matériel, souvent propriétaires, tandis Qu’OpenGL a maintenu une forte adhésion. Direct3D 7.,0 a introduit la prise en charge de la transformation et de l’éclairage accélérés par le matériel (t&L) pour Direct3D, alors Qu’OpenGL avait déjà cette capacité exposée dès sa création. Les cartes accélératrices 3D ont dépassé les simples rastériseurs pour ajouter une autre étape matérielle importante au pipeline de rendu 3D. La Nvidia GeForce 256 (également connue sous le nom de NV10) a été la première carte grand public commercialisée avec une accélération matérielle T&l, Alors que les cartes 3D professionnelles avaient déjà cette capacité., La transformation matérielle et l’éclairage, deux fonctionnalités déjà existantes D’OpenGL, sont arrivés au matériel de niveau consommateur dans les années 90 et ont créé le précédent pour les unités de pixel shader et de vertex shader ultérieures qui étaient beaucoup plus flexibles et programmables.

2000 à 2010Modifier

Nvidia a été le premier à produire une puce capable d’ombrage programmable; la GeForce 3 (nom de code NV20). Chaque pixel pourrait maintenant être traité par un « programme » court qui pourrait inclure des textures d’image supplémentaires comme entrées, et chaque sommet géométrique pourrait également être traité par un programme court avant d’être projeté sur l’écran., Utilisé dans la console Xbox, il était en concurrence avec la PlayStation 2, qui utilisait une unité vectorielle personnalisée pour le traitement accéléré des sommets; communément appelé VU0/VU1. Les premières incarnations de moteurs d’exécution de shader utilisés dans Xbox n’étaient pas à usage général et ne pouvaient pas exécuter de code pixel arbitraire. Les sommets et les pixels ont été traités par différentes unités qui avaient leurs propres ressources avec des shaders de pixels ayant des contraintes beaucoup plus strictes (étant qu’ils sont exécutés à des fréquences beaucoup plus élevées qu’avec les sommets)., Les moteurs d »ombrage de pixels s « apparentaient en fait davantage à un bloc de fonctions hautement personnalisable et n » exécutaient pas vraiment un programme. Beaucoup de ces disparités entre vertex et pixel shading n’ont été abordées que beaucoup plus tard avec le modèle de Shader unifié.

en octobre 2002, avec l’introduction de L’ATI Radeon 9700 (également connu sous le nom de R300), le premier accélérateur Direct3D 9.0 au monde, les shaders de pixels et de vertex pouvaient implémenter des calculs en boucle et en virgule flottante, et devenaient rapidement aussi flexibles que les processeurs, mais des ordres de grandeur plus rapides, Pixel shading est souvent utilisé pour le bump mapping, qui ajoute de la texture, pour rendre un objet brillant, terne, rugueux, ou même rond ou extrudé.

avec L’introduction de la série Nvidia GeForce 8, puis de nouveaux GPU génériques d’unités de traitement de flux sont devenus des dispositifs informatiques plus généralisés., Aujourd’hui, les GPU parallèles ont commencé à faire des percées informatiques contre le processeur, et un sous-domaine de recherche, baptisé GPU Computing ou GPGPU pour General Purpose Computing on GPU, a trouvé son chemin dans des domaines aussi divers que l’apprentissage automatique, l’exploration pétrolière, le traitement d’image scientifique, l’algèbre linéaire, les statistiques, la reconstruction 3D et même GPGPU à l’époque était le précurseur de ce qu’on appelle maintenant un shader de calcul (par exemple, CUDA, OpenCL, DirectCompute) et en fait abusé du matériel dans une certaine mesure en traitant les données transmises aux algorithmes comme des cartes de texture et en exécutant des algorithmes en dessinant un triangle ou un quad avec un pixel shader approprié. Cela implique évidemment des frais généraux car des unités comme le convertisseur de balayage sont impliquées là où elles ne sont pas vraiment nécessaires (les manipulations de triangle ne sont même pas une préoccupation—sauf pour invoquer le pixel shader). Au fil des années, la consommation d’énergie des GPU a augmenté et pour la gérer, plusieurs techniques ont été proposées.,

la plate-forme Cuda de Nvidia, introduite pour la première fois en 2007, était le premier modèle de programmation largement adopté pour L’informatique GPU. Plus récemment, OpenCL est devenu largement soutenu. OpenCL est un standard ouvert défini par le groupe Khronos qui permet le développement de code pour les GPU et les Processeurs en mettant l’accent sur la portabilité. Les solutions OpenCL sont prises en charge par Intel, AMD, Nvidia et ARM, et selon un rapport récent de Evan »s Data, OpenCL est la plate-forme de développement GPGPU la plus utilisée par les développeurs aux États-Unis et en Asie-Pacifique.,

2010 à présentemodifier

en 2010, Nvidia a commencé un partenariat avec Audi pour alimenter les tableaux de bord de leurs voitures. Ces GPU Tegra alimentaient le tableau de bord des voitures, offrant une fonctionnalité accrue aux systèmes de navigation et de divertissement des voitures. Les progrès de la technologie GPU dans les voitures ont contribué à pousser la technologie de conduite autonome. Les cartes de la série Radeon HD 6000 D’AMD ont été publiées en 2010 et en 2011, AMD a publié ses GPU discrets de la série 6000m pour être utilisés dans les appareils mobiles. La gamme de cartes graphiques Kepler de Nvidia est sortie en 2012 et a été utilisée dans les cartes de la série Nvidia 600 et 700., Une fonctionnalité de cette nouvelle microarchitecture GPU comprenait GPU boost, une technologie qui ajuste la vitesse d’horloge d’une carte vidéo pour l’augmenter ou la diminuer en fonction de sa puissance. La microarchitecture Kepler a été fabriquée selon le procédé 28 nm.

la PS4 et la Xbox One ont été publiées en 2013, elles utilisent toutes deux des GPU basés sur les Radeon HD 7850 et 7790 D’AMD. La ligne de GPU Kepler de Nvidia a été suivie par la ligne Maxwell, fabriquée sur le même processus., Les puces 28 nm de Nvidia ont été fabriquées par TSMC, la société taïwanaise de fabrication de semi-conducteurs, qui fabriquait à l’époque en utilisant le procédé 28 nm. Par rapport à la technologie 40 nm du passé, ce nouveau processus de fabrication a permis une augmentation de 20% des performances tout en tirant moins d’énergie. Les casques de réalité virtuelle ont des exigences système très élevées. Les fabricants de casques VR ont recommandé la GTX 970 et la R9 290X ou mieux au moment de leur sortie. Pascal est la prochaine génération de cartes graphiques grand public de Nvidia sortie en 2016., La série de cartes GeForce 10 fait partie de cette génération de cartes graphiques. Ils sont fabriqués en utilisant le processus de fabrication de 16 nm qui améliore les microarchitectures précédentes. Nvidia a publié une carte non consommateur sous la nouvelle architecture Volta, le Titan V. Les changements par rapport au Titan XP, la carte haut de gamme de Pascal, comprennent une augmentation du nombre de cœurs CUDA, l »ajout de cœurs tensor, et HBM2., Les cœurs Tensor sont des cœurs spécialement conçus pour l’apprentissage en profondeur, tandis que la mémoire à bande passante élevée est une mémoire sur matrice, empilée et cadencée inférieure qui offre un bus de mémoire extrêmement large qui est utile pour le Titan V. Pour souligner que la Titan V n’est pas une carte de jeu, Nvidia a supprimé le suffixe « GeForce GTX » qu’elle ajoute aux cartes de jeu grand public.

Le 20 août 2018, Nvidia a lancé les GPU de la série RTX 20 qui ajoutent des cœurs de Ray-tracing aux GPU, améliorant ainsi leurs performances sur les effets d’éclairage. Les GPU Polaris 11 et Polaris 10 D’AMD sont fabriqués par un processus de 14 nanomètres., Leur sortie se traduit par une augmentation substantielle des performances par watt des cartes vidéo AMD. AMD a également publié la série de Gpu Vega pour le marché haut de gamme en tant que concurrent des cartes Pascal haut de gamme de Nvidia, comprenant également HBM2 comme le Titan V.

en 2019, AMD a publié le successeur de son jeu de microarchitecture/instructions Graphics Core Next (GCN). Surnommée RDNA, la première gamme de produits comportant la première génération D’ADNR était la série de cartes vidéo Radeon RX 5000, qui a ensuite été lancée le 7 juillet 2019., Plus tard, la société a annoncé que le successeur de la microarchitecture RDNA serait un rafraîchissement. Surnommé RDNA 2, la nouvelle microarchitecture aurait été prévue pour la sortie dans Q4 2020.

AMD a dévoilé la série Radeon RX 6000, ses cartes graphiques RDNA 2 de nouvelle génération prenant en charge le ray tracing accéléré par le matériel lors d’un événement en ligne Le 28 octobre 2020. La gamme comprend initialement les RX 6800, RX 6800 XT et RX 6900 XT. Les RX 6800 et 6800 XT ont été lancés le 18 novembre 2020, tandis que le RX 6900 XT a été lancé le 8 décembre 2020., Les variantes RX 6700 et RX 6700 XT, basées sur Navi 22, devraient être lancées au premier semestre 2021.

la PlayStation 5 et la Xbox Series X et Series s sont sorties en 2020, elles utilisent toutes deux des GPU basés sur la microarchitecture RDNA 2 avec des réglages propriétaires et différentes configurations GPU dans l »implémentation de chaque système.

GPU companiesEdit

de nombreuses entreprises ont produit des GPU sous un certain nombre de noms de marque. En 2009, Intel, Nvidia et AMD/ATI étaient les leaders des parts de marché, avec respectivement 49,4%, 27,8% et 20,6% de parts de marché., Cependant, ces chiffres incluent les solutions graphiques intégrées d »Intel comme GPU. Sans compter ceux-ci, Nvidia et AMD contrôlent près de 100% du marché à partir de 2018. Leurs parts de marché respectives sont de 66% et 33%. De plus, S3 Graphics et Matrox produisent des GPU.Les smartphones modernes utilisent également principalement des GPU Adreno de Qualcomm, des GPU PowerVR D’Imagination Technologies et des GPU Mali D’ARM.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *