Grafikverarbeitungseinheit

0 Comments
Siehe auch: Video Display Controller, Liste der Heimcomputer nach Videohardware und Sprite (Computer Graphics)

1970sEdit

Arcade-Systemplatinen verwenden seit den 1970er Jahren spezielle Grafikschaltungen. In der frühen Videospielhardware war der RAM für Frame-Puffer teuer, so dass Videochips Daten zusammensetzten, als die Anzeige auf dem Monitor gescannt wurde.,

Eine spezielle Laufschieberschaltung wurde verwendet, um der CPU zu helfen, die Framebuffer-Grafiken für verschiedene Arcade-Spiele der 1970er Jahre von Midway und Taito zu animieren, wie Gun Fight (1975), Sea Wolf (1976) und Space Invaders (1978). Das Namco Galaxian Arcade-System verwendete 1979 spezielle Grafikhardware, die RGB-Farben, mehrfarbige Sprites und Tilemap-Hintergründe unterstützte. Die galaxianische Hardware wurde während des goldenen Zeitalters der Arcade-Videospiele von Spielefirmen wie Namco, Centuri, Gremlin, Irem, Konami, Midway, Nichibutsu, Sega und Taito weit verbreitet.,

Atari ANTIC Mikroprozessor auf einem Atari 130XE Motherboard

Auf dem heimischen Markt verwendete der Atari 2600 1977 einen Video-Shifter namens Tv Interface Adapter. Die Atari 8-Bit-Computer (1979) verfügten über ANTIC, einen Videoprozessor, der Anweisungen interpretierte, die eine „Anzeigeliste“beschreiben—die Art und Weise, wie die Scanzeilen bestimmten Bitmap-oder Zeichenmodi zugeordnet sind und wo der Speicher gespeichert ist (so dass es keinen zusammenhängenden Rahmenpuffer geben musste)., 6502 Maschinencode-Unterprogramme können in Scanzeilen ausgelöst werden, indem ein Bit in einer Anzeigelistenanweisung festgelegt wird. ANTIC unterstützte auch ein reibungsloses vertikales und horizontales Scrollen unabhängig von der CPU.

1980sEdit

NEC µPD7220A

Der NEC µPD7220 war die erste Implementierung eines PC Graphics Display Processors als Single Large Scale Integration (LSI) Integrated Circuit Chip, der das Design von kostengünstigen, leistungsstarken Grafikkarten wie denen von Number Nine Visual Technology ermöglicht., Es wurde die bekannteste GPU bis Mitte der 1980er Jahre. Es war der erste voll integrierte VLSI (very Large-Scale Integration) Metal-Oxide-Semiconductor (NMOS) Grafik-Display-Prozessor für PCs, unterstützt bis zu 1024×1024 Auflösung und legte den Grundstein für den aufstrebenden PC-Grafikmarkt. Es wurde in einer Reihe von Grafikkarten verwendet, und wurde für Klone wie die Intel 82720 lizenziert, die erste von Intel Grafikverarbeitungseinheiten., Die Williams Electronics Arcade-Spiele Robotron 2084, Joust, Sinistar und Bubbles, die alle 1982 veröffentlicht wurden, enthalten benutzerdefinierte Blitter-Chips für den Betrieb mit 16-Farb-Bitmaps.

Im Jahr 1984 veröffentlichte Hitachi ARTC HD63484, den ersten großen CMOS-Grafikprozessor für PC. Der ARTC war in der Lage, bis zu 4K Auflösung im Monochrom-Modus anzuzeigen, und es wurde in einer Reihe von PC-Grafikkarten und Terminals während der späten 1980er Jahre verwendet. 1985 kennzeichnete der Commodore Amiga einen kundenspezifischen Grafikchip, mit einer Blitzeinheit, die Bitmap-Manipulation, Linienzeichnung und Flächenfüllfunktionen beschleunigt., Ebenfalls enthalten ist ein Coprozessor mit einem eigenen einfachen Befehlssatz, der in der Lage ist, Grafikhardwareregister synchron mit dem Videobalken zu manipulieren (z. B. für Palettenschalter pro Scanlinie, Sprite-Multiplexing und Hardwarefenster) oder den Blitz anzutreiben. 1986 veröffentlichte Texas Instruments den TMS34010, den ersten voll programmierbaren Grafikprozessor. Es konnte allgemeinen Code ausführen, aber es hatte einen grafikorientierten Befehlssatz. In den Jahren 1990-1992 wurde dieser Chip zur Grundlage der Windows Accelerator Cards von Texas Instruments Graphics Architecture („TIGA“).,

IBM 8514 Micro-Channel adapter, memory-add-on.

1987 wurde das IBM 8514-Grafiksystem als eine der ersten Grafikkarten für IBM PC-kompatible Geräte veröffentlicht, um 2D-Grundelemente mit fester Funktion in elektronischer Hardware zu implementieren. Sharp X68000, im Jahr 1987 veröffentlicht, verwendet einen benutzerdefinierten Grafikchipsatz mit einer 65.536 Farbpalette und Hardware-Unterstützung für Sprites, Scrollen und mehrere Spielfelder, schließlich dient als Entwicklungsmaschine für Capcoms CP-System Arcade-Board., Fujitsu konkurrierte später mit dem UKW-Radio-Computer, der 1989 mit Unterstützung für eine vollständige 16.777.216-Farbpalette veröffentlicht wurde. 1988 wurden die ersten dedizierten polygonalen 3D-Grafikkarten in Arkaden mit dem Namco System 21 und dem Taito Air System eingeführt.

VGA Abschnitt auf dem Motherboard in IBM PS/55

IBM proprietäre Video Graphics Array (VGA) Display Standard wurde 1987 eingeführt, mit einer maximalen Auflösung von 640×480 Pixel., Im November 1988 kündigte NEC Home Electronics die Gründung der Video Electronics Standards Association (VESA) an, um einen Super VGA (SVGA) Computer-Display-Standard als Nachfolger des proprietären VGA-Display-Standards von IBM zu entwickeln und zu fördern. Super VGA aktiviert grafik display auflösungen bis zu 800×600 pixel, eine 36% erhöhen.

1990sEdit

Voodoo3 2000 AGP card

1991 führte S3 Graphics den S3 86C911 ein, den seine Designer nach dem Porsche 911 benannten, als Hinweis auf die versprochene Leistungssteigerung., Der 86C911 brachte eine Vielzahl von Nachahmern hervor: Bis 1995 hatten alle großen PC-Grafikchiphersteller 2D-Beschleunigungsunterstützung zu ihren Chips hinzugefügt. Zu diesem Zeitpunkt hatten Windows-Beschleuniger mit fester Funktion teure Allzweck-Grafikkoprozessoren in der Windows-Leistung übertroffen, und diese Coprozessoren verschwanden vom PC-Markt.

Während der 1990er Jahre entwickelte sich die 2D-GUI-Beschleunigung weiter. Mit der Verbesserung der Fertigungskapazitäten stieg auch der Integrationsgrad von Grafikchips., Zusätzliche Application Programming Interfaces (APIs) kamen für eine Vielzahl von Aufgaben, wie Microsoft WinG Graphics Library für Windows 3.x und ihre spätere DirectDraw-Schnittstelle zur Hardwarebeschleunigung von 2D-Spielen in Windows 95 und höher.

In den frühen und mittleren 1990er Jahren wurden Echtzeit – 3D-Grafiken in Arcade -, Computer-und Konsolenspielen immer häufiger, was zu einer zunehmenden öffentlichen Nachfrage nach hardwarebeschleunigten 3D-Grafiken führte., Frühe Beispiele für 3D-Grafikhardware auf dem Massenmarkt finden sich in Arcade – Systemplatinen wie Sega Model 1, Namco System 22 und Sega Model 2 sowie in Videospielkonsolen der fünften Generation wie Saturn, PlayStation und Nintendo 64. Arcade-Systeme wie das Sega Model 2 und der Namco Magic Edge Hornet Simulator von 1993 waren in der Lage, T&L (transform, Clipping und Beleuchtung) Jahre vor dem Erscheinen in Consumer-Grafikkarten zu verwenden. Einige Systeme verwendeten DSPs, um Transformationen zu beschleunigen., Fujitsu, das am Sega Model 2 Arcade-System arbeitete, begann 1995 mit der Integration von T&L in eine einzige LSI-Lösung für den Einsatz in Heimcomputern.der Fujitsu Pinolite, der erste 3D-Geometrieprozessor für PCS, wurde 1997 veröffentlicht. Die erste Hardware T&L GPU auf Heimvideospielkonsolen war der Reality-Coprozessor Nintendo 64, der 1996 veröffentlicht wurde., Im Jahr 1997 veröffentlichte Mitsubishi die 3DPro/2MP, eine voll funktionsfähige GPU für Transformation und Beleuchtung, für Workstations und Windows NT-Desktops; ATi nutzte sie für ihre 1997 veröffentlichte FireGL 4000-Grafikkarte.

Der Begriff „GPU“ wurde von Sony in Bezug auf die 32-Bit-Sony-GPU (entworfen von Toshiba) in der PlayStation-Videospielkonsole, die 1994 veröffentlicht wurde, geprägt.

In der PC-Welt waren die S3 ViRGE, ATI Rage und Matrox Mystique die ersten fehlerhaften Versuche für kostengünstige 3D-Grafikchips. Diese Chips waren im Wesentlichen 2D-Beschleuniger der vorherigen Generation mit angeschraubten 3D-Funktionen., Viele waren sogar Pin-kompatibel mit den Chips der früheren Generation für einfache Implementierung und minimale Kosten. Anfangs waren Performance-3D-Grafiken nur mit diskreten Boards möglich, die der Beschleunigung von 3D-Funktionen gewidmet waren (und denen die 2D-GUI-Beschleunigung vollständig fehlte), wie dem PowerVR und dem 3dfx Voodoo. Mit fortschreitender Fertigungstechnologie wurden jedoch Video, 2D-GUI-Beschleunigung und 3D-Funktionalität in einem Chip integriert. Die Verite-Chipsätze von Rendition gehörten zu den ersten, die dies gut genug machten, um bemerkenswert zu sein., 1997 ging Rendition noch einen Schritt weiter und arbeitete mit Hercules und Fujitsu an einem „Thriller Conspiracy“-Projekt zusammen, bei dem ein Fujitsu FXG-1 Pinolite-Geometrieprozessor mit einem Vérité V2200-Kern kombiniert wurde, um eine Grafikkarte mit einer vollständigen T&L-Engine Jahre vor Nvidias GeForce 256 zu erstellen. Diese Karte, entwickelt, um die Last auf die CPU des Systems platziert zu reduzieren, machte es nie auf den Markt.,

OpenGL erschien in den frühen 90er Jahren als professionelle Grafik-API, litt aber ursprünglich unter Leistungsproblemen, die es der Glide-API ermöglichten, in den späten 90er Jahren einzutreten und eine dominierende Kraft auf dem PC zu werden. Diese Probleme wurden jedoch schnell überwunden und die Glide-API blieb auf der Strecke. Software-Implementierungen von OpenGL waren in dieser Zeit üblich, obwohl der Einfluss von OpenGL schließlich zu einer weit verbreiteten Hardwareunterstützung führte. Im Laufe der Zeit entstand eine Parität zwischen den in Hardware angebotenen Funktionen und den in OpenGL angebotenen., DirectX wurde Ende der 90er Jahre bei Windows-Spieleentwicklern populär. Im Gegensatz zu OpenGL bestand Microsoft darauf, Hardware streng eins zu eins zu unterstützen. Der Ansatz machte DirectX zunächst als eigenständige Grafik-API weniger populär, da viele GPUs ihre eigenen spezifischen Funktionen zur Verfügung stellten, von denen bereits vorhandene OpenGL-Anwendungen profitieren konnten, sodass DirectX oft eine Generation zurückblieb. (Siehe: Vergleich von OpenGL und Direct3D.,)

Im Laufe der Zeit begann Microsoft enger mit Hardware-Entwicklern zu arbeiten und begann, die Versionen von DirectX auf die der unterstützenden Grafikhardware abzustimmen. Direct3D 5.0 war die erste Version der aufkeimenden API, die auf dem Spielemarkt weit verbreitet war, und konkurrierte direkt mit vielen hardwarespezifischen, oft proprietären Grafikbibliotheken, während OpenGL eine starke Fangemeinde hatte. Direct3D 7.,0 einführung der Unterstützung für hardwarebeschleunigte Transformation und Beleuchtung (T&L) für Direct3D, während OpenGL diese Fähigkeit bereits von Anfang an verfügbar machte. 3D-Beschleunigerkarten waren nicht nur einfache Rasterisierer, sondern fügten der 3D-Rendering-Pipeline eine weitere wichtige Hardwarestufe hinzu. Die Nvidia GeForce 256 (auch bekannt als NV10) war die erste Consumer-Level-Karte auf dem Markt mit hardwarebeschleunigtem T&L, während professionelle 3D-Karten diese Fähigkeit bereits hatten., Hardware-Transformation und Beleuchtung, beide bereits vorhandene Funktionen von OpenGL, kamen in den 90er Jahren auf Consumer-Level-Hardware und bildeten den Präzedenzfall für spätere Pixel-Shader-und Vertex-Shader-Einheiten, die weitaus flexibler und programmierbarer waren.

2000 bis 2010Edit

Nvidia produzierte als erster einen Chip, der programmierbare Schattierungen erzeugen kann; die GeForce 3 (Codename NV20). Jedes Pixel konnte nun von einem kurzen „Programm“ verarbeitet werden, das zusätzliche Bildtexturen als Eingaben enthalten konnte, und jeder geometrische Scheitelpunkt konnte ebenfalls von einem kurzen Programm verarbeitet werden, bevor er auf den Bildschirm projiziert wurde., In der Xbox-Konsole verwendet, konkurrierte es mit der PlayStation 2, die eine benutzerdefinierte Vektoreinheit für die hardwarebeschleunigte Vertex-Verarbeitung verwendete; allgemein als VU0/VU1 bezeichnet. Die frühesten Inkarnationen von Shader-Ausführungs-Engines, die in Xbox verwendet wurden, waren kein allgemeiner Zweck und konnten keinen beliebigen Pixelcode ausführen. Scheitelpunkte und Pixel wurden von verschiedenen Einheiten verarbeitet, die ihre eigenen Ressourcen hatten, wobei Pixel-Shader viel engere Einschränkungen hatten (da sie mit viel höheren Frequenzen als mit Scheitelpunkten ausgeführt werden)., Pixel Shading Engines waren eigentlich eher wie ein hochgradig anpassbarer Funktionsblock und didn „t wirklich“ run “ ein Programm. Viele dieser Unterschiede zwischen Scheitelpunkt – und Pixelschattierung wurden erst viel später mit dem Unified Shader-Modell behoben.

Bis Oktober 2002 mit der Einführung der ATI Radeon 9700 (auch als R300 bekannt), der weltweit erste Direct3D 9.0 Beschleuniger, Pixel und Vertex-Shader konnte Looping und langwierige Gleitkomma-Mathematik implementieren, und wurden schnell so flexibel wie CPUs immer noch Größenordnungen schneller für Bild-Array-Operationen., Pixelschattierung wird häufig für das Bump-Mapping verwendet, das Textur hinzufügt, um ein Objekt glänzend, matt, rau oder sogar rund oder extrudiert aussehen zu lassen.

Mit der einführung der Nvidia GeForce 8 serie, und dann neue generische stream processing unit GPUs wurde eine generalisierte computing-geräte., Heute haben parallele GPUs begonnen, Recheneinbrüche gegen die CPU zu machen, und ein Teilgebiet der Forschung, genannt GPU Computing oder GPGPU für Allzweck-Computing auf GPU, hat seinen Weg in so unterschiedlichen Bereichen wie maschinelles Lernen gefunden, Öl-Exploration, wissenschaftliche Bildverarbeitung, lineare Algebra, Statistik, 3D-Rekonstruktion und sogar Aktienoptionen Preisbestimmung. GPGPU war zu dieser Zeit der Vorläufer des heutigen Compute-Shader (z., CUDA, OpenCL, DirectCompute) und tatsächlich die Hardware zu einem gewissen Grad missbraucht, indem die an Algorithmen übergebenen Daten als Texturkarten behandelt und Algorithmen ausgeführt wurden, indem ein Dreieck oder Quad mit einem geeigneten Pixel-Shader gezeichnet wurde. Dies bringt offensichtlich einige Gemeinkosten mit sich, da Einheiten wie der Scan-Konverter beteiligt sind, wo sie nicht wirklich benötigt werden (noch sind Dreiecksmanipulationen sogar ein Problem—außer den Pixel-Shader aufzurufen). Im Laufe der Jahre hat der Energieverbrauch von GPUs zugenommen, und um ihn zu verwalten, wurden mehrere Techniken vorgeschlagen.,

Nvidia CUDA-Plattform, erstmals im Jahr 2007 eingeführt wurde, war das früheste weit verbreitete Programmiermodell für GPU-Computing. In jüngerer Zeit wurde OpenCL weitgehend unterstützt. OpenCL ist ein offener Standard, der von der Khronos-Gruppe definiert wird und die Entwicklung von Code für GPUs und CPUs mit Schwerpunkt auf Portabilität ermöglicht. OpenCL-Lösungen werden von Intel, AMD, Nvidia und ARM unterstützt, und nach einem aktuellen Bericht von Evan Daten, OpenCL ist die GPGPU-Entwicklungsplattform am häufigsten von Entwicklern in den USA und Asien-Pazifik verwendet.,

2010 zu präsentierenedit

Im Jahr 2010 begann Nvidia eine Partnerschaft mit Audi, um ihre Autos“ Dashboards “ anzutreiben. Diese Tegra-GPUs versorgten das Armaturenbrett der Autos und boten den Navigations-und Unterhaltungssystemen der Autos eine erhöhte Funktionalität. Fortschritte in der GPU-Technologie in Autos haben dazu beigetragen, die selbstfahrende Technologie voranzutreiben. AMD Radeon HD 6000 Serie Karten wurden im Jahr 2010 veröffentlicht und im Jahr 2011 veröffentlichte AMD ihre 6000M Serie diskrete GPUs in mobilen Geräten verwendet werden. Die Kepler Linie von Grafikkarten von Nvidia kam im Jahr 2012 und wurden in der Nvidia 600 und 700 Serie Karten verwendet., Eine Funktion in dieser neuen GPU-Mikroarchitektur war GPU Boost, eine Technologie, die die Taktrate einer Grafikkarte anpasst, um sie entsprechend ihrer Leistungsaufnahme zu erhöhen oder zu verringern. Die Kepler Mikroarchitektur wurde nach dem 28 nm Verfahren hergestellt.

Die PS4 und Xbox One wurden im Jahr 2013 veröffentlicht, sie beide verwenden GPUs basierend auf AMD Radeon HD 7850 und 7790. Nvidias Kepler Linie von GPUs wurde von der Maxwell Linie gefolgt, auf dem gleichen Verfahren hergestellt., 28 nm Chips von Nvidia wurden von TSMC, der Taiwan Semiconductor Manufacturing Company, hergestellt, die zu dieser Zeit im 28 nm-Prozess herstellte. Im Vergleich zur 40-nm-Technologie aus der Vergangenheit ermöglichte dieser neue Herstellungsprozess eine 20 – prozentige Leistungssteigerung bei geringerer Leistung. Virtual-Reality-Headsets haben sehr hohe Systemanforderungen. VR-Headset-Hersteller empfahlen die GTX 970 und die R9 290X oder besser zum Zeitpunkt ihrer Veröffentlichung. Pascal ist die nächste Generation von Consumer-Grafikkarten von Nvidia, die 2016 veröffentlicht wurde., Die GeForce 10-Kartenserie befindet sich unter dieser Generation von Grafikkarten. Sie werden unter Verwendung des 16-nm-Herstellungsprozesses hergestellt, der frühere Mikroarchitekturen verbessert. Nvidia hat eine Nicht-Consumer-Karte unter der neuen Volta-Architektur veröffentlicht, die Titan V. Änderungen von der Titan XP, Pascal High-End-Karte, umfassen eine Erhöhung der Anzahl der CUDA-Kerne, die Zugabe von Tensor-Kernen und HBM2., Tensor Cores sind Kerne, die speziell für Deep Learning entwickelt, während High-Bandwidth-Speicher ist On-die, gestapelt, niedriger getakteten Speicher, der einen extrem breiten Speicherbus bietet, die für die Titan V vorgesehenen Zweck nützlich ist. Um zu betonen, dass der Titan V keine Spielkarte ist, entfernte Nvidia das Suffix „GeForce GTX“, das er zu Consumer-Spielkarten hinzufügt.August 2018 brachte Nvidia die GPUs der RTX 20-Serie auf den Markt, die GPUs Raytracing-Kerne hinzufügen und deren Leistung bei Lichteffekten verbessern. Polaris 11 und Polaris 10 GPUs von AMD werden durch ein 14-Nanometer-Verfahren hergestellt., Ihre Veröffentlichung führt zu einer erheblichen Steigerung der Leistung pro Watt von AMD-Grafikkarten. AMD hat auch die Vega GPUs-Serie für den High-End-Markt als Konkurrent zu Nvidias High-End-Pascal-Karten veröffentlicht, auch mit HBM2 wie der Titan V.

Im Jahr 2019 veröffentlichte AMD den Nachfolger ihres Graphics Core Next (GCN) Mikroarchitektur/Befehlssatz. Die erste Produktreihe mit der ersten RDNA-Generation war die Radeon RX 5000-Grafikkartenserie, die später am 7.Juli 2019 auf den Markt kam., Später gab das Unternehmen bekannt, dass der Nachfolger der RDNA-Mikroarchitektur ein Refresh sein würde. Die neue Mikroarchitektur, die als RDNA 2 bezeichnet wird, soll im vierten Quartal 2020 veröffentlicht werden.

AMD hat die Radeon RX 6000-Serie, seine RDNA 2-Grafikkarten der nächsten Generation mit Unterstützung für hardwarebeschleunigtes Raytracing, auf einer Online-Veranstaltung am 28. Die Aufstellung besteht zunächst aus dem RX 6800, RX 6800 XT und RX 6900 XT. November 2020 auf den Markt, wobei der RX 6900 XT am 8. Dezember 2020 veröffentlicht wird., Die Varianten RX 6700 und RX 6700 XT, die auf Navi 22 basieren, werden voraussichtlich im ersten Halbjahr 2021 auf den Markt kommen.

Die PlayStation 5 und Xbox Series X und Series S wurden veröffentlicht in 2020, sie beide verwenden GPUs basierend auf die RDNA 2 mikroarchitektur mit proprietären tweaks und verschiedene GPU konfigurationen in jedes system der implementierung.

GPU companiesEdit

Viele Unternehmen haben GPUs unter einer Reihe von Markennamen produziert. Im Jahr 2009 waren Intel,Nvidia und AMD/ATI mit 49,4%, 27,8% bzw., Diese Zahlen enthalten jedoch Intels integrierte Grafiklösungen als GPUs. Ohne diese zu zählen, kontrollieren Nvidia und AMD ab 2018 fast 100% des Marktes. Ihre jeweiligen Marktanteile betragen 66% und 33%. Darüber hinaus produzieren S3 Graphics und Matrox GPUs.Moderne smartphones verwenden auch meist Adreno-GPUs von Qualcomm, PowerVR-GPUs von Imagination Technologies und Mali-GPUs von ARM.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.