Grafikbehandlingsenhet

0 Comments
se även: video display controller, lista över hemdatorer av video hårdvara, och Sprite (datorgrafik)

1970sEdit

Arcade system styrelser har använt specialiserade grafikkretsar sedan 1970-talet. i början av videospel hårdvara, RAM för RAM buffertar var dyrt, så videochips sammansatta data tillsammans som displayen skannades ut på bildskärmen.,

En specialiserad barrel shifter krets användes för att hjälpa CPU animera framebuffer-grafik för olika 1970-talet arcade spel från Midway och Taito, som Gun Fight (1975), Sea Wolf (1976) och Space Invaders (1978). Namco Galaxian arcade system 1979 använde specialiserad grafik hårdvara som stöder RGB färg, flerfärgade sprites och TileMap bakgrunder. Galaxian hårdvara användes allmänt under guldåldern av arcade videospel, av spelföretag som Namco, Centuri, Gremlin, Irem, Konami, Midway, Nichibutsu, Sega och Taito.,

Atari ANTIC mikroprocessor på ett Atari 130XE moderkort

på hemmamarknaden använde Atari 2600 1977 en video shifter som heter TV-Gränssnittsadaptern. Atari 8-bitars datorer (1979) hade ANTIC, en videoprocessor som tolkade instruktioner som beskriver en ”visningslista” —hur skanningslinjerna karta till specifika bitmappade eller teckenlägen och där minnet lagras (så det behövde inte vara en sammanhängande rambuffert)., 6502 maskinkod subrutiner kan utlösas på skanningslinjer genom att ställa in lite på en display lista instruktion. ANTIC stödde också jämn vertikal och horisontell rullning oberoende av CPU.

1980sEdit

NEC µPD7220A

NEC µPD7220 var det första genomförandet av en PC graphics display processor som en enda storskalig Integration (LSI) integrerad krets chip, möjliggör utformningen av låg kostnad, högpresterande grafikkort som de från Nummer Nio visuell teknik., Det blev den mest kända GPU fram till mitten av 1980-talet. det var den första helt integrerade VLSI (mycket storskalig integration) metal-oxide-semiconductor (NMOS) grafik bildskärmsprocessor för datorer, stöds Upp till 1024×1024 upplösning, och lade grunden för den framväxande PC-grafikmarknaden. Den användes i ett antal grafikkort och licensierades för kloner som Intel 82720, den första av Intels grafikbehandlingsenheter., Williams Electronics arcade games Robotron 2084, Joust, Sinistar och Bubbles, som alla släpptes 1982, innehåller anpassade blitterchips för drift på 16-färg bitmappar.

1984 släppte Hitachi ARTC HD63484, den första stora CMOS-grafikprocessorn för PC. ARTC kunde visa upp till 4K-upplösning i monokrom-läge, och det användes i ett antal PC-grafikkort och terminaler under slutet av 1980-talet. år 1985 presenterade Commodore Amiga ett anpassat grafikchip, med en blitter-enhet som accelererar bitmappmanipulation, linjedragning och områdesfyllningsfunktioner., Dessutom ingår en coprocessor med sin egen enkla instruktionsuppsättning, som kan manipulera grafikhårdvaruregister i synk med videostrålen (t.ex. för per-scanline palettbrytare, sprite multiplexing och hårdvara fönster) eller driva blitter. 1986 släppte Texas Instruments TMS34010, den första fullt programmerbara grafikprocessorn. Det kunde köra generell kod, men den hade en grafikorienterad instruktionsuppsättning. Under 1990-1992 blev detta chip grunden för Texas Instruments Graphics Architecture (”TIGA”) Windows accelerator cards.,

Micro Channel adapter IBM 8514, med minnestillägg.

1987 släpptes IBM 8514-grafiksystemet som ett av de första videokorten för IBM PC-kompatibla för att implementera 2D-primitiver med fast funktion i elektronisk hårdvara. Sharp ”s X68000, släpptes 1987, använde en anpassad grafik chipset med en 65,536 färgpalett och hårdvara stöd för sprites, rullning och flera spelfält, så småningom fungerar som en utvecklingsmaskin för Capcom”s CP system arcade board., Fujitsu tävlade senare med FM Towns computer, släppt 1989 med stöd för en fullständig 16,777,216 färgpalett. 1988 introducerades de första dedikerade polygonala 3D-grafikkorten i arkader med Namco system 21 och Taito Air System.

VGA-sektion på moderkortet i IBM PS/55

IBM”s proprietary Video Graphics Array (VGA) display standard infördes 1987, med en maximal upplösning på 640×480 pixlar., I November 1988 tillkännagav NEC Home Electronics att det hade skapats en Video Electronics Standards Association (VESA) för att utveckla och främja en Super VGA (SVGA) datorvisningsstandard som en efterträdare till IBM: s proprietära VGA-skärmstandard. Super VGA-aktiverade grafik skärmupplösningar upp till 800×600 pixlar, en 36% ökning.

1990sEdit

Voodoo3 2000 AGP-kort

1991 introducerade S3 Graphics S3 86C911, som dess designers uppkallade efter Porsche 911 som en indikation på prestandaökningen den lovade., 86C911 skapade en mängd imitatorer: 1995 hade alla stora PC-grafikchiptillverkare lagt till 2D-accelerationsstöd till sina marker. Vid den här tiden hade fasta Windows-acceleratorer överträffat dyra generella grafikprocessorer i Windows-prestanda, och dessa coprocessorer bleknade bort från PC-marknaden.

under 1990-talet fortsatte 2D GUI-accelerationen att utvecklas. Som tillverkningskapacitet förbättrats, så gjorde nivån på integration av grafikchips., Ytterligare applikationsprogrammeringsgränssnitt (APIs) anlände för en mängd olika uppgifter, till exempel Microsoft”s Wing graphics library för Windows 3.X, och deras senare DirectDraw gränssnitt för hårdvaruacceleration av 2D-spel inom Windows 95 och senare.

i början och mitten av 1990 – talet blev 3D-grafik i realtid allt vanligare i arkad -, dator-och konsolspel, vilket ledde till en ökande offentlig efterfrågan på hårdvaruaccelererad 3D-grafik., Tidiga exempel på massmarknaden 3D – grafik hårdvara kan hittas i arkad system styrelser som Sega Model 1, Namco system 22, och Sega Model 2, och den femte generationens spelkonsoler som Saturn, PlayStation och Nintendo 64. Arcade-system som Sega Model 2 och Namco Magic Edge Hornet Simulator 1993 kunde hårdvara T &L (transform, clipping och lighting) år innan de uppträdde i konsumentgrafikkort. Vissa system använde DSP för att påskynda omvandlingar., Fujitsu, som arbetade på den Sega Modell 2 arcade-systemet, började arbeta på att integrera T&L till en enda LSI-lösning för användning i hem-datorer i 1995; Fujitsu Pinolite, den första 3D-geometri-processorer för persondatorer, som släpptes 1997. Den första hårdvaran T&l GPU på hemvideokonsoler var Nintendo 64″s Reality Coprocessor, släpptes 1996., 1997 släppte Mitsubishi 3Dpro/2MP, en fullt utrustad GPU som kan transformeras och belysning, för arbetsstationer och Windows NT-skrivbord; ati utnyttjade det för sitt FireGL 4000-grafikkort, släppt 1997.

termen ”GPU” myntades av Sony med hänvisning till 32-bitars Sony GPU (designad av Toshiba) i spelkonsol PlayStation släpptes 1994.

i PC-världen var anmärkningsvärda misslyckade första försök för billiga 3D-grafikchips S3 ViRGE, ATI Rage och Matrox Mystique. Dessa marker var i huvudsak tidigare generationens 2D acceleratorer med 3D-funktioner bultade på., Många var till och med pin-kompatibla med de tidigare generationens chipsen för enkel implementering och minimal kostnad. Ursprungligen var prestanda 3D-grafik endast möjlig med diskreta brädor dedikerade till att accelerera 3D-funktioner (och saknar 2D GUI-acceleration helt) som PowerVR och 3dfx Voodoo. Men som tillverkningsteknik fortsatte att utvecklas, video, 2D GUI acceleration och 3D-funktionalitet var alla integrerade i ett chip. Överlämnande ” s Verite chipset var bland de första att göra detta tillräckligt bra för att vara värd att notera., I 1997, Överlämnanden gick ett steg längre genom att samarbeta med Hercules och Fujitsu på en ”Thriller Konspiration” – projekt som kombinerade en Fujitsu FXG-1 Pinolite geometri-processor med en Ritã V2200 kärna för att skapa ett grafikkort med en full-T&L motor år innan Nvidia: s GeForce 256. Detta kort, utformat för att minska belastningen på systemets CPU, gjorde det aldrig till marknaden.,

OpenGL dök upp i början av ” 90-talet som en professionell grafik API, men ursprungligen lidit av prestandaproblem som tillät Glide API att kliva in och bli en dominerande kraft på datorn i slutet av ”90-talet. dock, dessa frågor var snabbt övervinnas och Glide API föll vid vägkanten. Programvaruimplementeringar av OpenGL var vanliga under denna tid, även om OpenGL: s inflytande så småningom ledde till omfattande hårdvarustöd. Med tiden uppstod en paritet mellan funktioner som erbjuds i hårdvara och de som erbjuds i OpenGL., DirectX blev populär bland Windows spelutvecklare under slutet av 90-talet. till skillnad från OpenGL insisterade Microsoft på att tillhandahålla strikt en-till-ett-stöd för hårdvara. Tillvägagångssättet gjorde DirectX mindre populärt som ett fristående grafik API från början, eftersom många GPU-enheter gav sina egna specifika funktioner, vilka befintliga OpenGL-applikationer redan kunde dra nytta av och lämnade DirectX ofta en generation bakom sig. (Se: Jämförelse av OpenGL och Direct3D.,)

med tiden började Microsoft arbeta närmare med hårdvaruutvecklare och började rikta utgåvorna av DirectX för att sammanfalla med de stödjande grafikhårdvaran. Direct3D 5.0 var den första versionen av den spirande API för att få utbredd adoption på spelmarknaden, och det konkurrerade direkt med många mer hårdvaruspecifika, ofta proprietära grafikbibliotek, medan OpenGL upprätthöll en stark följd. Direct3D-7.,0 introducerat stöd för hårdvaruaccelererad transformering och Belysning (T&L) för Direct3D, medan OpenGL redan hade denna förmåga exponerad från starten. 3D accelerator kort flyttade bortom att bara enkla rasterizers att lägga till en annan betydande hårdvarustadiet till 3D rendering pipeline. Nvidia GeForce 256 (även känd som NV10) var det första konsumentnivåkortet som släpptes på marknaden med hårdvaruaccelererad t&L, medan professionella 3D-kort redan hade denna förmåga., Hardware transform and lighting, båda redan befintliga funktioner i OpenGL, kom till konsument-nivå hårdvara i ” 90-talet och ställa prejudikat för senare pixel shader och vertex shader enheter som var mycket mer flexibel och programmerbar.

2000 till 2010Edit

Nvidia var först med att producera ett chip som kunde programmerbar skuggning; GeForce 3 (kod som heter nv20). Varje pixel kan nu bearbetas av ett kort ”program” som kan innehålla ytterligare bildtexturer som ingångar, och varje geometrisk vertex kan också bearbetas av ett kort program innan det projicerades på skärmen., Används i Xbox-konsolen konkurrerade den med PlayStation 2, som använde en anpassad vektorenhet för hårdvaruaccelererad vertex-bearbetning; vanligtvis kallad VU0 / VU1. De tidigaste inkarnationerna av shader-exekveringsmotorer som användes i Xbox var inte allmänna ändamål och kunde inte exekvera godtycklig pixelkod. Hörn och pixlar bearbetades av olika enheter som hade egna resurser med pixel shaders med mycket hårdare begränsningar (som de exekveras vid mycket högre frekvenser än med hörn)., Pixel skuggning motorer var faktiskt mer besläktad med en mycket anpassningsbar funktionsblock och gjorde”t verkligen ”köra” ett program. Många av dessa skillnader mellan vertex och pixelskuggning togs inte upp förrän mycket senare med den enhetliga Shader-modellen.

i oktober 2002, i och med införandet av ATI Radeon 9700 (även känd som R300), världens första Direct3D 9.0 accelerator, pixel-och vertex shaders kan genomföra looping och långa flyttal matte, och var snabbt på att bli lika flexibel som Processorer, men storleksordningar snabbare för bild-array operations., Pixel skuggning används ofta för bump kartläggning, som lägger textur, för att göra ett objekt ser glänsande, tråkig, grov, eller till och med runda eller extruderade.

med introduktionen av Nvidia GeForce 8-serien, och sedan blev nya generiska strömbehandlingsenheter GPU: er en mer generaliserad datorutrustning., Idag har parallella GPU börjat göra beräkningsinvägar mot CPU, och ett delfält för forskning, dubbad GPU Computing eller GPGPU för allmänt ändamål Computing på GPU, har funnit sin väg in i fält så olika som maskininlärning, oljeutforskning, vetenskaplig bildbehandling, linjär algebra, statistik, 3D rekonstruktion och till och med aktieoptioner prissättning bestämning. GPGPU vid den tiden var föregångaren till vad som nu kallas en compute shader (t. ex., CUDA, OpenCL, DirectCompute) och faktiskt missbrukat hårdvaran till en grad genom att behandla data som skickas till algoritmer som texturkartor och exekvera algoritmer genom att rita en triangel eller quad med en lämplig pixel shader. Detta innebär uppenbarligen vissa omkostnader eftersom enheter som Scan Converter är inblandade där de inte verkligen behövs (inte heller är triangelmanipulationer även ett problem-förutom att åberopa pixel shader). Under årens lopp har energikonsumtionen av GPU ökat och för att hantera det har flera tekniker föreslagits.,

Nvidia”s CUDA-plattformen, som först introducerades 2007, var den tidigaste allmänt antagna programmeringsmodellen för GPU-databehandling. På senare tid har OpenCL fått brett stöd. OpenCL är en öppen standard definierad av Khronos-gruppen som möjliggör utveckling av kod för både GPU och processorer med tonvikt på bärbarhet. OpenCL-lösningar stöds av Intel, AMD, Nvidia och ARM, och enligt en ny rapport från Evan”s Data är OpenCL den GPGPU-utvecklingsplattform som oftast används av utvecklare i både USA och Asien.,

2010 för att presentEdit

i 2010 började Nvidia ett partnerskap med Audi för att driva sina bilar” instrumentpaneler. Dessa Tegra GPU drivande bilar ”instrumentpanelen, erbjuder ökad funktionalitet till bilar” navigations-och underhållningssystem. Framsteg inom GPU-teknik i bilar har hjälpt till att driva självkörande teknik. AMD ” s Radeon HD 6000-seriens kort släpptes 2010 och 2011 släppte AMD sina 6000M-serie diskreta GPU: er som skulle användas i mobila enheter. Kepler-raden av grafikkort från Nvidia kom ut 2012 och användes i Nvidia”s 600 och 700-seriens kort., En funktion i denna nya GPU-mikroarkitektur inkluderade GPU boost, En teknik som justerar klockhastigheten på ett grafikkort för att öka eller minska det enligt dess kraftdragning. Kepler-mikroarkitekturen tillverkades på 28 nm-processen.

PS4 och Xbox släpptes år 2013, att de båda använder Gpu baserad på AMD: s Radeon HD 7850 och 7790. Nvidia ” s Kepler-linje av GPU följdes av Maxwell-linjen, tillverkad på samma process., 28 nm chips av Nvidia tillverkades av TSMC, Taiwan Semiconductor Manufacturing Company, som tillverkades med 28 nm-processen vid den tiden. Jämfört med 40 nm-tekniken från det förflutna, möjliggjorde denna nya tillverkningsprocess en 20-procentig ökning av prestanda samtidigt som man drar mindre ström. Virtual reality headset har mycket höga systemkrav. VR-headsettillverkare rekommenderade GTX 970 och R9 290X eller bättre när de släpptes. Pascal är nästa generation av konsumentgrafikkort av Nvidia släpptes 2016., GeForce 10-serien av kort är under denna generation av grafikkort. De är gjorda med hjälp av 16 nm tillverkningsprocessen som förbättrar tidigare mikroarkitekter. Nvidia har släppt ett icke-konsumentkort under den nya Volta-arkitekturen, Titan V. förändringar från Titan XP, Pascal ” s high-end-kort, inkluderar en ökning av antalet CUDA-kärnor, tillägg av tensor-kärnor och HBM2., Tensor kärnor är kärnor speciellt utformade för djup inlärning, medan hög bandbredd minne är on-die, staplade, lägre klockade minne som erbjuder en extremt bred minnesbuss som är användbar för Titan v ” s avsedda ändamål. För att betona att Titan V inte är ett spelkort, tog Nvidia bort suffixet” GeForce GTX ” som det lägger till konsumentspelkort.

den 20 augusti 2018 lanserade Nvidia RTX 20-seriens GPU: er som lägger till ray-spårningskärnor till GPU: er, vilket förbättrar deras prestanda på ljuseffekter. Polaris 11 och Polaris 10 GPU från AMD tillverkas av en 14-nanometerprocess., Deras release resulterar i en betydande ökning av prestanda per watt av AMD-grafikkort. AMD har också släppt Vega GPU-serien för high end-marknaden som en konkurrent till Nvidias high end Pascal-kort, även med HBM2 som Titan v.

i 2019 släppte AMD efterföljaren till deras Graphics Core Next (GCN) microarchitecture/instruction set. Dubbad som RDNA, den första produktlinjen med den första generationen av RDNA var Radeon RX 5000-serien av grafikkort, som senare lanserades den 7 juli 2019., Senare meddelade företaget att efterträdaren till rDNA-mikroarkitekturen skulle vara en uppdatering. Dubbad som RDNA 2, den nya mikroarkitekturen var enligt uppgift planerad att släppas i Q4 2020.

AMD presenterade Radeon RX 6000-serien, dess nästa generations rDNA 2-grafikkort med stöd för hårdvaruaccelererad ray-spårning vid en online-händelse den 28 oktober 2020. Lineupen består ursprungligen av RX 6800, RX 6800 XT och RX 6900 XT. RX 6800 6800 och XT lanserades den 18 November, 2020, med RX 6900 XT släpps den 8 December 2020., RX 6700 och RX 6700 XT-varianterna, som är baserade på Navi 22, förväntas lansera under första halvåret 2021.

PlayStation 5 och Xbox Series X och Series s släpptes 2020, de båda använder GPU baserat på rDNA 2 microarchitecture med proprietära tweaks och olika GPU-konfigurationer i varje system”s implementering.

GPU companiesEdit

många företag har producerat GPU under ett antal varumärken. Under 2009 var Intel, Nvidia och AMD/ATI marknadsandelsledare, med 49,4%, 27,8% respektive 20,6% marknadsandel., Dessa siffror inkluderar dock Intel ’ s integrerade grafiklösningar som GPU: er. Räknar inte dem, Nvidia och AMD kontrollerar nästan 100% av marknaden från och med 2018. Deras respektive marknadsandelar är 66% och 33%. Dessutom producerar S3-grafik och Matrox GPU: er.Moderna smartphones också använda mestadels Adreno Gpu från Qualcomm, PowerVR Grafikprocessorer från Imagination Technologies och Mali Grafikprocessorer från ARM.


Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *