Graphics processing unit (Italiano)

0 Comments
Vedi anche: Video display controller, Elenco dei computer di casa per hardware video, e Sprite (computer graphics)

1970sEdit

Le schede di sistema arcade hanno utilizzato circuiti grafici specializzati sin dagli anni ‘ 70. Nei primi hardware dei videogiochi, la RAM per i frame buffer era costosa, quindi i chip video componevano i dati insieme mentre il display veniva scansionato sul monitor.,

Un circuito shifter barile specializzato è stato utilizzato per aiutare la CPU animare la grafica framebuffer per vari 1970 giochi arcade da Midway e Taito, come Gun Fight (1975), Sea Wolf (1976) e Space Invaders (1978). Il sistema arcade Namco Galaxian nel 1979 utilizzava hardware grafico specializzato che supportava colori RGB, sprite multicolori e sfondi tilemap. L’hardware Galaxian è stato ampiamente utilizzato durante l’età d’oro dei videogiochi arcade, da aziende di gioco come Namco, Centuri, Gremlin, Irem, Konami, Midway, Nichibutsu, Sega e Taito.,

Microprocessore Atari ANTIC su una scheda madre Atari 130XE

Nel mercato domestico, l’Atari 2600 nel 1977 utilizzava un video shifter chiamato Adattatore di interfaccia televisiva. I computer Atari a 8 bit (1979) avevano ANTIC, un processore video che interpretava le istruzioni che descrivevano una “lista di visualizzazione”-il modo in cui le linee di scansione mappavano a specifiche modalità bitmap o caratteri e dove è memorizzata la memoria (quindi non c’era bisogno di essere un frame buffer contiguo)., le subroutine di codice macchina 6502 possono essere attivate sulle linee di scansione impostando un bit su un’istruzione della lista di visualizzazione. ANTIC inoltre ha sostenuto lo scorrimento verticale e orizzontale regolare indipendente della CPU.

1980sEdit

NEC µPD7220A

Il NEC µPD7220 è stata la prima implementazione di una grafica del PC processore come un unico Grande Scala di Integrazione (LSI) chip di circuito integrato, che consente la progettazione di basso costo, video ad alte prestazioni delle schede grafiche come quelle da Numero Nove Tecnologia Visiva., Divenne la GPU più nota fino alla metà degli anni 1980. Fu il primo processore grafico VLSI (very large-scale integration) metal-oxide-semiconductor (NMOS) completamente integrato per PC, supportato fino alla risoluzione 1024×1024, e gettò le basi per l’emergente mercato della grafica per PC. E”stato utilizzato in un certo numero di schede grafiche, ed è stato concesso in licenza per cloni come l” Intel 82720, la prima delle unità di elaborazione grafica di Intel., I giochi arcade Williams Electronics Robotron 2084, Joust, Sinistar e Bubbles, tutti rilasciati nel 1982, contengono chip blitter personalizzati per operare su bitmap a 16 colori.

Nel 1984, Hitachi ha rilasciato ARTC HD63484, il primo grande processore grafico CMOS per PC. L’ARTC era in grado di visualizzare fino a 4K risoluzione quando in modalità monocromatica, ed è stato utilizzato in un certo numero di schede grafiche per PC e terminali durante la fine degli anni 1980. Nel 1985, il Commodore Amiga caratterizzato da un chip grafico personalizzato, con un’unità blitter accelerando la manipolazione bitmap, linea disegnare, e le funzioni di riempimento area., È incluso anche un coprocessore con un proprio set di istruzioni semplice, in grado di manipolare i registri hardware grafici in sincronia con il fascio video (ad esempio per interruttori palette per-scanline, multiplexing sprite e finestre hardware), o guidare il blitter. Nel 1986, Texas Instruments ha rilasciato il TMS34010, il primo processore grafico completamente programmabile. Poteva eseguire codice generico, ma aveva un set di istruzioni orientato alla grafica. Durante il 1990-1992, questo chip è diventato la base delle schede di accelerazione Windows di Texas Instruments Graphics Architecture (“TIGA”).,

L’adattatore per micro canali IBM 8514, con add-on di memoria.

Nel 1987, il sistema grafico IBM 8514 è stato rilasciato come una delle prime schede video per PC compatibili IBM per implementare primitive 2D a funzione fissa in hardware elettronico. Sharp X68000, rilasciato nel 1987, utilizzava un chipset grafico personalizzato con una tavolozza di colori 65,536 e supporto hardware per sprite, scorrimento e campi di gioco multipli, servendo infine come macchina di sviluppo per la scheda arcade CP System di Capcom., Fujitsu in seguito gareggiò con il computer FM Towns, rilasciato nel 1989 con il supporto per una tavolozza di colori completa di 16.777.216. Nel 1988, le prime schede grafiche 3D poligonali dedicate sono state introdotte nelle sale giochi con Namco System 21 e Taito Air System.

Sezione VGA sulla scheda madre in IBM PS/55

Lo standard di visualizzazione proprietario di IBM Video Graphics Array (VGA) è stato introdotto nel 1987, con una risoluzione massima di 640×480 pixel., Nel novembre 1988, NEC Home Electronics annunciò la creazione della Video Electronics Standards Association (VESA) per sviluppare e promuovere uno standard di visualizzazione per computer Super VGA (SVGA) come successore dello standard di visualizzazione VGA proprietario di IBM. Super VGA abilitato risoluzioni del display grafico fino a 800×600 pixel, un aumento del 36%.

1990edit

Voodoo3 2000 AGP card

Nel 1991, S3 Graphics ha introdotto la S3 86C911, che i suoi progettisti hanno chiamato dopo la Porsche 911 come indicazione dell’aumento delle prestazioni promesso., L ‘ 86C911 ha generato una serie di imitatori: nel 1995, tutti i principali produttori di chip grafici per PC avevano aggiunto il supporto per l’accelerazione 2D ai loro chip. A questo punto, gli acceleratori di Windows a funzione fissa avevano superato i costosi coprocessori grafici generici nelle prestazioni di Windows e questi coprocessori si erano allontanati dal mercato dei PC.

Nel corso degli anni 1990, l’accelerazione GUI 2D ha continuato ad evolversi. Come capacità di produzione migliorata, così ha fatto il livello di integrazione dei chip grafici., Ulteriori interfacce di programmazione delle applicazioni (API) è arrivato per una varietà di attività, come la libreria grafica WING di Microsoft per Windows 3.x, e la loro successiva interfaccia DirectDraw per l’accelerazione hardware dei giochi 2D all’interno di Windows 95 e versioni successive.

All’inizio e alla metà degli anni 1990, la grafica 3D in tempo reale stava diventando sempre più comune nei giochi arcade, per computer e console, il che ha portato ad una crescente domanda pubblica di grafica 3D con accelerazione hardware., I primi esempi di hardware grafico 3D per il mercato di massa si possono trovare nelle schede di sistema arcade come Sega Model 1, Namco System 22 e Sega Model 2 e nelle console per videogiochi di quinta generazione come Saturn, PlayStation e Nintendo 64. Sistemi arcade come il Sega Model 2 e Namco Magic Edge Hornet Simulator nel 1993 erano in grado di hardware T&L (transform, clipping, and lighting) anni prima di apparire nelle schede grafiche consumer. Alcuni sistemi hanno utilizzato DSP per accelerare le trasformazioni., Fujitsu, che ha lavorato sul sistema arcade Sega Model 2, ha iniziato a lavorare sull’integrazione di T & L in un’unica soluzione LSI per l’uso nei computer domestici nel 1995; il Fujitsu Pinolite, il primo processore di geometria 3D per personal computer, pubblicato nel 1997. Il primo hardware T&L GPU su console home video è stato il coprocessore Reality di Nintendo 64, pubblicato nel 1996., Nel 1997, Mitsubishi ha rilasciato il 3Dpro / 2MP, una GPU completa in grado di trasformazione e illuminazione, per workstation e desktop Windows NT; ATi utilizzato per la loro scheda grafica FireGL 4000, rilasciato nel 1997.

Il termine “GPU” è stato coniato da Sony in riferimento alla GPU Sony a 32 bit (progettata da Toshiba) nella console per videogiochi PlayStation, pubblicata nel 1994.

Nel mondo dei PC, notevoli tentativi falliti per i chip grafici 3D a basso costo sono stati S3 ViRGE, ATI Rage e Matrox Mystique. Questi chip erano essenzialmente acceleratori 2D di generazione precedente con funzioni 3D avvitate., Molti erano anche pin-compatibile con i chip di prima generazione per la facilità di implementazione e costi minimi. Inizialmente, le prestazioni grafiche 3D erano possibili solo con schede discrete dedicate all’accelerazione delle funzioni 3D (e prive del tutto dell’accelerazione GUI 2D) come la PowerVR e la 3dfx Voodoo. Tuttavia, mentre la tecnologia di produzione continuava a progredire, video, accelerazione GUI 2D e funzionalità 3D sono stati tutti integrati in un unico chip. I chipset Verite di Rendition sono stati tra i primi a farlo abbastanza bene da essere degni di nota., Nel 1997, Rendition ha fatto un ulteriore passo avanti collaborando con Hercules e Fujitsu su un progetto” Thriller Conspiracy ” che combinava un processore Fujitsu FXG-1 Pinolite geometry con un core Vérité V2200 per creare una scheda grafica con un motore T&L anni prima della GeForce 256 di Nvidia. Questa scheda, progettata per ridurre il carico posto sulla CPU del sistema, non è mai arrivata sul mercato.,

OpenGL apparve nei primi anni ’90 come API grafica professionale, ma originariamente soffriva di problemi di prestazioni che permettevano all’API Glide di intervenire e diventare una forza dominante sul PC alla fine degli anni’ 90. Tuttavia, questi problemi furono rapidamente superati e l’API Glide cadde nel dimenticatoio. Implementazioni software di OpenGL erano comuni durante questo periodo, anche se l’influenza di OpenGL alla fine ha portato a un supporto hardware diffuso. Nel corso del tempo, è emersa una parità tra le funzionalità offerte nell’hardware e quelle offerte in OpenGL., DirectX è diventato popolare tra gli sviluppatori di giochi di Windows durante la fine degli anni ‘ 90. A differenza di OpenGL, Microsoft ha insistito per fornire un rigoroso supporto one-to-one di hardware. L’approccio reso DirectX meno popolare come API grafica standalone inizialmente, dal momento che molte GPU fornito le proprie caratteristiche specifiche, che le applicazioni OpenGL esistenti erano già in grado di beneficiare, lasciando DirectX spesso una generazione dietro. (Vedi: Confronto tra OpenGL e Direct3D.,

Nel corso del tempo, Microsoft ha iniziato a lavorare più a stretto contatto con gli sviluppatori di hardware, e ha iniziato a indirizzare le versioni di DirectX in modo che coincidessero con quelle dell’hardware grafico di supporto. Direct3D 5.0 è stata la prima versione dell’API fiorente per ottenere l’adozione diffusa nel mercato dei giochi, e ha gareggiato direttamente con molte altre librerie grafiche specifiche per hardware, spesso proprietarie, mentre OpenGL ha mantenuto un forte seguito. Direct3D 7.,0 ha introdotto il supporto per la trasformazione e l’illuminazione con accelerazione hardware (T & L) per Direct3D, mentre OpenGL aveva questa capacità già esposta dal suo inizio. Le schede di accelerazione 3D sono andate oltre i semplici rasterizzatori per aggiungere un’altra significativa fase hardware alla pipeline di rendering 3D. La Nvidia GeForce 256 (nota anche come NV10) è stata la prima scheda di livello consumer rilasciata sul mercato con accelerazione hardware T&L, mentre le schede 3D professionali avevano già questa capacità., La trasformazione hardware e l’illuminazione, entrambe funzionalità già esistenti di OpenGL, arrivarono all’hardware di livello consumer negli anni ‘ 90 e costituirono il precedente per le successive unità pixel shader e vertex shader che erano molto più flessibili e programmabili.

2000-2010edit

Nvidia è stata la prima a produrre un chip capace di ombreggiatura programmabile; la GeForce 3 (nome in codice NV20). Ogni pixel potrebbe ora essere elaborato da un breve “programma” che potrebbe includere trame di immagini aggiuntive come input, e ogni vertice geometrico potrebbe anche essere elaborato da un breve programma prima di essere proiettato sullo schermo., Utilizzato nella console Xbox, gareggiava con la PlayStation 2, che utilizzava un’unità vettoriale personalizzata per l’elaborazione dei vertici con accelerazione hardware; comunemente indicato come VU0 / VU1. Le prime incarnazioni dei motori di esecuzione shader utilizzati in Xbox non erano di uso generale e non potevano eseguire codice pixel arbitrario. Vertici e pixel sono stati elaborati da unità diverse che avevano le proprie risorse con pixel shader con vincoli molto più stretti (essendo eseguiti a frequenze molto più alte rispetto ai vertici)., I motori di pixel shading erano in realtà più simili a un blocco funzione altamente personalizzabile e non”eseguivano “un programma. Molte di queste disparità tra vertice e pixel shading non sono state affrontate fino a molto più tardi con il modello di shader unificato.

Nell’ottobre 2002, con l’introduzione dell’ATI Radeon 9700 (noto anche come R300), il primo acceleratore Direct3D 9.0 al mondo, pixel e vertex shader potevano implementare looping e lunghe operazioni in virgola mobile, e stavano rapidamente diventando flessibili come le CPU, ma ordini di grandezza più veloci per le operazioni di array di immagini., L’ombreggiatura pixel viene spesso utilizzata per il bump mapping, che aggiunge texture, per rendere un oggetto lucido, opaco, ruvido o addirittura rotondo o estruso.

Con l’introduzione della serie Nvidia GeForce 8, e poi nuove unità di elaborazione flusso generico GPU è diventato un dispositivo di calcolo più generalizzata., Oggi, le GPU parallele hanno iniziato a fare incursioni computazionali contro la CPU e un sottocampo di ricerca, soprannominato GPU Computing o GPGPU per il calcolo generico su GPU, ha trovato la sua strada in campi diversi come l’apprendimento automatico, l’esplorazione petrolifera, l’elaborazione scientifica delle immagini, l’algebra lineare, le statistiche, la ricostruzione 3D e persino la determinazione dei GPGPU all’epoca era il precursore di quello che ora viene chiamato compute shader (ad esempio, CUDA, OpenCL, DirectCompute) e in realtà abusato dell’hardware in una certa misura trattando i dati passati agli algoritmi come mappe di texture ed eseguendo algoritmi disegnando un triangolo o un quad con un pixel shader appropriato. Ciò comporta ovviamente alcune spese generali poiché unità come il convertitore di scansione sono coinvolte dove non sono realmente necessarie (né le manipolazioni triangolari sono una preoccupazione, tranne che per invocare il pixel shader). Nel corso degli anni, il consumo energetico delle GPU è aumentato e per gestirlo sono state proposte diverse tecniche.,

La piattaforma CUDA di Nvidia, introdotta per la prima volta nel 2007, è stata il primo modello di programmazione ampiamente adottato per il calcolo GPU. Più recentemente OpenCL è diventato ampiamente supportato. OpenCL è uno standard aperto definito dal Gruppo Khronos che consente lo sviluppo di codice per GPU e CPU con un’enfasi sulla portabilità. Le soluzioni OpenCL sono supportati da Intel, AMD, Nvidia, e ARM, e secondo un recente rapporto di dati di Evan, OpenCL è la piattaforma di sviluppo GPGPU più ampiamente utilizzato dagli sviluppatori sia negli Stati Uniti e in Asia Pacifico.,

2010 a presentEdit

Nel 2010, Nvidia ha iniziato una partnership con Audi per alimentare le loro auto” cruscotti. Queste GPU Tegra alimentavano il cruscotto delle auto, offrendo una maggiore funzionalità ai sistemi di navigazione e intrattenimento delle auto. I progressi nella tecnologia GPU nelle auto hanno contribuito a spingere la tecnologia di guida autonoma. Le schede della serie Radeon HD 6000 di AMD sono state rilasciate nel 2010 e nel 2011 AMD ha rilasciato le GPU discrete della serie 6000M per essere utilizzate nei dispositivi mobili. La linea di schede grafiche Kepler di Nvidia è uscita nel 2012 e sono state utilizzate nelle schede della serie Nvidia 600 e 700., Una caratteristica di questa nuova microarchitettura GPU incluso GPU boost, una tecnologia che regola la velocità di clock di una scheda video per aumentare o diminuire in base al suo assorbimento di potenza. La microarchitettura di Kepler è stata prodotta con il processo a 28 nm.

La PS4 e Xbox One sono stati rilasciati nel 2013, entrambi utilizzano GPU basate su AMD Radeon HD 7850 e 7790. La linea di GPU Kepler di Nvidia è stata seguita dalla linea Maxwell, prodotta sullo stesso processo., i chip a 28 nm di Nvidia sono stati prodotti da TSMC, la Taiwan Semiconductor Manufacturing Company, che all’epoca produceva utilizzando il processo a 28 nm. Rispetto alla tecnologia a 40 nm del passato, questo nuovo processo di produzione ha permesso un aumento del 20% delle prestazioni e una minore potenza. Le cuffie per realtà virtuale hanno requisiti di sistema molto elevati. I produttori di cuffie VR hanno raccomandato la GTX 970 e la R9 290X o meglio al momento del loro rilascio. Pascal è la prossima generazione di schede grafiche consumer di Nvidia rilasciata nel 2016., La serie di schede GeForce 10 è sotto questa generazione di schede grafiche. Sono realizzati utilizzando il processo di produzione 16 nm che migliora le precedenti microarchitetture. Nvidia ha rilasciato una scheda non consumer sotto la nuova architettura Volta, il Titan V. Modifiche dal Titan XP, scheda di fascia alta di Pascal, includono un aumento del numero di core CUDA, l ” aggiunta di core tensor, e HBM2., Tensor core sono core appositamente progettati per l’apprendimento profondo, mentre la memoria ad alta larghezza di banda è on-die, impilati, memoria con clock inferiore che offre un bus di memoria estremamente ampia che è utile per lo scopo previsto del Titan V. Per sottolineare che Titan V non è una scheda di gioco, Nvidia ha rimosso il suffisso “GeForce GTX” che aggiunge alle schede di gioco consumer.

Il 20 agosto 2018, Nvidia ha lanciato le GPU della serie RTX 20 che aggiungono core ray-tracing alle GPU, migliorando le loro prestazioni sugli effetti di luce. Le GPU Polaris 11 e Polaris 10 di AMD sono fabbricate con un processo a 14 nanometri., Il loro rilascio si traduce in un sostanziale aumento delle prestazioni per watt delle schede video AMD. AMD ha anche rilasciato la serie di GPU Vega per il mercato di fascia alta come concorrente delle schede Pascal di fascia alta di Nvidia, anche con HBM2 come Titan V.

Nel 2019, AMD ha rilasciato il successore della microarchitettura/set di istruzioni Graphics Core Next (GCN). Soprannominata RDNA, la prima linea di prodotti con la prima generazione di RDNA è stata la serie di schede video Radeon RX 5000, che in seguito è stata lanciata il 7 luglio 2019., Successivamente, la società ha annunciato che il successore della microarchitettura RDNA sarebbe stato un aggiornamento. Soprannominato come RDNA 2, la nuova microarchitettura è stato riferito previsto per il rilascio in Q4 2020.

AMD ha presentato la serie Radeon RX 6000, le sue schede grafiche RDNA 2 di nuova generazione con supporto per il ray tracing con accelerazione hardware in un evento online il 28 ottobre 2020. La gamma è composta inizialmente da RX 6800, RX 6800 XT e RX 6900 XT. La RX 6800 e la 6800 XT sono state lanciate il 18 novembre 2020, mentre la RX 6900 XT è stata rilasciata l ‘ 8 dicembre 2020., La RX 6700 e RX 6700 XT varianti, che si basa su Navi 22 si prevede di lanciare nella prima metà del 2021.

La PlayStation 5 e Xbox Series X e Series S sono stati rilasciati nel 2020, entrambi utilizzano GPU basate sulla microarchitettura RDNA 2 con modifiche proprietarie e diverse configurazioni GPU in ogni implementazione del sistema.

GPU companiesEdit

Molte aziende hanno prodotto GPU con un certo numero di marchi. Nel 2009 Intel, Nvidia e AMD/ATI erano i leader della quota di mercato, rispettivamente con il 49,4%, il 27,8% e il 20,6%., Tuttavia, questi numeri includono le soluzioni grafiche integrate di Intel come GPU. Senza contare quelli, Nvidia e AMD controllano quasi il 100% del mercato a partire dal 2018. Le rispettive quote di mercato sono rispettivamente del 66% e del 33%. Inoltre, S3 Graphics e Matrox producono GPU.Gli smartphone moderni utilizzano anche principalmente GPU Adreno di Qualcomm, GPU PowerVR di Imagination Technologies e GPU Mali di ARM.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *