Jednostka przetwarzania grafiki

0 Comments
Zobacz także: kontroler wyświetlacza wideo, Lista komputerów domowych według sprzętu wideo i Sprite (Grafika komputerowa)

1970sedit

płytki systemu Arcade używają wyspecjalizowanych układów graficznych od lat 70. XX wieku.we wczesnym sprzęcie gier wideo PAMIĘĆ RAM dla buforów RAM była droga, więc układy wideo składały dane razem, gdy wyświetlacz był skanowany na monitorze.,

wyspecjalizowany układ barrel shifter został użyty do animowania Grafiki bufora ramek w różnych grach zręcznościowych z Lat 70.Z Midway i Taito, takich jak Gun Fight (1975), Sea Wolf (1976) i Space Invaders (1978). Namco Galaxian arcade system w 1979 roku używał wyspecjalizowanego sprzętu graficznego obsługującego kolory RGB, wielobarwne sprity i tła tilemap. W 2003 roku Galaxian został wprowadzony na rynek w 2004 roku przez firmę Namco, Centuri, Gremlin, Irem, Konami, Midway, Nichibutsu, Sega i Taito.,

Atari Antic mikroprocesor na płycie głównej Atari 130XE

na rynku domowym Atari 2600 w 1977 roku wykorzystywał zmiennik wideo zwany adapterem interfejsu telewizyjnego. 8-bitowe komputery Atari (1979) miały procesor ANTIC, który interpretował instrukcje opisujące „listę wyświetlania” – sposób mapowania linii skanowania do określonych trybów bitmapowych lub znakowych i gdzie przechowywana jest pamięć (więc nie musiał być ciągły bufor ramki)., Podprogramy kodu maszynowego 6502 mogą być wyzwalane na liniach skanowania przez ustawienie bitu na instrukcji wyświetlania listy. ANTIC obsługiwał również płynne przewijanie w pionie i poziomie niezależnie od procesora.

1980sEdit

NEC µPD7220A

NEC µPD7220 był pierwszą implementacją procesora graficznego PC jako pojedynczego układu scalonego o dużej skali integracji (LSI), umożliwiającego projektowanie tanich, wysokowydajne Karty graficzne wideo, takie jak te z number nine visual technology., Był to pierwszy w pełni zintegrowany procesor graficzny VLSI (very large-scale integration) metal-oxide-semiconductor (NMOS) dla komputerów PC, obsługiwany w rozdzielczości do 1024×1024 i położył podwaliny pod rozwijający się rynek grafiki komputerowej. Był używany w wielu kartach graficznych i był licencjonowany dla klonów, takich jak Intel 82720, pierwszy z procesorów graficznych Intela., Gry Zręcznościowe Williams Electronics Robotron 2084, Joust, Sinistar i Bubbles, wszystkie wydane w 1982 roku, zawierają niestandardowe chipy blitter do pracy na 16-kolorowych bitmapach.

w 1984 roku Hitachi wypuściło na rynek ARTC HD63484, pierwszy duży procesor graficzny CMOS na PC. ARTC był w stanie wyświetlać do rozdzielczości 4K w trybie monochromatycznym, i był używany w wielu kartach graficznych i terminalach PC pod koniec 1980 roku. w 1985 roku Commodore Amiga wyposażony w niestandardowy układ graficzny, z jednostką blitter przyspieszającą manipulację bitmapami,rysowanie linii i wypełnianie obszarów., W zestawie znajduje się również koprocesor z własnym prostym zestawem instrukcji, zdolny do manipulowania sprzętowymi rejestrami graficznymi zsynchronizowanymi z wiązką wideo (np. dla przełączników palety per-scanline, multipleksowania sprite ' ów i oknami sprzętowymi) lub napędzania blittera. W 1986 roku firma Texas Instruments wypuściła na rynek TMS34010, pierwszy w pełni programowalny procesor graficzny. Mógł uruchamiać kod ogólnego przeznaczenia, ale miał zorientowany graficznie zestaw instrukcji. W latach 1990-1992 układ ten stał się podstawą kart akceleratora Windows Texas Instruments Graphics Architecture („TIGA”).,

Adapter Mikrokanałowy IBM 8514 z dodatkiem pamięci.

w 1987 roku, IBM 8514 graphics system został wydany jako jedna z pierwszych kart graficznych dla IBM PC compatibles implementujących stałe funkcje 2D primitives w sprzęcie elektronicznym. Sharp X68000, wydany w 1987 roku, używał niestandardowego chipsetu graficznego z paletą kolorów 65,536 i sprzętową obsługą sprite ' ów, przewijania i wielu pól gry, ostatecznie służąc jako maszyna rozwojowa dla Płyty arcade CP System firmy Capcom., Fujitsu konkurowało później z komputerem FM Towns, wydanym w 1989 roku z obsługą pełnej palety kolorów 16 777 216. W 1988 roku wprowadzono pierwsze dedykowane wielokątne tablice graficzne 3D w Arkadach z systemem Namco 21 i systemem Taito Air.

sekcja VGA na płycie głównej w IBM PS/55

opatentowany przez IBM standard wyświetlania Video Graphics Array (VGA) został wprowadzony w 1987 roku, z maksymalną rozdzielczością 640×480 pikseli., W listopadzie 1988 roku NEC Home Electronics ogłosiło utworzenie Stowarzyszenia Video Electronics Standards Association (VESA) w celu opracowania i promowania standardu wyświetlaczy komputerowych Super VGA (SVGA) jako następcy zastrzeżonego standardu wyświetlaczy VGA firmy IBM. Wyświetlacz graficzny z obsługą Super VGA o rozdzielczości do 800×600 pikseli, wzrost o 36%.w 1991 roku S3 Graphics wprowadziło na rynek model S3 86c911, który został nazwany na cześć Porsche 911, a jego projektanci nazwali go na cześć Porsche 911., W 1995 roku wszyscy główni producenci układów graficznych PC dodali obsługę akceleracji 2D do swoich układów. W tym czasie akceleratory Windows o stałej funkcji przewyższyły kosztowne koprocesory graficzne ogólnego przeznaczenia w wydajności systemu Windows, a te koprocesory zniknęły z rynku komputerów PC.

w latach 90.akceleracja interfejsu graficznego 2D wciąż ewoluowała. Wraz ze wzrostem możliwości produkcyjnych poprawiał się również poziom integracji układów graficznych., Dodatkowe interfejsy programowania aplikacji (API) przybyły do różnych zadań, takich jak Microsoft”Wing graphics library Dla Windows 3.x, a ich późniejszy interfejs DirectDraw do akceleracji sprzętowej gier 2D w systemie Windows 95 i nowszych.

we wczesnych I połowie lat 90.grafika 3D w czasie rzeczywistym stawała się coraz bardziej powszechna w grach zręcznościowych, komputerowych i konsolowych, co doprowadziło do rosnącego zapotrzebowania społeczeństwa na grafikę 3D przyspieszaną sprzętowo., Wczesne przykłady masowego rynku sprzętu graficznego 3D można znaleźć na płytach arcade system, takich jak Sega Model 1, Namco System 22 i Sega Model 2, oraz konsole gier wideo piątej generacji, takie jak Saturn, PlayStation i Nintendo 64. Systemy zręcznościowe, takie jak Sega Model 2 i Namco Magic Edge Hornet Simulator w 1993 roku były zdolne do sprzętu T&l (transformacja, przycinanie i oświetlenie) lata przed pojawieniem się w konsumenckich kartach graficznych. Niektóre systemy wykorzystywały DSP do przyspieszenia transformacji., Fujitsu, które pracowało nad systemem SEGA Model 2 arcade, rozpoczęło pracę nad integracją T& L w jedno rozwiązanie LSI do użytku w komputerach domowych w 1995 roku; Fujitsu Pinolite, pierwszy procesor geometrii 3D dla komputerów osobistych, wydany w 1997 roku. Pierwszym sprzętowym procesorem graficznym t&L na domowych konsolach gier wideo był koprocesor rzeczywistości Nintendo 64, wydany w 1996 roku., W 1997 Mitsubishi wydało 3Dpro/2MP, w pełni funkcjonalny GPU zdolny do transformacji i oświetlenia, dla stacji roboczych i komputerów z systemem Windows NT; ATi wykorzystało go do swojej karty graficznej FireGL 4000, wydanej w 1997.

termin „GPU” został ukuty przez Sony w odniesieniu do 32-bitowego GPU Sony (zaprojektowanego przez Toshibę) w Konsoli Gier Wideo PlayStation, wydanej w 1994 roku.

w PC world, godnymi uwagi pierwszymi próbami tanich układów graficznych 3D były S3 ViRGE, ATI Rage i Matrox Mystique. Układy te były zasadniczo akceleratorami 2D poprzedniej generacji z funkcjami 3D przykręconymi., Wiele z nich było nawet kompatybilnych z układami wcześniejszej generacji, co ułatwiało implementację i minimalizowało koszty. Początkowo wydajność grafiki 3D była możliwa tylko z dyskretnymi płytami dedykowanymi do przyspieszania funkcji 3D (i bez akceleracji GUI 2D całkowicie), takich jak PowerVR i 3DFX Voodoo. Jednak wraz z postępem technologii produkcji, wideo, akceleracja GUI 2D i funkcjonalność 3D zostały zintegrowane w jednym chipie. Chipsety Verite Rendition były jednymi z pierwszych, które zrobiły to na tyle dobrze, że były godne uwagi., W 1997 r. firma podjęła współpracę z Hercules i Fujitsu przy projekcie „Thriller Conspiracy”, który połączył procesor geometrii Fujitsu FXG-1 Pinolite z rdzeniem vérité V2200, aby stworzyć kartę graficzną z pełnym silnikiem T&l lata przed NVIDIA”GeForce 256″. Ta karta, zaprojektowana w celu zmniejszenia obciążenia nałożonego na procesor systemu, nigdy nie trafiła na rynek.,

OpenGL pojawił się na początku lat 90. jako profesjonalne graficzne API, ale pierwotnie cierpiał na problemy z wydajnością, które pozwoliły Glide API wkroczyć i stać się dominującą siłą na PC w późnych latach 90. jednak problemy te zostały szybko przezwyciężone i Glide API upadł na bok. Implementacje oprogramowania OpenGL były powszechne w tym czasie, chociaż wpływ OpenGL ostatecznie doprowadził do powszechnego wsparcia sprzętowego. Z czasem pojawił się parytet między funkcjami oferowanymi w sprzęcie i tymi oferowanymi w OpenGL., DirectX stał się popularny wśród twórców gier Windows pod koniec lat 90. W Przeciwieństwie Do OpenGL, Microsoft nalegał na zapewnienie ścisłej obsługi sprzętu jeden-na-jeden. Podejście sprawiło, że DirectX początkowo był mniej popularny jako samodzielny interfejs graficzny, ponieważ wiele procesorów graficznych dostarczało swoje własne specyficzne funkcje, z których istniejące aplikacje OpenGL mogły już korzystać, pozostawiając DirectX często jedną generację w tyle. (Patrz: porównanie OpenGL i Direct3D.,)

z czasem Microsoft zaczął ściślej współpracować z twórcami sprzętu i zaczął kierować wydania DirectX tak, aby pokrywały się z wersjami wspierającymi sprzęt graficzny. Direct3D 5.0 był pierwszą wersją rozwijającego się API, która zyskała szerokie zastosowanie na rynku gier i konkurowała bezpośrednio z wieloma innymi-specyficznymi sprzętowo, często własnościowymi bibliotekami graficznymi, podczas gdy OpenGL utrzymywał silną obserwację. Direct3D 7.,0 wprowadził wsparcie dla akceleracji sprzętowej transformacji i oświetlenia (T&L) dla Direct3D, podczas gdy OpenGL miał tę możliwość już od samego początku. Karty akceleratora 3D wyszły poza zwykłe rasteryzatory, aby dodać kolejny znaczący etap sprzętowy do potoku renderowania 3D. Nvidia GeForce 256 (znana również jako NV10) była pierwszą kartą na rynku konsumenckim z akceleracją sprzętową T& L, podczas gdy profesjonalne karty 3D miały już taką możliwość., Transformacja sprzętowa i oświetlenie, obie istniejące już funkcje OpenGL, pojawiły się na sprzęcie na poziomie konsumenckim w latach 90. i ustanowiły precedens dla późniejszych jednostek pixel shader i vertex shader, które były znacznie bardziej elastyczne i programowalne.

od 2000 do 2010Edit

Nvidia jako pierwsza wyprodukowała układ zdolny do programowalnego cieniowania; GeForce 3 (o nazwie kodowej NV20). Każdy piksel może być teraz przetwarzany przez krótki „program”, który może zawierać dodatkowe tekstury obrazu jako dane wejściowe, a każdy geometryczny wierzchołek może być również przetwarzany przez krótki program, zanim zostanie wyświetlony na ekranie., Używany w konsoli Xbox, konkurował z PlayStation 2, który używał niestandardowej jednostki wektorowej do przyspieszania sprzętowego przetwarzania wierzchołków; powszechnie określany jako VU0/VU1. Najwcześniejsze wcielenia shader execution engines używane w Xbox nie były ogólnego przeznaczenia i nie mogły wykonać dowolnego kodu pikseli. Wierzchołki i piksele były przetwarzane przez różne jednostki, które miały własne zasoby z shaderami pikseli o znacznie ściślejszych ograniczeniach (ponieważ są wykonywane na znacznie wyższych częstotliwościach niż w przypadku wierzchołków)., Silniki cieniowania pikseli były w rzeczywistości bardziej zbliżone do wysoce konfigurowalnego bloku funkcyjnego i nie „naprawdę” uruchamiał ” program. Wiele z tych różnic między cieniowaniem wierzchołków i pikseli zostało rozwiązanych dopiero znacznie później za pomocą modelu zunifikowanego cieniowania.

w październiku 2002 roku, wraz z wprowadzeniem ATI Radeon 9700 (znanego również jako R300), pierwszy na świecie akcelerator Direct3D 9.0, shadery pikseli i wierzchołków mogły zaimplementować pętlową i długotrwałą matematykę zmiennoprzecinkową i szybko stały się tak elastyczne jak procesory, ale o rzędy wielkości szybciej dla operacji na macierzach obrazów., Cieniowanie pikseli jest często używane do mapowania wypukłości, które dodaje teksturę, aby obiekt wyglądał lśniąco, matowo, szorstko, a nawet okrągło lub wytłaczano.

wraz z wprowadzeniem serii Nvidia GeForce 8, a następnie nowe GPU generic stream processing unit stały się bardziej uogólnionymi urządzeniami obliczeniowymi., Obecnie parallel GPU zaczęły dokonywać obliczeń w stosunku do procesora, a pole badań, zwane GPU Computing lub GPGPU do obliczeń ogólnego przeznaczenia na GPU, znalazło drogę do dziedzin tak różnorodnych, jak uczenie maszynowe, eksploracja ropy naftowej, naukowe przetwarzanie obrazów, algebra liniowa, statystyka, rekonstrukcja 3D, a nawet ustalanie cen opcji na akcje. GPGPU w tym czasie był prekursorem tego, co obecnie nazywa się shaderem obliczeniowym (np., CUDA, OpenCL, DirectCompute) i faktycznie nadużywał sprzętu do pewnego stopnia, traktując dane przekazywane algorytmom jako mapy tekstur i wykonując algorytmy rysując trójkąt lub kwadrat za pomocą odpowiedniego shadera pikseli. Oczywiście wiąże się to z pewnymi kosztami ogólnymi, ponieważ jednostki takie jak konwerter skanowania są zaangażowane tam, gdzie są naprawdę potrzebne (ani manipulacje trójkątami nie są nawet problemem-z wyjątkiem wywołania shadera pikseli). Z biegiem lat zużycie energii przez GPU wzrosło i do zarządzania nim zaproponowano kilka technik.,

Platforma CUDA firmy Nvidia, wprowadzona po raz pierwszy w 2007 roku, była najwcześniejszym szeroko przyjętym modelem programowania dla komputerów GPU. Ostatnio OpenCL stał się szeroko wspierany. OpenCL jest otwartym standardem zdefiniowanym przez Khronos Group, który pozwala na rozwój kodu zarówno dla GPU, jak i procesorów z naciskiem na przenośność. Rozwiązania OpenCL są obsługiwane przez Intel, AMD, Nvidia i ARM, a według ostatniego raportu Evan ” S Dane, OpenCL jest platformą rozwoju GPGPU najczęściej używane przez programistów w USA i Azji i Pacyfiku.,

2010 prezentacjaedit

w 2010 roku firma Nvidia rozpoczęła współpracę z Audi, aby zasilić deski rozdzielcze swoich samochodów. Te GPU Tegra zasilały deskę rozdzielczą samochodów, oferując zwiększoną funkcjonalność systemów nawigacji i rozrywki. Postępy w technologii GPU w samochodach pomogły wypchnąć technologię samodzielnej jazdy. Karty AMD z serii Radeon HD 6000 pojawiły się w 2010 roku. w 2011 roku firma AMD wypuściła na rynek układy GPU z serii 6000M przeznaczone do użytku w urządzeniach mobilnych. Linia kart graficznych Kepler firmy Nvidia pojawiła się w 2012 roku i została wykorzystana w kartach serii NVIDIA 600 i 700., Funkcja w tej nowej mikroarchitekturze GPU obejmowała GPU boost, technologię, która dostosowuje prędkość zegara karty graficznej, aby zwiększyć lub zmniejszyć ją w zależności od poboru mocy. Mikroarchitektura Keplera została wyprodukowana w procesie 28 nm.

PS4 i Xbox One zostały wydane w 2013 roku, oba używają GPU opartego na AMD”Radeon HD 7850 i 7790. Linia GPU Kepler firmy Nvidia została poprzedzona linią Maxwella, wyprodukowaną w tym samym procesie., Chipy 28 nm firmy Nvidia zostały wyprodukowane przez TSMC, tajwańską firmę produkującą Półprzewodniki, która w tym czasie wytwarzała proces 28 nm. W porównaniu z technologią 40 nm z przeszłości, ten nowy proces produkcji pozwolił na 20-procentowy wzrost wydajności przy jednoczesnym zmniejszeniu mocy. Słuchawki wirtualnej rzeczywistości mają bardzo wysokie wymagania systemowe. Producenci zestawów słuchawkowych VR zalecali GTX 970 i R9 290X lub lepsze w momencie ich wydania. Pascal to kolejna generacja konsumenckich kart graficznych firmy Nvidia wydana w 2016 roku., Seria kart GeForce 10 jest pod tą generacją kart graficznych. Są one wykonane przy użyciu procesu produkcyjnego 16 nm, który poprawia się w stosunku do poprzednich mikroarchitektur. Nvidia wydała jedną kartę non-consumer pod nową architekturą Volta, Titan V. zmiany z Titan XP, wysokiej klasy karty Pascala, obejmują wzrost liczby rdzeni CUDA, dodanie rdzeni tensor i HBM2., Rdzenie Tensor są rdzeniami specjalnie zaprojektowanymi do głębokiego uczenia, podczas gdy pamięć o dużej przepustowości jest na matrycy, ułożona w stosy, pamięć o niższym taktowaniu, która oferuje niezwykle szeroką magistralę pamięci, która jest przydatna do zamierzonego celu Titan V. Aby podkreślić, że Titan V nie jest kartą do gier, Nvidia usunęła przyrostek „GeForce GTX”, który dodaje do konsumenckich kart do gier.

20 sierpnia 2018 r.Firma Nvidia wprowadziła na rynek procesory graficzne z serii RTX 20, które dodają rdzenie ray-tracing do procesorów graficznych, poprawiając ich wydajność w zakresie efektów świetlnych. Karty graficzne Polaris 11 i Polaris 10 firmy AMD są wytwarzane w procesie 14-nanometrowym., Ich wydanie skutkuje znacznym wzrostem wydajności na wat kart graficznych AMD. Firma AMD wydała również serię GPU Vega na rynek high end jako konkurent dla kart NVIDIA high end Pascal, również wyposażonych w HBM2, takich jak Titan V.

w 2019 roku firma AMD wydała następcę mikroarchitektury/zestawu instrukcji Graphics Core Next (GCN). Pierwsza seria kart graficznych Radeon RX 5000, nazwana RDNA, została wprowadzona na rynek 7 lipca 2019 roku., Później firma ogłosiła, że następca mikroarchitektury RDNA będzie odświeżany. Nowa mikroarchitektura, nazwana RDNA 2, miała zostać udostępniona w czwartym kwartale 2020 roku.

firma AMD zaprezentowała serię Radeon RX 6000, nową generację kart graficznych RDNA 2 z obsługą przyspieszanego sprzętowo ray tracingu podczas wydarzenia online 28 października 2020 roku. Początkowo w skład zestawu wchodziły RX 6800, RX 6800 XT i RX 6900 XT. RX 6800 i 6800 XT zostały wprowadzone na rynek 18 listopada 2020 roku, a RX 6900 XT-8 grudnia 2020 roku., Wersje RX 6700 i RX 6700 XT, bazujące na Navi 22, mają zostać wprowadzone na rynek w pierwszej połowie 2021 roku.

PlayStation 5 i Xbox Series X i Series S zostały wydane w 2020 roku, oba wykorzystują GPU oparte na mikroarchitekturze RDNA 2 z zastrzeżonymi ulepszeniami i różnymi konfiguracjami GPU w każdej implementacji systemu.

firmy GPUEDYTUJ

wiele firm produkowało GPU pod wieloma markami. W 2009 r. wiodącymi udziałami w rynku były firmy Intel, Nvidia i AMD/ATI, z odpowiednio 49,4%, 27,8% i 20,6% udziałem w rynku., Jednak liczby te obejmują zintegrowane rozwiązania graficzne Intela jako GPU. Nie licząc tych, Nvidia i AMD kontrolują prawie 100% rynku od 2018 roku. Ich udziały w rynku wynoszą odpowiednio 66% i 33%. Ponadto S3 Graphics i Matrox produkują GPU.Nowoczesne smartfony używają również głównie GPU Adreno od Qualcomm, GPU PowerVR od Imagination Technologies i GPU Mali od ARM.


Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *