Karta graficzna

karta rozszerzeń przetwarzająca obraz i przekazująca go na wyświetlacz

Karta graficzna – w węższym rozumieniu karta rozszerzeń komputera która przetwarza dane graficzne, adaptując je na sygnał odpowiedni do wyświetlenia przez monitor lub inne urządzenie wyjściowe[1][2]. W szerszym znaczeniu obejmuje każdy układ zawierający procesor graficzny (GPU), niezależnie od tego, czy jest to karta rozszerzeń[3], zintegrowana część płyty głównej[4], procesora[5][6][7][8], specjalistyczny moduł przeznaczony do zastosowań naukowych, karty w sieciach neuronowych[9] czy karty do kopania kryptowalut[10].

Karta graficzna Gigabyte RTX 4070 Aero
Karta graficzna MSI RTX 2080 Gaming X Trio
Procesor graficzny karty 6600GT
Jedna z kart Nvidia – GeForce 8800 GTS

Historia edytuj

Frame buffer edytuj

Pierwszym komercyjnym protoplastą kart graficznych był frame buffer (bufor ramki) o handlowej nazwie Picture System, z roku 1974[11] firmy Evans & Sutherland, wyświetlał obraz w 256 odcieniach szarości o rozdzielczości 512 na 512 pikseli. Współcześnie bufor ramki to integralna część struktury każdej karty graficznej, czyli wydzielony obszar pamięci VRAM[12][13][14].

Przed główną erą GPU edytuj

Pierwszą kartą graficzną produkowaną na masową skalę, która implementowała idee osobnego procesora graficznego, tak jak w dzisiejszych konstrukcjach, był IBM Professional Graphics Adapter (PGA) z 1984 roku dla komputerów IBM XT i IBM PC/AT[15].

W latach 90 modele kart graficznych miały ograniczoną wydajność i oferowały podstawowe funkcje graficzne i technologie 3d. Główni producenci tego okresu to: SGI cards; 3DFX (Voodoo); Nvidia(TNT); ATI (Rage); Matrox[16].

W 1996 3dfx wypuszcza na rynek, pierwszy powszechnie dostępny akcelerator 3d o nazwie Voodoo Graphics, później znany jako Voodoo 1. Glide interfejs programistyczny opracowany dla tych kart, stał się popularnym standardem, na komputery PC zgodne z architekturą x86 w drugiej dekadzie lat 90, przed erą DirectX.

Termin "GPU" (Procesor graficzny) został wprowadzony dopiero w 1999 roku przez NVIDIA[17]. Aż do wczesnych lat 80. XX wieku „GPU” były jednostkami zajmującymi się obsługą pamięci ramki do przechowywania i generowania obrazu, zintegrowanym buforem ramki[18][19].

Główna era GPU[20] edytuj

  • Pierwsza generacja[21] 1999 DirectX 7 Obejmuje postęp w technologiach 3D, większą wydajność, wprowadzenie akceleracji sprzętowej. Ukucie pojęcia GPU przez NVIDIA[22].
  • Druga generacja[23] 2001-2006 DirectX 8,9. Programowalne vertex (wierzchołki) i geometry shaders (cieniowanie geometryczne), Shader Model 1.0, 2.0 i 3.0. Seria ikonicznych GPU GeForce 3.
  • Trzecia generacja[24] 2006-2009 DirectX 10, 11. CUDA (dla NVIDIA), Shader Model 4.0. Pierwsza seria GPU kompatybilna z DirectX 10 – NVIDIA GeForce 8.
  • Czwarta generacja[25] 2009-2015 DirectX 11. Shader Model 5.0. Pierwsza kompatybilna seria kart graficznych z DirectX 11 – AMD Radeon HD 5000.
  • piąta generacja[26] 2015-2020 DirectX 12 i Vulkan – oba API niskopoziomowe, wprowadzenie wielowątkowości. Ikoniczny model karty graficznej tego okresu to 1080ti.
  • Szósta generacja[27] 2020- DirectX 12 ultimate, pełna implementacja ray tracingu.

Rodzaje procesorów graficznych edytuj

Procesory graficzne (GPU), produkowane na rynek masowy, przez AMD, Intela oraz NVIDIA, dzielimy ze względu na przeznaczenie[28].

1. Procesory dedykowane, przeznaczone do kart graficznych, także tych laptopowych, nie dzielące pamięci RAM z CPU[29].

  • Radeon produkowany przez AMD
  • GeForce produkowany przez Nvidia
  • ARC produkowany przez Intela[30]

2. Procesory zintegrowane, będące częścią płyty głównej lub CPU, dzielące pamięć RAM z CPU[31].

  • Radeony z sufiksem m produkowane przez AMD
  • Intel HD Graphics produkowane przez Intela
  • laptopowe GeForce produkowany przez Nvidia

Produkowane są też inne modele kart graficznych i kart z GPU do zastosowań profesjonalnych i kopania kryptowalut[32].

Funkcje edytuj

Cechy współczesnych GPU na przykładzie procesorów NVIDIA z 2024[33]:

Narzędzia Deweloperskie: Przemysł Gier: Sztuczna Inteligencja(AI) i Uczenie Maszynowe(ML): Grafika i Obliczenia Wizualne: Wirtualna Rzeczywistość (VR): Technologie Profesjonalne i Renderowania: Optymalizacja i Wydajność:
CUDA GameWorks AI Computing IndeX Virtual Reality DirectX 12 Ultimate GPUBoost
OptiX Ray Tracing Engine GameStream Deep Learning Iray vGPU Pixar Universal Scene Description WhisperMode
PhysX (Developer) G-SYNC Machine Learning Material Definition Language (MDL) PostWorks VLink
RTX Real-Time Ray Tracing Multi-GPU SceniX Optimus
ShadowPlay NVAPI ShadowWorks
ShadowWorks Visual Computing
SLI SceniX
3DVision & Surround
4K
TXAA

Budowa karty graficznej edytuj

Podstawowe elementy karty graficznej: edytuj

  • procesor graficzny (GPU) – serce karty graficznej
  • VRAM - pamięć RAM karty graficznej
  • wyjścia sygnałów
  • złącze do płyty głównej
  • układ chłodzenia

W przeszłości część kart graficznych posiadała:

  • RAMDAC (ang. RAM + Digital-to-Analog Converter) przetwornik cyfrowo-analogowy – odpowiedzialny za przekształcenie cyfrowych danych z pamięci obrazu na sygnał sterujący dla monitora analogowego; w przypadku kart wyłącznie z wyjściem cyfrowym RAMDAC nie występuje.
  • framegrabber – układ zamieniający zewnętrzny, analogowy sygnał wideo na postać cyfrową (tylko w kartach posiadających przechwytywanie obrazu),
  • procesor wideo – układ wspomagający dekodowanie i przetwarzanie strumieniowych danych wideo; w najnowszych konstrukcjach zintegrowany z procesorem graficznym.

Typy złącz do płyt głównych edytuj

historyczne:

obecne:

Wyjścia sygnału edytuj

Zasilanie edytuj

Karta graficzna na złączu PCI Express jest zasilana z płyty głównej do 75 watów[34]. Karty graficzne potrzebujące więcej prądu posiadają dodatkowe złącza zasilania:

  • MOLEX - stosowane w starszych modelach.
  • Złącza PCI-e: W standardowych wersjach: 6-pin dla kart o poborze prądu powyżej 75 watów do 150 watów oraz 8-pin dla kart o poborze prądu od 150 watów[35]. W wersji PCI-e 5.0, 12VHPWR obsługującej do 600 W[36].

Układ chłodzenia edytuj

Większość kart graficznych do poprawnego działania potrzebuje układu chłodzenia. Najwięcej ciepła wytwarza GPU, dlatego stosuje się trzy rozwiązania:

  • Chłodzenie pasywne - stosowane w mniej wydajnych kartach.
  • Chłodzenie aktywne - poprzez montaż wentylatora lub wentylatorów na radiatorze.
  • Chłodzenie wodne - w kartach o dużej emisji cieplnej montuje się układ chłodzenia wodą.

Elementem wydzielającym ciepło jest również pamięć RAM karty graficznej. Zazwyczaj jest chłodzona wspólnym z GPU układem chłodzenia.

Multi-GPU edytuj

Historycznie istniały dwie szerzej znane technologie łączenia kart graficznych, w celu zwiększenia wydajności w grach. Pierwsza od Nvidia o nazwie SLI (Scalable Link Interface), wspierana do 2020. Druga od ATI później AMD, funkcjonująca pod różnym nazwami, w różnych okresach czasu jako: ATI Multi-Rendering (AMR); CrossFire; CrossFireX; Multi-GPU (MGPU)[37][38](w kolejności chronologicznej). Rozwijana przez AMD do roku 2019[39]. Zarówno w przypadku AMD, jak i Nvidii, do trybu Multi-GPU wymagany był mostek łączący dwie karty.

Mniej znanym rozwiązaniem było ATI Hybrid CrossFireX, wprowadzone na rynek pod koniec 2007 roku wraz z chipsetami serii AMD 700. Później przemianowane na AMD Dual Graphics[40]. Pozwalało na łączenie dedykowanej karty graficznej z zintegrowanym procesorem graficznym[41], szybko porzucone przez producenta. Także za niszową można uznać SLI (Scan Line Interleave) od 3dfx, z drugiej połowy lat 90 XX wieku, mimo identycznego akronimu jak SLI (Scalable Link Interface) od NIVIDI to różne technologie. W przeszłości jeszcze trzy inne firmy wdrożyły w swoich produktach łączenie kart graficznych. Były to S3 Graphics z MultiChrome, XGI Technology z BitFluent Protocol i Metabyte z Parallel Graphics Configuration.

Współczesne połączenia GPU[42]:

  • PCIe
  • NVLink
  • NV-SLI
  • NVSwitch
  • GPUDirect

Różnice w terminologii edytuj

Wraz z pojawieniem się w 1996 kart Voodoo firmy 3dfx, zrodził się termin akcelerator graficzny. Karty te wymagały obecności w komputerze zwykłej karty graficznej.

W drugiej połowie lat 90 pozostali producenci zdecydowali się na integrację akceleratorów grafiki trójwymiarowej z samymi kartami graficznymi, podobnie jak to miało miejsce z akceleratorami grafiki dwuwymiarowej. Później także firma 3dfx zdecydowała się połączyć swoje akceleratory z kartami graficznymi.

Karta graficzna jest często nazywana GPU, co pochodzi od skrótu angielskiego terminu "Graphics Processing Unit". To określenie odnosi się jednak wyłącznie do procesora graficznego, który stanowi jeden z komponentów karty graficznej.

W polskiej terminologii zintegrowane procesory graficzne nazywane są "integrami" (od angielskiego "Integrated graphics"), zintegrowanymi kartami graficznymi lub zintegrowanymi układami graficznymi. Stanowią one część płyty głównej lub procesora. Technicznie rzecz biorąc, są to procesory graficzne, a nie karty graficzne.

Znaczenie kart graficznych edytuj

Karty graficzne, oprócz swojej roli w renderowaniu grafiki i obsłudze wyświetlacza, są wykorzystywane do przyspieszania obliczeń w zastosowaniach naukowych, w tym w symulacjach naukowych, analizach danych i badaniach. Dodatkowo, za sprawą swojej mocy obliczeniowej, są często używane do treningu modeli sztucznej inteligencji, ponieważ potrafią szybko przetwarzać duże ilości danych potrzebnych do uczenia maszynowego i głębokich sieci neuronowych[43].

Karty graficzne o dużej mocy obliczeniowej są wykorzystywane w procesie wydobywania, zwłaszcza w przypadku niektórych kryptowalut takich jak Ethereum, które korzystają z algorytmu Proof of Work (PoW).

Przypisy edytuj

  1. https://www.intel.com/content/www/us/en/products/docs/processors/what-is-a-gpu.html
  2. Składamy komputer. Karta graficzna, budowa, podstawowe informacje, „Poradnik komputerowy”, mamkomputer.info, 18 marca 2016 [dostęp 2016-11-06] (pol.).
  3. https://www.britannica.com/technology/video-card
  4. https://www.dobreprogramy.pl/integry-sa-wystarczajace-spada-popularnosc-dedykowanych-kart-graficznych,6628560685389441a
  5. https://www.intel.com/content/www/us/en/products/docs/processors/what-is-a-gpu.html#:~:text=While%20the%20terms%20GPU%20and,board%20that%20incorporates%20the%20GPU.
  6. https://www.sciencedirect.com/science/article/pii/S1571066120300153
  7. https://web.archive.org/web/20220817143241/https://www.euro.com.pl/artykuly/wszystkie/artykul-zintegrowana-karta-graficzna-co-to-znaczy-wady-i-zalety.bhtml
  8. https://www.purepc.pl/test-zintegrowanego-uklady-graficznego-radeon-w-procesorze-amd-ryzen-5-7600x-czy-jest-szybszy-od-intel-uhd-770
  9. http://dsp.vscht.cz/konference_matlab/matlab10/full_text/051_kajan.pdf
  10. https://web.archive.org/web/20230822092603/https://www.pcworld.com/article/407065/amd-nvidia-coin-mining-graphics-cards-appear-as-gaming-gpu-shortage-intensifies.html
  11. http://s3data.computerhistory.org/brochures/evanssutherland.3d.1974.102646288.pdf
  12. GPU Framebuffer Memory: Understanding Tiling, Samsung Developer [dostęp 2024-01-21] (ang.).
  13. https://graphics.stanford.edu/courses/cs448a-01-fall/lectures/lecture5/framebuffer.2up.pdf
  14. https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/
  15. Thomas Scott Crow, Frederick C. Harris jr., Evolution of the Graphical Processing Unit, University of Nevada Reno, grudzień 2004 (ang.).
  16. https://picture.iczhiku.com/resource/paper/WyiWoZOZoDZWgvxN.pdf
  17. https://download.nvidia.com/developer/cuda/seminar/TDCI_Arch.pdf
  18. Ian. Buck, The Evolution of GPUs for General Purpose Computing., nvidia.com, 2010 (ang.).
  19. Chris McClanahan, History and Evolution of GPU Architecture, Georgia Tech College of Computing (ang.).
  20. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 63 (ang.).
  21. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 66 (ang.).
  22. https://download.nvidia.com/developer/cuda/seminar/TDCI_Arch.pdf
  23. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 63 (ang.).
  24. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 72 (ang.).
  25. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 79 (ang.).
  26. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 83 (ang.).
  27. Jon Peddie, The History of the GPU - Eras and Environment, Springer Nature Swizerland AG, 2022, s. 91 (ang.).
  28. https://www.intel.com/content/www/us/en/support/articles/000057824/graphics.html
  29. https://www.intel.com/content/www/us/en/support/articles/000057824/graphics.html
  30. https://ark.intel.com/content/www/us/en/ark/products/series/227957/intel-arc-a-series-graphics.html
  31. https://www.intel.com/content/www/us/en/support/articles/000057824/graphics.html
  32. https://web.archive.org/web/20240205221106/https://www.nvidia.com/en-us/design-visualization/desktop-graphics/
  33. https://web.archive.org/web/20240113161900/https://www.nvidia.com/en-us/technologies/
  34. https://www.gigabyte.com/Support/Consumer/FAQ/2773
  35. https://www.gigabyte.com/Support/Consumer/FAQ/2773
  36. https://members.pcisig.com/site/login?return=%2Fwg%2FPCI-SIG%2Fdocument%2F16495
  37. https://www.benchmark.pl/aktualnosci/amd-zmienia-nazwe-crossfire-na-multi-gpu-od-teraz-wsparcie-dla-2x.html
  38. https://hardwaresecrets.com/amd-dual-graphics-technology-review/
  39. https://gamingsociety.pl/artykul/amd-radeon-rx-5700-xt-wydajnosc-764803/
  40. https://www.tomshardware.com/reviews/dual-graphics-crossfire-benchmark,3583.html
  41. https://hardwaresecrets.com/amd-dual-graphics-technology-review/
  42. https://www.researchgate.net/publication/334489746_Evaluating_Modern_GPU_Interconnect_PCIe_NVLink_NV-SLI_NVSwitch_and_GPUDirect
  43. http://dsp.vscht.cz/konference_matlab/matlab10/full_text/051_kajan.pdf