Android

Grafikus kártya - mindent, amit tudnia kell

Tartalomjegyzék:

Anonim

A játékgépek korszakában a grafikus kártya annyira vagy csaknem nagyobb jelentőséggel bírt, mint a CPU. Valójában sok felhasználó elkerüli a nagy teljesítményű CPU-k vásárlását, hogy pénzt fektessen be ebbe a fontos összetevőbe, amely a textúrákkal és a grafikával kapcsolatos mindent feldolgozza. De mennyit tudsz erről a hardverről? Nos, itt mindent elmagyarázunk, vagy valami kevésbé mindent, amit legfontosabbnak tartunk.

Tartalom index

A grafikus kártya és a játék korszak

Kétségtelen, hogy a GPU-k elnevezéséhez leggyakrabban a grafikus kártya kifejezést használják, bár ez nem pontosan ugyanaz, és magyarázatot adunk rá. A GPU vagy a grafikus feldolgozó egység alapvetően a grafika kezelésére épített processzor. A kifejezés nyilvánvalóan nagyon hasonlónak hangzik, mint a CPU, ezért fontos különbséget tenni a két elem között.

Amikor egy grafikus kártyáról van szó, akkor tényleg a fizikai alkatrészről beszélünk. Ez az alaplaptól független PCB-ből épül, és csatlakozóval van ellátva, általában PCI-Express, amelyhez maga az alaplaphoz lesz csatlakoztatva. Erre a NYÁK-ra telepítettük a GPU-t, valamint a grafikus memóriát vagy a VRAM-ot, valamint olyan komponenseket, mint a VRM, a csatlakozási portok és a hűtőborda rajongóival.

A játék nem létezik, ha nem a grafikus kártyák számára, különösen, ha számítógépről vagy PC-ről van szó. A kezdetben mindenki tudni fogja, hogy a számítógépek nem rendelkeztek grafikus felülettel, csak egy fekete képernyő volt a parancsok beírására vonatkozó utasításokkal. Ezek az alapvető funkciók messze nem jelennek meg a játék korszakában, amelyekben tökéletes grafikus felülettel és hatalmas felbontással rendelkeznek berendezések, amelyek lehetővé teszik, hogy a környezeteket és a karaktereket szinte úgy kezeljük, mintha az való élet lenne.

Miért különítsük el a GPU-t és a CPU-t?

A védett grafikus kártyákról beszélnünk kell, hogy először tudjuk, mit hoznak nekünk, és miért olyan fontosak ma. Ma nem tudtuk elképzelni egy játékszámítógépet fizikailag különálló CPU és GPU nélkül.

Mit csinál a CPU?

Itt meglehetősen egyszerű, mert mindannyian betekintést nyerhetünk a számítógép mikroprocesszorának munkájába. Ez a központi feldolgozó egység, amelyen keresztül átjutnak a programok által generált összes utasítás, valamint a perifériák és a felhasználó által küldött utasítások nagy része. A programokat olyan utasítások sorozata alkotja, amelyek végrehajtásra kerülnek, hogy egy bemeneti ösztönzőn alapuló választ generálnak, lehet egy egyszerű kattintás, parancs vagy maga az operációs rendszer.

Most jön egy részlet, amelyet meg kell emlékezni, amikor meglátjuk, mi a GPU. A CPU magokból áll, és mondhatjuk, hogy egy nagy méret. Mindegyik képes végrehajtani az utasításokat a másik után, annál több mag, mivel több utasítás végrehajtható egyszerre. Számos program létezik a számítógépen, és sokféle utasítás, nagyon bonyolult és több szakaszra osztva. De az az igazság, hogy egy program nem generál sok ilyen utasítást párhuzamosan. Hogyan tudjuk biztosítani, hogy a CPU „megértse” a telepített programokat? Szükségünk van néhány magra, nagyon összetett és nagyon gyors az utasítások gyors végrehajtására, tehát észrevesszük, hogy a program folyékony és reagál arra, amit kérünk.

Ezek az alapvető utasítások egész számokra, logikai műveletekre és néhány lebegőpontos műveletekre vonatkoznak. Ez utóbbi a legbonyolultabb, mivel nagyon nagy valós számok, amelyeket tudományos jelölés felhasználásával kompaktabb elemekben kell ábrázolni. A CPU támogatása a RAM, a gyors tárolás, amely menti a futó programokat és az utasításokat, hogy 64 bites buszon továbbítsák őket a CPU-ra.

És mit csinál a GPU?

Pontosan a GPU szorosan kapcsolódik ezekhez a lebegőpontos műveletekhez, amelyekről korábban beszéltünk. Valójában egy grafikus processzor gyakorlatilag egész időt tölti az ilyen típusú műveletek végrehajtására, mivel nagyon sok köze van a grafikus utasításokhoz. Ezért gyakran matematikai társprocesszornak hívják, valójában van egy a CPU-n belül, de sokkal egyszerűbb, mint a GPU.

Miből készül egy játék? Nos, alapvetően a pixelmozgás a grafikus motornak köszönhetően. Ez nem más, mint egy digitális környezet vagy világ utánozására összpontosító program, ahol úgy mozogunk, mintha saját lenne. Ezekben a programokban a legtöbb utasítás a pixelekkel és azok mozgásával kapcsolatos, a textúrák kialakításához. Ezeknek a textúráknak viszont színe, 3D térfogata és a fényvisszaverés fizikai tulajdonságai vannak. Mindez alapvetően lebegőpontos műveletek mátrixokkal és geometriákkal, amelyeket egyszerre kell elvégezni.

Ezért a GPU-nak nincs 4 vagy 6 magja, de ezeknek több ezre van, hogy ezeket a speciális műveleteket egyszerre és újra elvégezzék. Persze, ezek a magok nem annyira "okos", mint a CPU-magok, de sokkal több ilyen típusú műveletet végezhetnek egyszerre. A GPU-nak saját memóriája is van, a GRAM, amely sokkal gyorsabb, mint a normál RAM. Sokkal nagyobb busszal rendelkezik, 128 és 256 bit között, amely sokkal több utasítást küld a GPU-nak.

A videóban, amelyet összekapcsolva hagyunk, a mítoszvadászok a CPU és a GPU működését és a magok számát tekintve emulálják a képet, amikor képet festenek.

youtu.be/-P28LKWTzrI

Mit csinálnak a CPU és a GPU?

Ezen a ponton már gondolhatja, hogy a játékgépekben a CPU befolyásolja a játék és az FPS végső teljesítményét is. Nyilvánvaló, hogy számos utasítás tartozik a CPU felelősségi körébe.

A CPU felel azért, hogy csúcsok formájában továbbítja az adatokat a GPU-nak, hogy "megértse", milyen fizikai átalakításokat (mozgásokat) kell tennie a textúrákhoz. Ezt Vertex Shadernek vagy mozgásfizikának hívják. Ezután a GPU információt szerez arról, hogy ezek a csúcsok melyikek lesznek láthatóak, az úgynevezett pixelkivágást raszteresítéssel. Ha márismerjük az alakját és annak mozgását, akkor ideje a textúrákat Full HD, UHD vagy bármilyen felbontásban alkalmazni és azok megfelelő hatásait, akkor ez a Pixel Shader folyamat .

Ugyanezen okból kifolyólag, minél nagyobb a CPU energiája, annál több csúcs utasítást tud küldeni a GPU-nak, és annál jobban reteszeli. Tehát a két elem közötti legfontosabb különbség a GPU feldolgozása specializációjának és párhuzamosságának mértéke.

Mi az APU?

Már láttuk, hogy mi a GPU, annak működése a számítógépen, és a kapcsolat a processzorral. De ez nem az egyetlen létező elem, amely képes 3D grafikákat kezelni, és ezért van az APU vagy a gyorsított processzor egység.

Ezt a kifejezést az AMD találta ki, hogy processzorokat nevezze meg ugyanabba a csomagba integrált GPU-val. Valójában ez azt jelenti, hogy magán a processzoron belül van egy chip vagy annál jobb, ha több magból áll egy chipset, amely képes 3D grafikával dolgozni, ugyanúgy, mint a grafikus kártya. Valójában sok mai processzor rendelkezik ilyen típusú processzorral, úgynevezett IGP (Integrált Grafikai Processzor) magában.

De természetesen, a priori, nem lehet összehasonlítani a grafikus kártya teljesítményét több ezer belső maggal egy magában a CPU-ba integrált IGP-vel. Tehát feldolgozási kapacitása a bruttó teljesítmény szempontjából még mindig jóval alacsonyabb. Ehhez hozzá kell adni azt a tényt, hogy nincs dedikált memória olyan gyorsan, mint a grafikus kártyák GDDR-je, elegendő a RAM memória egy részével a grafikus kezeléséhez.

Különleges grafikus kártyákat hívunk dedikált grafikus kártyáknak, míg IGP belső grafikus kártyákat. Az Intel Core ix processzorokban szinte mindegyikük rendelkezik az Intel HD / UHD Graphics nevű integrált GPU-val , kivéve azokat a modelleket, amelyek végén az "F" betű található. Az AMD ugyanezt teszi néhány CPU-val, különösen a G sorozat Ryzenével és az Athlonnal, a Radeon RX Vega 11 és Radeon Vega 8 elnevezésű grafikákkal .

Egy kis történelem

Messze vannak a régi, csak szöveges számítógépek, amelyek jelenleg vannak, de ha valami minden korban jelen volt, az a vágy, hogy egyre részletesebb virtuális világot hozzunk létre, hogy belemerüljünk a belsejébe.

Az első általános fogyasztói berendezésben, amelyen az Intel 4004, 8008 és a vállalati processzorok működtek, már volt grafikus kártya vagy valami hasonló. Ezek csak a kód értelmezésére és a képernyőn körülbelül 40 vagy 80 oszlopból álló egyszerű szöveg formájában, és természetesen monokróm formában történő megjelenítésére korlátozódtak. Valójában az első grafikus kártyát MDA-nak (Monocrome Data Adapter) hívták. Saját RAM-ja nem kevesebb, mint 4KB, hogy tökéletes grafikát nyújtson sima szöveg formájában 80 × 25 oszlopokban.

Ezután jött a CGA (színes grafikus adapter) grafikus kártyák, 1981-ben az IBM elkezdett forgalmazni az első színes grafikus kártyát. Képes egyszerre 4 szín megjelenítésére a belső 16 palettából , 320 × 200 felbontással. Szöveges módban képes volt a felbontást 80 × 25 oszlopra emelni, vagy pedig 640 × 200-ra.

Folytatjuk az előrehaladást a HGC vagy a Hercules grafikus kártyával, a név ígéri! Egy olyan fekete-fehér kártya, amely a felbontást 720 × 348-ra emeli, és a CGA mellett képes működni akár két különböző video kimenettel is.

Ugrás a gazdag grafikával rendelkező kártyákra

Vagy inkább az EGA, a továbbfejlesztett grafikus adapter, amelyet 1984-ben hoztunk létre. Ez volt az első grafikus kártya, amely képes az ATI Technologies modellekben 16 színben és 720 × 540 felbontásban képes dolgozni, jól hangzik-e Önnek, igaz?

1987-ben új felbontást állítanak elő, és az ISA video csatlakozót elhagyják a VGA (Video Graphics Array) port, más néven Sub15-D port elfogadására, amely analóg soros port volt, amelyet a közelmúltban használták CRT-k és akár panelek számára. TFT. Az új grafikus kártyák színpalettáját 256-ra, VRAM memóriáját 256 KB-ra emelték. Ebben az időben a számítógépes játékok sokkal összetettebbek voltak.

1989-ben volt, amikor a grafikus kártyák abbahagyták a színes paletták használatát és elkezdték használni a színmélységet. Az alaplaphoz csatlakoztatott VESA szabványnak megfelelően a buszt 32 bitre bővítették, tehát a SuperVGA porttal rendelkező monitoroknak köszönhetően több millió színben és felbontásban is képesek voltak működni 1024x768p felbontásig. Az olyan ikonikus kártyák, mint az ATI Match 32 vagy a 64-bites 64-bites felülettel, az idők legjobbjai között voltak.

Megérkezik a PCI nyílás és ezzel a forradalom

A VESA szabvány egy nagy busz pokla volt, tehát 1993-ban a PCI szabványra vált, ahogyan ma a különféle generációkkal rendelkezünk. Ez lehetővé tette számunkra a kisebb kártyák használatát, és sok gyártó csatlakozott a párthoz, mint például a Creative, a Matrox, a 3dfx a Voodoo és a Voodoo 2-vel, valamint egy Nvidia az első, 1998-ban kiadott RIVA TNT és TNT2 modellekkel. Abban az időben megjelent a 3D gyorsítás első speciális könyvtárai, például a Microsoft DirectX és a Silicon Graphics OpenGL.

Hamarosan a PCI busz túl kicsi lett, olyan kártyákkal, amelyek képesek 16 bit és 3D grafika kezelésére 800x600p felbontással, így létrejött az AGP (Advanced Graphics Port) busz. Ennek a busznak 32 bites PCI-szerű felülete volt, de a buszt további 8 csatornával növelte, hogy gyorsabban kommunikáljon a RAM-mal. Buszja 66 MHz-en és 256 Mbps sávszélességgel működött, legfeljebb 8 verziója (AGP x8) elérheti a 2, 1 GB / s-ot, amelyet 2004-ben felvált a PCIe busz.

Itt már nagyon jól felállítottuk a két nagyszerű grafikus kártyagyártót, mint például az Nvidia és az ATI. Az egyik első kártya, amely az új korszakot jelölte, a Nvidia GeForce 256 volt, amely T&L technológiát (világítási és geometriai számításokat) valósított meg. Ezután a versenytársak felett rangsorolja, hogy az első 3D-s sokszög grafikus gyorsító és Direct3D kompatibilis legyen. Röviddel ezután az ATI kiadta első Radeonját, így megformálva mindkét gyártó nevét a játék grafikus kártyáira, amelyek napjainkig tartanak, még az ATI AMD általi vásárlása után is.

A PCI Express busz és az aktuális grafikus kártyák

És végül eljutunk a grafikus kártyák jelenlegi korszakához, amikor 2004-ben a VGA interfész már nem működött, és helyébe a PCI-Express váltott. Ez az új busz akár 4 GB / s sebességű transzfert tett lehetővé egyszerre akár felfelé, akár lefelé (250 MB x16 sáv). Kezdetben az alaplap északi hídjával lenne összekapcsolva, és a RAM memória egy részét a videóhoz használja, TurboCaché vagy HyperMemory néven. Később az északi híd magába a CPU-ba történő beépítésével ez a 16 PCIe sáv közvetlen kapcsolatba kerülne a CPU-val.

Az ATI Radeon HD és az Nvidia GeForce korszak kezdődött, és a piacon megjelenő számítógépek játék grafikus kártyáinak vezető exponenciáivá váltak. Az Nvidia hamarosan vezető szerepet tölt be egy GeForce 6800- al, amely támogatja a DirectX 9.0c-et, szemben egy kissé elmaradt ATI Radeon X850 Pro-val. Ezután mindkét márka továbbfejlesztette az egységes árnyékoló architektúrát Radeon HD 2000 és GeForce 8 sorozataival. Valójában a nagy teljesítményű Nvidia GeForce 8800 GTX volt a generáció egyik legerősebb kártyaja, és még azok is, amelyek utána jöttek, az Nvidia határozott ugrása a fölénye felé. 2006-ban az AMD vásárolta az ATI-t, és kártyáikat AMD Radeon-nak nevezték el.

Végül a DirectX 12, Open GL 4.5 / 4.6 könyvtárakkal kompatibilis kártyákon állunk, az első az Nvidia GTX 680 és az AMD Radeon HD 7000. A két gyártó egymást követő generációk jött létre, az Nvidia esetében a Maxwell (GeForce 900), Pascal (GeForce 10) és a Turing (Geforce 20) architektúrákkal rendelkezünk, míg az AMD Polaris (Radeon RX), GCN (Radeon Vega) és most az RDNA (Radeon RX 5000).

Grafikus kártya alkatrészei és hardverei

Megvizsgáljuk a grafikus kártya fő részeit, hogy meghatározzuk, mely elemeket és technológiákat kell tudnunk vásárlásukkor. A technológia természetesen sokat halad előre, tehát fokozatosan frissítjük az itt látott eredményeket.

Chipset vagy GPU

Már nagyon jól tudjuk, mi a kártya grafikus processzora funkciója, de fontos tudni, hogy mi van benne. Ez a lényege, és belül rengeteg olyan magot találunk, amelyek felelősek a különböző funkciók végrehajtásáért, különösen az Nvidia által jelenleg alkalmazott építészetben. Belül található a megfelelő magok és a chiphez kapcsolódó gyorsítótár, amely általában L1 és L2.

Egy Nvidia GPU-n belül megtaláljuk a CUDA vagy CUDA magokat, amelyek úgynevezett felelõsek az általános lebegőpontos számítások elvégzéséért. Ezeket az AMD kártyák magokat stream processzoroknak nevezzük. Ugyanaz a szám a különböző gyártók kártyáin nem jelenti ugyanazt a kapacitást, mivel ezek az architektúrától függenek.

Ezen kívül az Nvidia Tensor magokkal és RT magokkal is rendelkezik. Ezeket a magokat a valós idejű sugárkövetésről szóló összetettebb utasításokkal rendelkező processzor számára tervezték, amely a gyártó új generációs kártya egyik legfontosabb képessége.

GRAM memória

A GRAM memória gyakorlatilag ugyanazt a funkciót használja, mint a számítógép RAM memóriája, és tárolja azokat a textúrákat és elemeket, amelyeket a GPU-ban dolgoznak fel. Ezen túlmenően nagyon nagy kapacitást találunk, jelenleg szinte az összes csúcskategóriás grafikus kártyánál több mint 6 GB van.

DDR típusú memória, akárcsak a RAM, tehát tényleges frekvenciája mindig kétszerese az óra frekvenciájának, amit figyelembe kell venni a túllépés és a specifikációs adatok vonatkozásában. Jelenleg a legtöbb kártya GDDR6 technológiát használ , ha mint hallja, DDR6, míg a normál RAM-ban DDR4. Ezek az emlékek sokkal gyorsabbak, mint a DDR4, és ténylegesen akár 14 000 MHz (14 Gbps) frekvenciát is elérnek egy 7000 MHz-es órával, ráadásul a buszszélességük sokkal nagyobb, néha eléri a 384 bitet az Nvidia-n. felső sorozat.

De van még egy második memória, amelyet az AMD a Radeon VII-hez használt a HBM2 esetében. Ennek a memórianak a sebessége nem olyan magas, mint a GDDR6-nál, ehelyett brutális buszszélességet kínál, akár 2048 bitig .

VRM és TDP

A VRM a grafikus kártya összes elemének, különösen a GPU-nak és annak GRAM-memóriájának a tápellátását biztosító elem. Ugyanazokból az elemekből áll, mint az alaplap VRM, a MOSFETS egyenáramú egyenirányítóként működik, a fojtók és a kondenzátorok. Hasonlóképpen, ezeket a fázisokat V_core és V-SoC-kre osztják, a GPU és a memória számára.

A TDP oldalán ez pontosan ugyanazt jelenti, mint a CPU-nál. Nem a processzor által fogyasztott energiáról van szó, hanem arról, hogy hő formájában az energia maximális üzemi terhelést generál.

A kártya táplálásához tápcsatlakozóra van szükségünk. Jelenleg 6 + 2-tűs konfigurációt használnak a kártyákra, mivel maga a PCIe nyílás csak legfeljebb 75 W-ot képes szolgáltatni, míg a GPU több mint 200 W-ot képes felhasználni.

Csatlakozási felület

A csatlakozási felület lehetővé teszi a grafikus kártya és az alaplap csatlakoztatását. Jelenleg abszolút összes dedikált grafikus kártya a PCI-Express 3.0 buszon keresztül működik, kivéve az új AMD Radeon XR 5000 kártyákat, amelyeket a PCIe 4.0 buszra frissítettek.

Gyakorlati célokra különbséget nem fogunk észrevenni, mivel a 16 soros buszon jelenleg kicserélendő adatmennyiség sokkal kisebb, mint a kapacitása. A kíváncsiságból a PCIe 3.0 x16 15, 8 GB / s sebességgel képes felfelé és lefelé egyidejűleg, míg a PCIe 4.0 x16 a kapacitást 31, 5 GB / s-ig megduplázza. Hamarosan minden GPU PCIe 4.0 lesz, ez nyilvánvaló. Nem kell aggódnunk a PCIe 4.0 kártya és a 3.0 kártya miatt, mivel a szabvány mindig visszamenőleges kompatibilitást kínál.

Video portok

Végül, de nem utolsósorban, vannak video csatlakozók is, amelyekre szükségünk van a monitor vagy monitor csatlakoztatásához és a kép megszerzéséhez. A jelenlegi piacon négyféle videokapcsolat van:

  • HDMI: A nagyfelbontású multimédia interfész a tömörítetlen kép- és hang-multimédia eszközök kommunikációs szabványa. A HDMI verzió befolyásolja a grafikus kártyáról elérhető képkapacitást. A legújabb verzió a HDMI 2.1, amely maximális felbontást kínál 10K-ig, 4K-t játszik 120 Hz-en és 8K 60 Hz-en. Míg a 2.0-s verzió 4K @ 60Hz-et kínál 8 bitben. DisplayPort: Ez is egy soros felület tömörítetlen hanggal és képpel. Mint korábban, e port verziója nagyon fontos lesz, és legalább 1, 4-nek kell lennie, mivel ez a verzió támogatja a tartalom 8K-os frekvenciáját 60 Hz-en és 4K-os frekvenciáján 120 Hz- en legalább 30 bittel. és HDR-ben. Kétségtelen, hogy a mai legjobb. USB-C: A C típusú USB egyre több eszközt ér el, nagy sebességének és 40 Gb / s sebességű olyan interfészekkel történő integrációjának köszönhetően, mint például a DisplayPort és a Thunderbolt 3. Ennek az USB-nek DisplayPort alternatív módja van, ez a DisplayPort 1.3, támogatva a képeket 4K felbontásban, 60 Hz-en. Hasonlóképpen a Thunderbolt 3 képes UHD tartalmak lejátszására azonos feltételek mellett. DVI: valószínűtlen csatlakozó találja meg az aktuális monitorokban, mivel ez a VGA fejlődését nagyfelbontású digitális jellé alakítja. Ha elkerülhetjük, jobb, mint jobb, a legelterjedtebb a DVI-DL.

Mennyire erős a grafikus kártya

A grafikus kártya erősségére való hivatkozáshoz meg kell ismerni néhány fogalmat, amelyek általában megjelennek annak specifikációjában és referenciaértékeiben. Ez lesz a legjobb módja annak, hogy mélyebben megismerjük azt a grafikus kártyát, amelyet meg akarunk vásárolni, és hogyan tudjuk összehasonlítani a versennyel.

FPS arány

Az FPS a képkocka sebessége vagy a keretek másodpercenként. Azt méri , hogy a képernyő milyen gyakorisággal jelenít meg egy videó, játék képeit vagy a rajta ábrázolt képeket. Az FPS-nek sok köze van ahhoz, hogy hogyan érzékeljük a képen a mozgást. Minél több FPS, annál folyékonyabb érzést ad a kép. Legalább 60 FPS sebességgel az emberi szem normál körülmények között teljesen folyékony képet fog értékelni, amely szimulálja a valóságot.

De természetesen minden nem függ a grafikus kártyától, mivel a képernyő frissítési gyakorisága megjelöli a látni kívánt FPS-t. Az FPS megegyezik a Hz-vel, és ha a képernyő 50 Hz-es, akkor a játékot legfeljebb 60 FPS-en lehet megtekinteni, még akkor is, ha a GPU képes 100 vagy 200 FPS-sel lejátszani. Ahhoz, hogy tudjuk, mi lenne a maximális FPS-sebesség, amelyet a GPU képes képviselni, le kell tiltanunk a vertikális szinkronizálást a játék opcióiban.

A GPU architektúrája

Mielőtt még láttuk, hogy a GPU-k bizonyos számú fizikai maggal rendelkeznek, ami arra késztethet bennünket, hogy azt gondoljuk, hogy minél többet, annál jobb teljesítményt nyújt nekünk. De ez nem pontosan így van, mivel a CPU architektúrához hasonlóan a teljesítmény még azonos sebességgel és azonos magokkal is változik. Ezt IPC-nek vagy utasításnak ciklusonként hívjuk.

A grafikus kártyák architektúrája az idő múlásával egyszerűen látványos előadásokkal fejlődött. Képesek támogatni a 4K felbontást 60Hz felett, vagy akár 8K felbontást. De ami a legfontosabb, az a nagy képessége, hogy valós időben animálja és textúrákat világossá tegyen, ahogy a szemünk a való életben.

Jelenleg megvan az Nvidia Turing architektúrájával, amely 12 nm FinFET tranzisztorokat használ az új RTX lapkakészletének felépítéséhez. Ennek az architektúrának két különféle eleme van, amelyek eddig nem léteztek a fogyasztói berendezésekben: a Ray Tracing képesség valós időben és a DLSS (Deep Learning Super Sampling). Az első függvény megpróbálja szimulálni, hogy mi történik a valós világban, kiszámítva, hogy a fény hogyan befolyásolja a virtuális objektumokat valós időben. A második, a mesterséges intelligencia algoritmusok sorozata, amellyel a kártya alacsonyabb felbontással adja a textúrákat a játék teljesítményének optimalizálása érdekében, olyan, mint egyfajta antialiasing. Az ideális a DLSS és a Ray Tracing kombinációja.

Az AMD által kiadta az architektúrát is, bár igaz, hogy az előzőekkel egyidejűleg létezik olyan széles körű kártya, amely - bár igaz - nem tartozik az Nvidia csúcskategóriájához. Az RDNA-val az AMD 25% -kal növelte GPU-jának IPC-jét a CNG-architektúrához képest, így 50% -kal nagyobb sebességet ért el minden elfogyasztott wattnál.

Órafrekvencia és turbó üzemmód

Az architektúrán túl két paraméter nagyon fontos a GPU teljesítményének látásához, ezek a bázisórájának frekvenciája, valamint a gyári turbó vagy a túllépés üzemmód növekedése. Mint a CPU-k esetében, a GPU-k is képesek grafikus feldolgozási gyakoriságukat változtatni, amire az adott időben szükség van.

Ha megnézzük, a grafikus kártyák frekvenciája sokkal alacsonyabb, mint a processzoroké, körülbelül 1600–2000 MHz. Ennek oka az, hogy a nagyobb magszám miatt magasabb frekvenciára van szükség a kártya TDP vezérléséhez.

Ekkor elengedhetetlen tudni, hogy a piacon referenciamodellek és személyre szabott kártyák vannak. Az első a maguk a gyártók, az Nvidia és az AMD által kiadott modellek. Másodszor, a gyártók alapvetően GPU-kat és emlékeket vesznek, hogy összeállítsák a magasabb teljesítményű összetevőket és hűtőbordakat. Ebben az esetben az órafrekvenciája is megváltozik, és ezek a modellek általában gyorsabbak, mint a referencia modellek.

TFLOPS

Az órafrekvenciával együtt megvan a FLOPS (lebegőpontos műveletek másodpercenként). Ez az érték méri azokat a lebegőpontos műveleteket, amelyeket a processzor egy másodperc alatt képes végrehajtani. Ez egy szám, amely méri a GPU és a CPU bruttó teljesítményét. Jelenleg nem beszélhetünk egyszerűen a FLOSP-ról, a TeraFLOPS-tól vagy a TFLOPS-től.

Nem szabad összetéveszteni azt, hogy azt gondoljuk, hogy több TFLOPS azt jelenti, hogy a grafikus kártya jobb. Általában ez a helyzet, mivel a textúráknak szabadon kell mozgatniuk. De más elemek, mint például a memória mennyisége, sebessége, valamint a GPU és a gyorsítótár architektúrája, különbséget tesznek.

TMU-k és ROP-k

Ezek olyan kifejezések, amelyek minden grafikus kártyán megjelennek, és jó képet alkotnak nekünk ugyanazon működési sebességről.

A TMU a Texture Mapping Unit kifejezést jelenti. Ez az elem felelős a bitkép kép méretezéséért, elforgatásáért és torzításáért, hogy 3D-s modellbe helyezze, amely textúraként szolgál. Más szavakkal, egy 3D-s objektumra alkalmaz egy színes térképet, amely a priori üres lesz. Minél több TMU, annál nagyobb a texturálási teljesítmény, annál gyorsabban tölti ki a képpontokat, és minél több FPS-t kapunk. A jelenlegi TMU-k tartalmazzák a textúrairányítási egységeket (TA) és a textúraszűrő egységeket (TF).

Most meglátogatjuk a ROP-kat vagy a raszteres egységeket. Ezek az egységek feldolgozzák a VRAM memóriából származó texelinformációkat, és mátrix- és vektorműveleteket hajtanak végre a pixel végértékének megadásakor, amely annak mélysége lesz. Ezt raszterizációnak nevezzük, és alapvetően a memóriában található különböző pixelértékek antialiasing vagy egyesítésének vezérlését. A DLSS pontosan ennek a folyamatnak a fejlődését eredményezi

A memória mennyisége, sávszélesség és buszszélesség

Tudjuk, hogy többféle típusú technológia létezik a VRAM memória számára, amelyek közül jelenleg a legszélesebb körben használják a GDDR5 és a GDDR6, az utóbbi akár 14 Gbps sebességgel. A RAM-hoz hasonlóan, minél több memória van, annál pixeleket, szöveget és szöveges adatokat tudunk tárolni. Ez nagyban befolyásolja a játék felbontását, a világ részletességét és a látótávolságot. Jelenleg a grafikus kártyának legalább 4 GB-os VRAM-re lesz szüksége ahhoz, hogy az új generációs játékokkal Full HD és nagyobb felbontásban dolgozzon.

A memória buszszélessége azt a bitszámot jelöli, amelyet egy szóban vagy utasításban lehet továbbítani. Ezek sokkal hosszabbak, mint a CPU-k, 192 és 384 bit közötti hosszúsággal, ne felejtsük el a párhuzamosság fogalmát a feldolgozásban.

A memória sávszélessége az az információmennyiség, amelyet időegységenként lehet továbbítani, és GB / s-ban mérik. Minél nagyobb a buszszélesség és annál nagyobb a memóriafrekvencia, annál nagyobb sávszélességet fogunk kapni, mert minél nagyobb az az információmennyiség, amely rajta keresztülhaladhat. Olyan, mint az internet.

API kompatibilitás

Az API alapvetően olyan könyvtárak halmaza, amelyeket különféle alkalmazások fejlesztésére és működtetésére használnak. Ez az alkalmazás programozását jelenti, és az az eszköz, amellyel a különböző alkalmazások kommunikálnak egymással.

Ha a multimédiás világba költözünk, akkor vannak olyan API-k is, amelyek lehetővé teszik a játékok és a videó működtetését és létrehozását. A leghíresebb a DirectX, amely 2014 óta 12. verziója, és a legújabb frissítésekben megvalósította a Ray Tracing, a programozható MSAA és a virtuális valóság képességeit. A nyílt forráskódú OpenGL verzió, amely 4.5 verzió, és sok játékban is használják. Végül megvan a Vulkan, egy speciálisan az AMD számára kifejlesztett API (a forráskód az AMD-től származott, és átkerült a Khronos-ba).

Túllépési képesség

Mielőtt beszéltünk a GPU-k turbófrekvenciájáról, de az is lehetséges, hogy túllépéssel növeljük a határain. Ez a gyakorlat alapvetően arra törekszik, hogy több FPS-t találjon a játékokban, több folyadékot, hogy javítsuk a válaszunkat.

A CPU-k túlzárási képessége körülbelül 100 vagy 150 MHz, bár egyesek architektúrájuktól és maximális frekvenciájuktól függően képesek valami többet vagy kevesebbet támogatni.

Lehetséges azonban a GDDR-memóriák átfedése is, és még sok minden. Az átlagos GDDR6 memória, amely 7000 MHz-en működik , akár 900 és 1000 MHz- es feltöltéseket is támogat, így akár 16 Gbps-os hatékonyságot is elérhet. Valójában ez az elem növeli a játék FPS-sebességét a legjobban, akár 15 FPS-sel is.

A legjobb overclocking programok közül az Evga Precision X1, az MSI AfterBurner és az AMD WattMan for Radeons. Bár sok gyártónak megvan a saját, például az AORUS, a Colorful, az Asus stb.

A grafikus kártya tesztértékei

A referenciaértékek olyan stressz- és teljesítménytesztek, amelyek PC-jének bizonyos hardverkiegészítőin keresztül kerülnek értékelésre és összehasonlítják teljesítményüket a piacon lévő más termékekkel. Természetesen vannak referenciaértékek a grafikus kártyák és még a grafikus CPU készlet teljesítményének értékelésére.

Ezek a tesztek szinte mindig dimenzió nélküli pontszámot mutatnak, vagyis csak a program által generált tesztekkel lehet megvásárolni. Az ellenkező oldalon lenne az FPS és például a TFLOPS. A grafikus kártya referenciaértékeihez a leggyakrabban használt programok a 3DMark, amely számos különféle tesztet tartalmaz , a PassMark, a VRMark vagy a GeekBench. Mindegyiknek megvan a saját statisztikai táblázata, hogy megvásárolja a GPU-t a versenyen.

A méret számít… és a hűtőborda is

Természetesen ez számít a barátoknak, ezért mielőtt vásárolnánk egy grafikus kártyát, a legkevésbé tehetünk mindent, ha átnézzük a specifikációit és megnézze, mit mér. Akkor menjünk az alvázunkhoz, és mérjük meg, hogy milyen hely áll rendelkezésre ehhez.

A dedikált grafikus kártyák nagyon erőteljes GPU-kkal rendelkeznek, mindegyik TDP meghaladja a 100 W-ot. Ez azt jelenti, hogy meglehetősen meleg lesz, sőt, még melegebb is, mint a processzorok. Ezért mindegyiknek nagy hűtőbordája van, amely majdnem az egész elektronikai PCB-t elfoglalja.

A piacon alapvetően kétféle hűtőborda található.

  • Ventilátor: Az ilyen típusú hűtőborda például az AMD Radeon RX 5700 és 5700 XT referenciamodellekkel vagy az előző Nvidia GTX 1000 modellekkel rendelkezik. Egyetlen ventilátor szívja fel a függőleges levegőt és kényszeríti az átfolyást a finomhűtően. Ezek a hűtőborda nagyon rossz, mert kevés levegőt vesz, és a hűtőborda áthaladásának sebessége alacsony. Tengelyirányú áramlás: egy életre szóló ventilátorok, amelyek függőlegesen helyezkednek el a hűtőbordában, és a levegőt az uszák felé tolják, amelyek később az oldalról kijönnek. Az összes egyedi modellben használják, hogy a legjobban teljesítsék. Még folyékony hűtés: a csúcskategóriás modellekben vannak hűtőbordak, amelyek beépítik a folyadékhűtési rendszert, például az Asus Matrix RTX 2080 Ti.

Személyre szabott kártyák

Az általános hardvergyártók, például Asus, MSI, Gigabyte stb. Által összeállított grafikai modelleket nevezzük . Ezek közvetlenül megvásárolják a grafikus chipeket és az emlékeket a fő gyártótól, az AMD-től vagy az Nvidia-tól, majd ráhelyezik őket az általuk készített NYÁK-ra és az általuk készített hűtőbordaval együtt.

A jó dolog ebben a kártyában az, hogy a gyárban overclockokkal érkeznek, magasabb frekvenciával, mint a referencia modellek, tehát kissé jobban teljesítenek. A hűtőborda szintén jobb, és a VRM, sőt sokuknak is van RGB- je. A rossz dolog az, hogy általában drágábbak. Egy másik pozitív szempont az, hogy sokféle méretet kínálnak, ATX, Micro ATX vagy akár ITX alvázakhoz, nagyon kicsi és kompakt kártyákkal.

Hogyan működik egy játék laptop GPU vagy grafikus kártya?

Bizonyára ezen a ponton kíváncsi vagyunk, hogy egy laptop rendelkezik-e dedikált grafikus kártyával, és az az igazság, hogy igen. Valójában a professzionális áttekintésben hatalmas számú játék-laptopot elemzünk egy dedikált GPU-val.

Ebben az esetben nem telepíti a bővítőkártyára, hanem a lapkakészletet közvetlenül a laptop fő PCB-jére forrasztja, és nagyon közel a CPU-hoz. Ezeket a konstrukciókat általában Max-Q-nek hívják, mert nincsenek szárnyas hűtőbordaik, és az alaplapban van egy meghatározott régió számukra.

Ezen a területen a vitathatatlan király az Nvidia, az RTX és a GTX Max-Q. A laptopokhoz optimalizált chipek, amelyek az asztali modellekhez képest 1/3-ot fogyasztanak, és teljesítményük csak 30% -át áldozzák fel. Ez úgy érhető el, hogy csökkenti az órafrekvenciáját, néha néhány mag eltávolításával és a GRAM lelassításával.

Milyen CPU-t szerelhetek fel a grafikus kártya alapján

A játékhoz, valamint a számítógépen mindenféle feladat elvégzéséhez mindig meg kell találnunk az egyensúlyt alkotóelemeinkben a szűk keresztmetszetek elkerülése érdekében. Ezt a játék világára és a grafikus kártyáinkra redukálva egyensúlyt kell elérnünk a GPU és a CPU között, hogy egyikük sem maradjon hiányos, és a többi túl sokat használja. Pénzünk forog kockán, és nem vásárolhatunk RTX 2080-at, és nem telepíthetjük a Core i3-9300F-hez.

A központi processzornak fontos szerepe van a grafika kezelésében, ahogyan azt az előző szakaszokban már láthattuk. Tehát ellenőriznünk kell, hogy elegendő sebességgel, magokkal és feldolgozó szálakkal rendelkezik-e a játék vagy videó fizikájához és mozgásához, és a lehető leggyorsabban el kell küldeni a grafikus kártyára.

Mindenesetre lehetőségünk van arra is, hogy módosítsuk a játék grafikus beállításait, hogy csökkentsük az igényekhez túl lassú CPU hatását. A GPU esetében könnyű kompenzálni a teljesítmény hiányát, csupán a felbontás csökkentésével kiváló eredményeket érhetünk el. A CPU-val ez más, mivel bár kevesebb pixel van, a fizika és a mozgás majdnem ugyanaz marad, és ezen opciók minőségének csökkentése nagyban befolyásolhatja a helyes játékélményt. Íme néhány lehetőség, amelyek befolyásolják a CPU-t és mások a GPU-n:

Befolyásolják a GPU-t Befolyásolják a CPU-t
Általában megjelenítési lehetőségek Általában a fizikai lehetőségek
élsimítás Karaktermozgás
Ray Tracing A képernyőn megjelenő elemek
textúrák részecskéket
mozaik
utófeldolgozás
felbontás
Környezeti elzáródás

Ezt látva többé-kevésbé általános mérleget tudunk készíteni a berendezés besorolására a felhasználás céljának megfelelően. Ez megkönnyíti a többé-kevésbé kiegyensúlyozott előírások elérését.

Olcsó multimédia és irodai berendezések

A legalapvetőbbre, vagy legalábbis arra, amit alapvetőnek tekintünk, eltekintve a Celeron mini PC-jétől. Állítólag, ha olcsón keresnénk, a legjobb dolog az AMD Athlon processzorainak vagy az Intel Pentium Goldnak lenni. Mindkét esetben van jó szintű integrált grafikánk, például az első esetben a Radeon Vega, vagy az Intel esetében az UHD grafika, amelyek támogatják a nagy felbontást és a felesleges feladatok tisztességes teljesítményét.

Ezen a területen teljesen értelmetlen vásárolni egy dedikált grafikus kártyát. Két maggal rendelkező processzorok, amelyek nem fognak elegendő hozamot nyújtani a kártya költségeinek amortizálásához. Sőt, az integrált grafika hasonló teljesítményt fog nyújtani nekünk, mint amit egy 80-100 eurós dedikált GPU kínálna.

Általános célú felszerelés és alacsony szintű játék

Az általános célú berendezéseket úgy tekinthetjük, hogy sokféle körülmények között jól reagáljanak. Például szörfözés, irodában való munka, pinitók készítése a tervezésben és akár videók szerkesztése amatőr szinten, és alkalmi játék a Full HD-ben (szintén nem jöhetünk és sokkal többet kérhetünk).

Ezen a területen kiemelkedik a négymagos és a magas frekvenciájú Intel Core i3, különösen az AMD Ryzen 3 3200G és az 5 3400G, a beépített Radeon RX Vega 11 grafikával és rendkívül igazított árral. Ezek a Ryzen képesek mozgatni egy utolsó generációs játékot méltóságteljesen, alacsony minőségű és Full HD minőségben. Ha valami jobbat akarunk, menjünk tovább a következőhöz.

Grafikus kártyával rendelkező számítógép közepes és nagy hatótávolságú játékokhoz

Középkategóriás játékként már engedhetjük meg maguknak a Ryzen 5 2600 vagy Core i5-9400F eszközöket kevesebb, mint 150 euróért, és hozzáadhatunk egy dedikált GPU-t, például az Nvidia 1650, 1660 és 1660 Ti, vagy az AMD Radeon RX 570, 580 vagy 590. Nem rossz megoldás, ha nem akarunk 250 eurónál többet költeni grafikus kártyára.

Természetesen, ha többet akarunk, áldozatokat kell hoznunk, és ez az, ha optimális játékélményt akarunk elérni Full HD vagy 2K minőségben. Ebben az esetben a megjegyzett processzorok továbbra is nagyszerű lehetőség a 6-magos modellekhez, de felmehetünk a Ryzen 5 3600 és 3600X, valamint az Intel Core i5-9600K-ra. Ezekkel érdemes frissíteni az Nvidia RTX 2060/2070 Super és AMD RX 5700/5700 XT verziójára.

Lelkes játék- és tervezőcsapat

Itt rengeteg renderelési feladat és játék lesz a maximális szűrőkkel futva, tehát legalább 8 magos CPU-ra és erős grafikus kártyára van szükség. Kiváló választás az AMD Ryzen 2700X vagy 3700X, vagy az Intel Core i7 8700K vagy 9700F. Velük együtt megérdemeljük az Nvidia RTX 2070 Super készüléket vagy az AMD Radeon RX 5700 XT készüléket.

És ha barátaink irigységéül akarunk élni, lépjünk fel az RTX 2080 Super-hez, várjunk egy kicsit a Radeon 5800- at, és szerezzünk egy AMD Ryzen 3900X-et vagy Intel Core i9-9900K-t. A szálak szűkítői jelenleg nem kivitelezhetők, bár az LGA 2066 platform Intel X és XE készülékei drága és drága.

Következtetés a grafikus kártyáról és az ajánlott modellekről

Eddig ez a bejegyzés áll, amelyben elegendő részletességgel magyarázzuk meg a grafikus kártyák jelenlegi helyzetét, valamint egy kicsit a történelemüktől kezdve. Ez a számítástechnika világ egyik legnépszerűbb terméke, mivel egy játék PC biztosan sokkal többet fog végrehajtani, mint egy konzol.

Az igazi játékosok számítógépeket használnak játékra, különösen az e-sportban vagy a világméretű versenyjátékokban. Ezekben mindig próbáljon meg elérni a lehető legnagyobb teljesítményt, növelve az FPS-t, csökkentve a válaszideket és a játékhoz tervezett összetevőket használva. Grafikus kártyák nélkül semmi sem lehetséges.

  • Milyen grafikus kártyát vásárolhatok? A legjobb a piacon A legjobb grafikus kártya a piacon
Android

Választható editor

Back to top button