Android

Nvidia 【minden információ】

Tartalomjegyzék:

Anonim

Az Nvidia Corporation, közismertebb nevén Nvidia, egy amerikai technológiai társaság, amely Delaware-ben található és a kaliforniai Santa Clara-ban található. Az Nvidia grafikus feldolgozó egységeket tervez a videojátékok és a professzionális piacok számára, valamint egy chipegység (SoC) rendszert az autóipar és a mobil számítástechnikai piac számára. Alapvető termékcsaládja, a GeForce közvetlen versenyben áll az AMD Radeon termékeivel.

Javasoljuk, hogy olvassa el a legjobb számítógépes hardver és alkatrész útmutatókat:

A GPU-k gyártása mellett az Nvidia világszerte párhuzamos feldolgozási képességeket biztosít a kutatók és tudósok számára, lehetővé téve számukra a nagy teljesítményű alkalmazások hatékony futtatását. A közelmúltban bekerült a mobil számítástechnikai piacra, ahol gyárt Tegra mobil processzort videojáték-konzolokhoz, táblagépekhez, valamint autonóm navigációs és jármű-szórakoztató rendszerekhez. Ennek eredményeként az Nvidia 2014 óta négy piacra koncentrál: a játékokra, a professzionális megjelenítésre, az adatközpontokra, valamint a mesterséges intelligenciára és az autókra.

Tartalom index

Nvidia története

Az Nvidia-t Jen-Hsun Huang, Chris Malachowsky és Curtis Priem alapította 1993-ban. A társaság három társalapítója azt feltételezte, hogy a számítás helyes iránya a grafikagyorsított feldolgozáson megy keresztül, hiszve, hogy ez a számítási modell megoldhatja azokat a problémákat, amelyeket az általános célú számítástechnika nem tudott megoldani. Azt is megjegyezték, hogy a videojátékok a számítástechnikai szempontból legnagyobb kihívást jelentő kérdések, és hihetetlenül magas eladási volumenük van.

Egy kis videojáték-társaságtól a mesterséges intelligencia óriásáig

A társaság 40 000 dolláros induló tőkével született, kezdetben nem volt neve, és a társalapítók megneveztek minden NV fájlt, mint a "következő kiadásban". A társaság alapításának szükségessége miatt a társalapítók felülvizsgálták a két betűvel ellátott összes szót, ami az "invidia" -hoz vezette, ami az irigységet jelentő latin szó.

A RIVA TNT 1998-as indítása megerősítette az Nvidia hírnevét a grafikus adapterek fejlesztésében. 1999 végén az Nvidia kiadta a GeForce 256 (NV10) készüléket, amely leginkább a fogyasztói szintű átalakítást és a világítást (T&L) vezette be a 3D hardverben. A 120 MHz frekvencián működő és négy pixelsoros vonallal rendelkező fejlett videogyorsítást, mozgáskompenzációt és hardver alkép-keverést valósított meg. A GeForce nagy haszonnal haladta meg a meglévő termékeket.

Termékei sikerének köszönhetően az Nvidia nyerte meg a Microsoft Xbox játékkonzolhoz tartozó grafikus hardver fejlesztésére irányuló szerződést, amely az Nvidia számára 200 millió dolláros előleget kapott. A projekt azonban a legtöbb mérnököt bevonta más projektekből. Rövid távon ez nem számított, és a GeForce2 GTS-t 2000 nyarán szállították. 2000 decemberében az Nvidia megállapodásra jutott, hogy egyetlen riválisa, a 3Dfx, a 3D grafikus technológia úttörője szellemi javait megvásárolja a fogyasztó számára. aki az 1990-es évek közepétől 2000-ig vezette a mezőt. Az akvizíciós folyamat 2002. áprilisában ért véget.

2002. júliusában az Nvidia nyilvánosságra nem hozott pénzért megvásárolta az Exlunát. Az Exluna volt a felelős különféle szoftvermegjelenítő eszközök létrehozásáért. Később, 2003 augusztusában az Nvidia mintegy 70 millió dollárért megvásárolta a MediaQ-t. 2004. április 22-én megszerezte az iReady-t is, a nagyteljesítményű TCP / IP és iSCSI offload megoldásokat.

Annyira nagy volt az Nvidia sikere a videojátékok piacán, hogy 2004 decemberében bejelentették, hogy segít a Sonynek a PlayStation 3 RSX grafikus processzorának, a japán cég új generációs videojáték-konzoljának tervezésében, amely nehéz feladat volt elődje, a történelem legkeresettebb sikere megismételése.

2006 decemberében az Nvidia az Egyesült Államok Igazságügyi Minisztériumától kapott idézeteket. Tekintettel a monopóliumellenes jogsértésekre a grafikus kártyaiparban. Abban az időben az AMD lett a nagy riválisa, miután az utóbbi megvásárolta az ATI-t. Azóta az AMD és az Nvidia voltak az egyedüli videojáték-grafikus kártyák gyártói, nem felejtve el az Intel integrált chipeit.

A Forbes az Nvidiat az évi legjobb társaságnak nevezte ki 2007-ben, utalva az elmúlt öt évben elért eredményeire. 2007. január 5-én az Nvidia bejelentette, hogy befejezte a PortalPlayer, Inc. felvásárlását, és 2008 februárjában az Nvidia megvásárolta az Ageiat, az ezt a motort üzemeltető PhysX fizikai motor és fizikai feldolgozó egység fejlesztőjét. Az Nvidia bejelentette, hogy a PhysX technológiát tervezi integrálni a jövőbeli GeForce GPU termékekbe.

Az Nvidia nagy nehézségekkel küzdött 2008 júliusában, amikor a bevétel mintegy 200 millió dollárral csökkent, miután beszámoltak arról, hogy a társaság által gyártott egyes mobil chipsetek és mobil GPU-k esetében a gyártási hibák miatt rendkívüli hibaarányok vannak. 2008 szeptemberében az Nvidia csoportos keresetet indított az érintettek részéről, azzal érvelve, hogy a hibás GPU-kat beépítették az Apple, a Dell és a HP által gyártott notebook egyes modelleibe. A szappanopera 2010 szeptemberében ért véget, amikor az Nvidia megállapodásra jutott, hogy az érintett laptopok tulajdonosai megtérítik a javítások költségeit, vagy egyes esetekben a termékek cseréjét.

Az Nvidia 2011 novemberében kiadta az ARG Tegra 3 chiprendszert a mobil eszközökhöz, miután először bemutatta a Mobile World Congress-en. Az Nvidia azt állította, hogy a chip az első négymagos mobil CPU-t tartalmazza. 2013 januárjában az Nvidia bemutatta a Tegra 4-et, valamint az Nvidia Shield-et, egy Android-alapú hordozható játékkonzolt, amelyet az új processzor táplál.

2016. május 6-án az Nvidia bemutatta a GeForce GTX 1080 és 1070 grafikus kártyákat, az első az új Pascal mikroarchitektúrán alapult. Az Nvidia azt állította, hogy mindkét modell felülmúlja a Maxwell-alapú Titan X modelljét. Ezek a kártyák tartalmazzák a GDDR5X és a GDDR5 memóriát, és 16 nm gyártási folyamatot használnak. A Pascal architektúra egyidejűleg több vetítésként (SMP) ismert új hardver funkciót is támogat, amelynek célja a többmonitoros és a virtuális valóság megjelenítésének javítása. A Pascal lehetővé tette az Nvidia Max-Q tervezési szabványának megfelelő laptopok gyártását.

2017 májusában az Nvidia bejelentette partnerségét a Toyota Motor Corp-vel, amelynek keretében ez utóbbi az Nvidia Drive X sorozatú mesterséges intelligencia platformját fogja használni autonóm járműveire. Az Nvidia és a kínai kereső óriás, a Baidu, Inc. 2017. júliusában bejelentette egy hatalmas AI-partnerséget, amely magában foglalja a felhőalapú számítástechnikát, az autonóm vezetést, a fogyasztói eszközöket és a Baidu AI keretét, a PaddlePaddle-t.

Nvidia GeForce és Nvidia Pascal, uralkodó játék

A GeForce az Nvidia által 1999-től létrehozott grafikus feldolgozó egységeken (GPU) alapuló grafikus kártyák márkanéve. A GeForce sorozat eddig a kezdetektől tizenhat generációt ismert. Ezeknek a kártyáknak a professzionális felhasználóira összpontosító verziói Quadro néven szerepelnek, és tartalmaznak néhány megkülönböztető funkciót a vezető szintjén. A GeForce közvetlen versenye az AMD a Radeon kártyáival.

A Pascal a legújabb GPU mikroarchitektúra kódneve, amelyet az Nvidia fejlesztett ki, amely belépett a videojátékok piacára, a korábbi Maxwell architektúra utódjaként. A Pascal architektúrát először 2016 áprilisában mutatták be, a Tesla P100 kiszolgálóknak 2016. április 5 -én történő bevezetésével. Jelenleg a Pascal-ot elsősorban a GeForce 10 sorozatban használják, a GeForce GTX 1080 és a GTX Az első 1070 videojátékkártya ezzel az architektúrával került kiadásra 2016. május 17-én, illetve 2016. június 10-én. A Pascal-t a TSMC 16 nm-es FinFET eljárásával gyártják, amely lehetővé teszi sokkal jobb energiahatékonyságot és teljesítményt, mint a Maxwellnél, amelyet 28 nm FinFET-en gyártottak.

A Pascal architektúra belsőleg úgy működik, mint streaming multiprocessor ( SM), funkcionális egységek, amelyek 64 CUDA magból állnak, amelyeket viszont két feldolgozó blokkra osztanak, amelyek egyenként 32 CUDA magot tartalmaznak ezek közül egy utasításpufferrel, egy lánc-tervezővel, 2 textúraleképező egységekkel és 2 diszpécser egységgel együtt. Ezek az SM meghajtók egyenértékűek az AMD CU-jával.

Az Nvidia Pascal építészetét úgy tervezték, hogy a leghatékonyabb és legfejlettebb legyen a játékvilágban. Az Nvidia mérnöki csapata sok erőfeszítést tett egy olyan GPU-architektúra létrehozására, amely képes nagyon magas órasebességre, miközben fenntartja a szűk energiafogyasztást. Ennek elérése érdekében egy nagyon óvatos és optimalizált kialakítást választottak az összes áramkörében, amelynek eredményeként Pascal 40% -kal magasabb frekvenciát tud elérni, mint Maxwell, ez a szám jóval magasabb, mint amit a folyamat megengedhetne 16 ° C-on. nm-en, a tervezési szint minden optimalizálása nélkül.

A memória a grafikus kártya teljesítményének kulcseleme. A GDDR5 technológiát 2009-ben jelentették be, tehát elavulttá vált a mai legerősebb grafikus kártyák esetében. Ezért a Pascal támogatja a GDDR5X memóriát, amely a történelemben a leggyorsabb és legfejlettebb memória interfész-szabvány volt a grafikus kártyák megjelenésekor, akár 10 Gbps-os átviteli sebességet vagy csaknem 100 pikosekundumot bitek között. az adatok. A GDDR5X memória lehetővé teszi a grafikus kártya számára, hogy kevesebb energiát fogyasztjon a GDDR5-hez képest, mivel az üzemi feszültség 1, 35 V, szemben az 1, 5 V-os vagy még annál is nagyobb mennyiséggel, mint amire a gyorsabb GDDR5 chipek szükségesek. Ez a feszültségcsökkenés 43% -kal magasabb működési frekvenciát eredményez ugyanolyan energiafogyasztás mellett.

Egy másik fontos Pascal-újítás a memória-tömörítési technikákból származik, a teljesítmény csökkenése nélkül, ami csökkenti a GPU igényét a sávszélességre. A Pascal magában foglalja a delta színes tömörítési technológia negyedik generációját. A delta színes tömörítéssel a GPU elemzi a jeleneteket, hogy kiszámítsa azokat a pixeleket, amelyek információit a jelenet minőségének feláldozása nélkül lehet tömöríteni. Míg a Maxwell architektúra nem tudta tömöríteni egyes elemekkel, például a növényzettel és az autó alkatrészeivel kapcsolatos adatokat a Project Cars játékban, a Pascal képes ezekre az elemekre vonatkozó legtöbb információt tömöríteni, így sokkal hatékonyabb, mint a Maxwell. Következésképpen a Pascal jelentősen képes csökkenteni a memóriából kivonandó bájtok számát. Ez a byte-csökkentés a tényleges sávszélesség további 20% -át eredményezi, aminek eredményeként a sávszélesség 1, 7-szeresére nő a GDDR5X memória használatakor, összehasonlítva a GDDR5 és a Maxwell architektúrával.

A Pascal fontos fejlesztéseket kínál az aszinkron számítástechnika vonatkozásában is, ami nagyon fontos, mivel a munkaterhelés jelenleg nagyon összetett. Ezeknek a fejlesztéseknek köszönhetően a Pascal architektúra hatékonyabban osztja el a terhelést az összes különféle SM egysége között, ami azt jelenti, hogy alig van fel nem használt CUDA mag. Ez lehetővé teszi a GPU sokkal jobb optimalizálását, az összes erőforrás jobb kihasználása érdekében.

Az alábbi táblázat összefoglalja az összes Pascal alapú GeForce kártya legfontosabb jellemzőit.

NVIDIA GEFORCE PASCAL grafikus kártyák

CUDA magok Frekvencia (MHz) emlékezet Memória interfész Memória sávszélessége (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB-os GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB-os GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB-os GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB-os GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 bit 547 250

Mesterséges intelligencia és a Volta építészet

Az Nvidia GPU-ját széles körben használják a mély tanulás, a mesterséges intelligencia és a nagy mennyiségű adat gyorsított elemzése területén. A vállalat a GPU technológián alapuló mély tanulást fejlesztette ki annak érdekében, hogy a mesterséges intelligenciát olyan problémák kezelésére használják, mint a rák felderítése, az időjárás előrejelzése és az önálló járművezetők, például a híres Tesla.

Az Nvidia célja, hogy segítse a hálózatokat a „gondolkodásmegtanulásában. Az Nvidia GPU-k kivételesen jól működnek a mély tanulási feladatoknál, mivel a párhuzamos számításhoz vannak tervezve, és jól működnek a mély tanulásban uralkodó vektor- és mátrixműveletek kezelésében. A vállalat GPU-ját kutatók, laboratóriumok, technológiai vállalatok és üzleti vállalkozások használják. 2009-ben az Nvidia részt vett a mély tanulás nagy robbantásának nevezett eseményen, mivel a mély tanulás ideghálózatait a cég grafikai feldolgozó egységeivel kombinálták. Ugyanebben az évben a Google Brain az Nvidia GPU-jával felhasználta a gépi tanulásra képes mély neurális hálózatok létrehozására, ahol Andrew Ng megállapította, hogy ezek százszorosára növelik a mély tanulási rendszerek sebességét.

2016 áprilisában az Nvidia bemutatta a 8-GPU fürt alapú DGX-1 szuperszámítógépet, hogy javítsa a felhasználók mélyreható tanulási képességét azáltal, hogy a GPU-kat a kifejezetten tervezett szoftverrel kombinálják. Az Nvidia kifejlesztette a GPU-alapú Nvidia Tesla K80 és P100 virtuális gépeket is, amelyek a Google Cloudon keresztül érhetők el, amelyet a Google 2016 novemberében telepített. A Microsoft az Nvidia GPU technológiáján alapuló kiszolgálókat adott az N sorozat előnézetéhez, a Tesla K80 kártya alapján. Az Nvidia együttműködött az IBM-szel egy olyan szoftverkészlet létrehozásában is, amely növeli a GPU-k AI képességeit. 2017-ben az Nvidia GPU-ját szintén online elérhetővé tették a RIKEN Központban, a Fujitsu fejlett intelligencia projektjéhez.

2018 májusában az Nvidi a mesterséges intelligencia osztályának kutatói felismerték annak a lehetőségét, hogy egy robot megtanulhat egy munkát, ha egyszerűen megfigyeli az embert, aki ugyanazt a munkát végzi. Ennek elérése érdekében olyan rendszert hoztak létre, amely egy rövid áttekintés és tesztelés után felhasználható a következő generációs univerzális robotok vezérlésére.

A Volta az Nvidia által kifejlesztett legfejlettebb GPU mikroarchitektúra kódneve, ez Pascal utódszerkezete és 2013 márciusában jelenik meg a jövőbeli ütemterv ambícióinak részeként. Az építészet Alessandro Volta elnevezést kapott., a fizikus, vegyész és az elektromos akkumulátor feltalálója. A Volta architektúra még nem érte el a szerencsejáték-ágazatot, bár ezt a Nvidia Titan V grafikus kártyával tette meg, amely a fogyasztói ágazatra összpontosult és játéktechnikában is használható.

Ez az Nvidia Titan V egy GV100 alapú grafikus kártya és három HBM2 memóriaköteg, egy csomagban. A kártya összesen 12 GB HBM2 memóriával rendelkezik, amely egy 3072 bites memória felületen keresztül működik. GPU- ja több mint 21 millió tranzisztort, 5120 CUDA magot és 640 Tensor magot tartalmaz, amelyek 110 TeraFLOPS teljesítményt nyújtanak a mély tanulás során. Működési frekvenciája 1200 MHz bázis és 1455 MHz turbó üzemmódban, míg a memória 850 MHz frekvencián működik, 652, 8 GB / s sávszélességet kínálva. A közelmúltban bejelentették a vezérigazgatói kiadás verzióját, amely 32 GB-ig növeli a memóriát.

Az első grafikus kártya, amelyet az Nvidia gyártott a Volta architektúrával, a Tesla V100 volt, amely az Nvidia DGX-1 rendszer része. A Tesla V100 a GV100 magját használja, amelyet 2017. június 21-én adtak ki. A Volta GV100 GPU egy 12 nm-es FinFET gyártási folyamatban van beépítve, 32 GB-os HBM2 memóriával, amely akár 900 GB / s sávszélességet képes szolgáltatni.

A Volta életre kelti a legújabb Xvidier nevű Nvidia Tegra SoC-t is, amelyet 2016. szeptember 28-án jelentettek be. A Xavier 7 milliárd tranzisztort és 8 egyedi ARMv8 magot tartalmaz, valamint egy Volta GPU-t 512 CUDA maggal és egy TPU-t. nyílt forráskódú (Tensor Processing Unit), DLA (Deep Learning Accelerator) néven. Xavier valós időben kódolhatja és dekódolhatja a videókat 8K Ultra HD felbontással (7680 × 4320 pixel), mindegyik 20-30 watt TDP-vel és körülbelül 300 mm2-es becsült méretű szerszámmérettel jár a 12 gyártási folyamatnak köszönhetően. nm FinFET.

A Volta architektúrát az jellemzi, hogy az első benne van a Tensor Core, a magok, amelyeket kifejezetten kiváló teljesítmény elérésére terveztek a mélyreható tanulási feladatokban, mint a szokásos CUDA magok. A Tensor Core olyan egység, amely megsokszorozza két FP16 4 × 4 mátrixot, majd hozzáad egy harmadik FP16 vagy FP32 mátrixot az eredményhez egyesített összeadás és szorzás műveletek felhasználásával, olyan FP32 eredményt kapva, amelyet opcionálisan FP16 eredményre lehet csökkenteni. A tenzormagok célja az ideghálózat kiképzésének felgyorsítása.

A Volta kiemelkedik azzal is, hogy magában foglalja a fejlett szabadalmaztatott NVLink interfészt, amely egy vezetékes alapú kommunikációs protokoll az Nvidia által kifejlesztett rövid hatótávolságú félvezető kommunikációhoz, amelyet adatkód átvitelre és vezérlésre lehet használni a processzor rendszerekben CPU és GPU, valamint azok, amelyek kizárólag a GPU-n alapulnak. Az NVLink pont-pont kapcsolatot határoz meg 20 és 25 Gb / s adatátviteli sebességgel adatsávonként és címenként az első és a második verzióban. A teljes adatátviteli sebesség a valós rendszerekben 160 és 300 GB / s a ​​bemeneti és kimeneti adatfolyamok teljes összegére vonatkoztatva. Az eddig bemutatott NVLink termékek a nagy teljesítményű alkalmazási helyre összpontosítanak. Az NVLINK-et először 2014 márciusában jelentették be, és az Nvidia által kifejlesztett és fejlesztett, szabadalmaztatott nagysebességű jelzőrendszer-összeköttetést használnak.

Az alábbi táblázat összefoglalja a Volta-alapú kártyák legfontosabb jellemzőit:

NVIDIA VOLTA grafikus kártyák

CUDA magok Cens Tensor Frekvencia (MHz) emlékezet Memória interfész Memória sávszélessége (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3, 072 bit 652 250
GeForce Titan V vezérigazgatói kiadás 5120 640 1200/1455 32 GB HBM2 4096 bit 900 250

Nvidia jövője Turing és Ampere megy keresztül

A két jövőbeli Nvidia architektúra Turing és Ampere lesz a minden eddig megjelenő pletyka szerint, valószínű, hogy amikor elolvassa ezt a posztot, az egyiket már hivatalosan is bejelentették. Jelenleg semmi sem ismeretes e két architektúráról, bár azt mondják, hogy a Turing a Volta egyszerűsített változata lenne a játékpiac számára, valójában ugyanannak a gyártási folyamatnak a várható érkezése 12 nm-en lesz.

Az Ampere úgy hangzik, mint Turing utódszerkezete, bár Volta utódja lehet a mesterséges intelligencia szektornak is. Erről semmi sem ismert, bár logikusnak tűnik azt várni, hogy 7 nm hullámhosszon előállítsák. A pletykák azt sugallják, hogy az Nvidia augusztus következő hónapjában bejelenti új GeForce kártyáit a Gamecom-on, csak akkor kételkedünk benne, hogy mi lesz Turing vagy Ampere, ha valóban létrejönnek.

NVIDIA G-Sync, a kép szinkronizálással kapcsolatos problémák megszüntetése

A G-Sync az Nvidia által kifejlesztett, szabadalmaztatott adaptív szinkronizálási technológia, amelynek elsődleges célja a képernyőre szakadás megszüntetése és az alternatívák szükségessége olyan szoftverek formájában, mint a Vsync. A G-Sync kiküszöböli a képernyő szakadását azáltal, hogy arra kényszeríti, hogy alkalmazkodjon a kimeneti eszköz, a grafikus kártya képkocka-sebességéhez, ahelyett, hogy a kimeneti eszköz hozzáigazodna a képernyőhöz, aminek következtében kép szakad a képernyőn.

Ahhoz, hogy a monitor G-Sync kompatibilis legyen, tartalmaznia kell az Nvidia által eladott hardver modult. Az AMD (Advanced Micro Devices) egy hasonló, a FreeSync nevû technológiát jelenített meg a kijelzõk számára, amelynek ugyanaz a funkciója, mint a G-Sync-hez, de nincs szükség speciális hardverre.

Az Nvidia egy speciális funkciót hozott létre annak elkerülése érdekében, hogy egy új keret készen álljon, miközben a képernyőn másolatot rajzol, ami késleltetést és / vagy dadogást okozhat. A modul előrejelzi a frissítést, és várja a következő keret befejezését. A képpont túlterhelése a nem rögzített frissítési forgatókönyvben is félrevezetővé válik, és a megoldások előrejelzik a következő frissítés időpontját, ezért a szellemkép elkerülése érdekében minden egyes panelen meg kell valósítani és beállítani a túllépés értékét.

A modul egy Altera Arria V GX család FPGA-n alapul, 156K logikai elemekkel, 396 DSP blokkokkal és 67 LVDS csatornával. A TSMC 28LP folyamatban állítják elő, és három chipet kombinálnak összesen 768 MB DDR3L DRAM memória számára, hogy elérjék egy bizonyos sávszélességet. A használt FPGA tartalmaz egy LVDS interfészt is a monitor panel vezérléséhez. Ez a modul a szokásos hegymászók cseréjére szolgál, és a monitor gyártók számára könnyen integrálható, akiknek csak az áramellátás áramköri lapján és a bemeneti csatlakozásokon kell gondoskodniuk.

A G-Sync saját kritikája miatt némi kritikával szembesült, és mivel továbbra is támogatják, amikor ingyenes alternatívák léteznek, például a VESA Adaptive-Sync szabvány, amely a DisplayPort 1.2a opcionális tulajdonsága. Míg az AMD FreeSync a DisplayPort 1.2a-n alapul, addig a G-Synchez az Nvidia GeForce grafikus kártyák megfelelő működéséhez a szokásos képernyő-skálázó helyett Nvidia által készített modulra van szükség, amely kompatibilis a Kepler, Maxwell, Pascal és mikroarchitektúrákkal. Volta.

A következő lépés megtörtént a G-Sync HDR technológiával, amely, amint a neve is sugallja, HDR képességekkel bővíti a monitor képminőségét. Ennek lehetővé tételéhez jelentős ugrást kellett végrehajtani a hardver területén. Ez a G-Sync HDR új verzió egy Intel Altera Arria 10 GX 480 FPGA-t használ, egy rendkívül fejlett és rendkívül programozható processzort, amely széles körű alkalmazásokba kódolható, és amelyet a Micron gyártmánya 3 GB DDR4 2400MHz memória tartalmaz.. Ez megnöveli ezen monitorok árát.

Itt véget ér minden, amit tudnunk kell az Nvidia-ról. Ne feledje, hogy megoszthatja azt a közösségi hálózatokon, hogy több felhasználót érjen el. Megjegyzést is hagyhat, ha bármilyen javaslata van, vagy valami hozzá kíván adni.

Android

Választható editor

Back to top button