Nvidia 【minden információ】

Tartalomjegyzék:
- Nvidia története
- Nvidia GeForce és Nvidia Pascal, uralkodó játék
- Mesterséges intelligencia és a Volta építészet
- Nvidia jövője Turing és Ampere megy keresztül
- NVIDIA G-Sync, a kép szinkronizálással kapcsolatos problémák megszüntetése
Az Nvidia Corporation, közismertebb nevén Nvidia, egy amerikai technológiai társaság, amely Delaware-ben található és a kaliforniai Santa Clara-ban található. Az Nvidia grafikus feldolgozó egységeket tervez a videojátékok és a professzionális piacok számára, valamint egy chipegység (SoC) rendszert az autóipar és a mobil számítástechnikai piac számára. Alapvető termékcsaládja, a GeForce közvetlen versenyben áll az AMD Radeon termékeivel.
Javasoljuk, hogy olvassa el a legjobb számítógépes hardver és alkatrész útmutatókat:
A GPU-k gyártása mellett az Nvidia világszerte párhuzamos feldolgozási képességeket biztosít a kutatók és tudósok számára, lehetővé téve számukra a nagy teljesítményű alkalmazások hatékony futtatását. A közelmúltban bekerült a mobil számítástechnikai piacra, ahol gyárt Tegra mobil processzort videojáték-konzolokhoz, táblagépekhez, valamint autonóm navigációs és jármű-szórakoztató rendszerekhez. Ennek eredményeként az Nvidia 2014 óta négy piacra koncentrál: a játékokra, a professzionális megjelenítésre, az adatközpontokra, valamint a mesterséges intelligenciára és az autókra.
Tartalom index
Nvidia története
Az Nvidia-t Jen-Hsun Huang, Chris Malachowsky és Curtis Priem alapította 1993-ban. A társaság három társalapítója azt feltételezte, hogy a számítás helyes iránya a grafikagyorsított feldolgozáson megy keresztül, hiszve, hogy ez a számítási modell megoldhatja azokat a problémákat, amelyeket az általános célú számítástechnika nem tudott megoldani. Azt is megjegyezték, hogy a videojátékok a számítástechnikai szempontból legnagyobb kihívást jelentő kérdések, és hihetetlenül magas eladási volumenük van.
Egy kis videojáték-társaságtól a mesterséges intelligencia óriásáig
A társaság 40 000 dolláros induló tőkével született, kezdetben nem volt neve, és a társalapítók megneveztek minden NV fájlt, mint a "következő kiadásban". A társaság alapításának szükségessége miatt a társalapítók felülvizsgálták a két betűvel ellátott összes szót, ami az "invidia" -hoz vezette, ami az irigységet jelentő latin szó.
A RIVA TNT 1998-as indítása megerősítette az Nvidia hírnevét a grafikus adapterek fejlesztésében. 1999 végén az Nvidia kiadta a GeForce 256 (NV10) készüléket, amely leginkább a fogyasztói szintű átalakítást és a világítást (T&L) vezette be a 3D hardverben. A 120 MHz frekvencián működő és négy pixelsoros vonallal rendelkező fejlett videogyorsítást, mozgáskompenzációt és hardver alkép-keverést valósított meg. A GeForce nagy haszonnal haladta meg a meglévő termékeket.
Termékei sikerének köszönhetően az Nvidia nyerte meg a Microsoft Xbox játékkonzolhoz tartozó grafikus hardver fejlesztésére irányuló szerződést, amely az Nvidia számára 200 millió dolláros előleget kapott. A projekt azonban a legtöbb mérnököt bevonta más projektekből. Rövid távon ez nem számított, és a GeForce2 GTS-t 2000 nyarán szállították. 2000 decemberében az Nvidia megállapodásra jutott, hogy egyetlen riválisa, a 3Dfx, a 3D grafikus technológia úttörője szellemi javait megvásárolja a fogyasztó számára. aki az 1990-es évek közepétől 2000-ig vezette a mezőt. Az akvizíciós folyamat 2002. áprilisában ért véget.
2002. júliusában az Nvidia nyilvánosságra nem hozott pénzért megvásárolta az Exlunát. Az Exluna volt a felelős különféle szoftvermegjelenítő eszközök létrehozásáért. Később, 2003 augusztusában az Nvidia mintegy 70 millió dollárért megvásárolta a MediaQ-t. 2004. április 22-én megszerezte az iReady-t is, a nagyteljesítményű TCP / IP és iSCSI offload megoldásokat.
Annyira nagy volt az Nvidia sikere a videojátékok piacán, hogy 2004 decemberében bejelentették, hogy segít a Sonynek a PlayStation 3 RSX grafikus processzorának, a japán cég új generációs videojáték-konzoljának tervezésében, amely nehéz feladat volt elődje, a történelem legkeresettebb sikere megismételése.
2006 decemberében az Nvidia az Egyesült Államok Igazságügyi Minisztériumától kapott idézeteket. Tekintettel a monopóliumellenes jogsértésekre a grafikus kártyaiparban. Abban az időben az AMD lett a nagy riválisa, miután az utóbbi megvásárolta az ATI-t. Azóta az AMD és az Nvidia voltak az egyedüli videojáték-grafikus kártyák gyártói, nem felejtve el az Intel integrált chipeit.
A Forbes az Nvidiat az évi legjobb társaságnak nevezte ki 2007-ben, utalva az elmúlt öt évben elért eredményeire. 2007. január 5-én az Nvidia bejelentette, hogy befejezte a PortalPlayer, Inc. felvásárlását, és 2008 februárjában az Nvidia megvásárolta az Ageiat, az ezt a motort üzemeltető PhysX fizikai motor és fizikai feldolgozó egység fejlesztőjét. Az Nvidia bejelentette, hogy a PhysX technológiát tervezi integrálni a jövőbeli GeForce GPU termékekbe.
Az Nvidia nagy nehézségekkel küzdött 2008 júliusában, amikor a bevétel mintegy 200 millió dollárral csökkent, miután beszámoltak arról, hogy a társaság által gyártott egyes mobil chipsetek és mobil GPU-k esetében a gyártási hibák miatt rendkívüli hibaarányok vannak. 2008 szeptemberében az Nvidia csoportos keresetet indított az érintettek részéről, azzal érvelve, hogy a hibás GPU-kat beépítették az Apple, a Dell és a HP által gyártott notebook egyes modelleibe. A szappanopera 2010 szeptemberében ért véget, amikor az Nvidia megállapodásra jutott, hogy az érintett laptopok tulajdonosai megtérítik a javítások költségeit, vagy egyes esetekben a termékek cseréjét.
Az Nvidia 2011 novemberében kiadta az ARG Tegra 3 chiprendszert a mobil eszközökhöz, miután először bemutatta a Mobile World Congress-en. Az Nvidia azt állította, hogy a chip az első négymagos mobil CPU-t tartalmazza. 2013 januárjában az Nvidia bemutatta a Tegra 4-et, valamint az Nvidia Shield-et, egy Android-alapú hordozható játékkonzolt, amelyet az új processzor táplál.
2016. május 6-án az Nvidia bemutatta a GeForce GTX 1080 és 1070 grafikus kártyákat, az első az új Pascal mikroarchitektúrán alapult. Az Nvidia azt állította, hogy mindkét modell felülmúlja a Maxwell-alapú Titan X modelljét. Ezek a kártyák tartalmazzák a GDDR5X és a GDDR5 memóriát, és 16 nm gyártási folyamatot használnak. A Pascal architektúra egyidejűleg több vetítésként (SMP) ismert új hardver funkciót is támogat, amelynek célja a többmonitoros és a virtuális valóság megjelenítésének javítása. A Pascal lehetővé tette az Nvidia Max-Q tervezési szabványának megfelelő laptopok gyártását.
2017 májusában az Nvidia bejelentette partnerségét a Toyota Motor Corp-vel, amelynek keretében ez utóbbi az Nvidia Drive X sorozatú mesterséges intelligencia platformját fogja használni autonóm járműveire. Az Nvidia és a kínai kereső óriás, a Baidu, Inc. 2017. júliusában bejelentette egy hatalmas AI-partnerséget, amely magában foglalja a felhőalapú számítástechnikát, az autonóm vezetést, a fogyasztói eszközöket és a Baidu AI keretét, a PaddlePaddle-t.
Nvidia GeForce és Nvidia Pascal, uralkodó játék
A GeForce az Nvidia által 1999-től létrehozott grafikus feldolgozó egységeken (GPU) alapuló grafikus kártyák márkanéve. A GeForce sorozat eddig a kezdetektől tizenhat generációt ismert. Ezeknek a kártyáknak a professzionális felhasználóira összpontosító verziói Quadro néven szerepelnek, és tartalmaznak néhány megkülönböztető funkciót a vezető szintjén. A GeForce közvetlen versenye az AMD a Radeon kártyáival.
A Pascal a legújabb GPU mikroarchitektúra kódneve, amelyet az Nvidia fejlesztett ki, amely belépett a videojátékok piacára, a korábbi Maxwell architektúra utódjaként. A Pascal architektúrát először 2016 áprilisában mutatták be, a Tesla P100 kiszolgálóknak 2016. április 5 -én történő bevezetésével. Jelenleg a Pascal-ot elsősorban a GeForce 10 sorozatban használják, a GeForce GTX 1080 és a GTX Az első 1070 videojátékkártya ezzel az architektúrával került kiadásra 2016. május 17-én, illetve 2016. június 10-én. A Pascal-t a TSMC 16 nm-es FinFET eljárásával gyártják, amely lehetővé teszi sokkal jobb energiahatékonyságot és teljesítményt, mint a Maxwellnél, amelyet 28 nm FinFET-en gyártottak.
A Pascal architektúra belsőleg úgy működik, mint streaming multiprocessor ( SM), funkcionális egységek, amelyek 64 CUDA magból állnak, amelyeket viszont két feldolgozó blokkra osztanak, amelyek egyenként 32 CUDA magot tartalmaznak ezek közül egy utasításpufferrel, egy lánc-tervezővel, 2 textúraleképező egységekkel és 2 diszpécser egységgel együtt. Ezek az SM meghajtók egyenértékűek az AMD CU-jával.
Az Nvidia Pascal építészetét úgy tervezték, hogy a leghatékonyabb és legfejlettebb legyen a játékvilágban. Az Nvidia mérnöki csapata sok erőfeszítést tett egy olyan GPU-architektúra létrehozására, amely képes nagyon magas órasebességre, miközben fenntartja a szűk energiafogyasztást. Ennek elérése érdekében egy nagyon óvatos és optimalizált kialakítást választottak az összes áramkörében, amelynek eredményeként Pascal 40% -kal magasabb frekvenciát tud elérni, mint Maxwell, ez a szám jóval magasabb, mint amit a folyamat megengedhetne 16 ° C-on. nm-en, a tervezési szint minden optimalizálása nélkül.
A memória a grafikus kártya teljesítményének kulcseleme. A GDDR5 technológiát 2009-ben jelentették be, tehát elavulttá vált a mai legerősebb grafikus kártyák esetében. Ezért a Pascal támogatja a GDDR5X memóriát, amely a történelemben a leggyorsabb és legfejlettebb memória interfész-szabvány volt a grafikus kártyák megjelenésekor, akár 10 Gbps-os átviteli sebességet vagy csaknem 100 pikosekundumot bitek között. az adatok. A GDDR5X memória lehetővé teszi a grafikus kártya számára, hogy kevesebb energiát fogyasztjon a GDDR5-hez képest, mivel az üzemi feszültség 1, 35 V, szemben az 1, 5 V-os vagy még annál is nagyobb mennyiséggel, mint amire a gyorsabb GDDR5 chipek szükségesek. Ez a feszültségcsökkenés 43% -kal magasabb működési frekvenciát eredményez ugyanolyan energiafogyasztás mellett.
Egy másik fontos Pascal-újítás a memória-tömörítési technikákból származik, a teljesítmény csökkenése nélkül, ami csökkenti a GPU igényét a sávszélességre. A Pascal magában foglalja a delta színes tömörítési technológia negyedik generációját. A delta színes tömörítéssel a GPU elemzi a jeleneteket, hogy kiszámítsa azokat a pixeleket, amelyek információit a jelenet minőségének feláldozása nélkül lehet tömöríteni. Míg a Maxwell architektúra nem tudta tömöríteni egyes elemekkel, például a növényzettel és az autó alkatrészeivel kapcsolatos adatokat a Project Cars játékban, a Pascal képes ezekre az elemekre vonatkozó legtöbb információt tömöríteni, így sokkal hatékonyabb, mint a Maxwell. Következésképpen a Pascal jelentősen képes csökkenteni a memóriából kivonandó bájtok számát. Ez a byte-csökkentés a tényleges sávszélesség további 20% -át eredményezi, aminek eredményeként a sávszélesség 1, 7-szeresére nő a GDDR5X memória használatakor, összehasonlítva a GDDR5 és a Maxwell architektúrával.
A Pascal fontos fejlesztéseket kínál az aszinkron számítástechnika vonatkozásában is, ami nagyon fontos, mivel a munkaterhelés jelenleg nagyon összetett. Ezeknek a fejlesztéseknek köszönhetően a Pascal architektúra hatékonyabban osztja el a terhelést az összes különféle SM egysége között, ami azt jelenti, hogy alig van fel nem használt CUDA mag. Ez lehetővé teszi a GPU sokkal jobb optimalizálását, az összes erőforrás jobb kihasználása érdekében.
Az alábbi táblázat összefoglalja az összes Pascal alapú GeForce kártya legfontosabb jellemzőit.
NVIDIA GEFORCE PASCAL grafikus kártyák |
||||||
CUDA magok | Frekvencia (MHz) | emlékezet | Memória interfész | Memória sávszélessége (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 bit | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3 GB-os GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8 GB-os GDDR5 | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8 GB-os GDDR5 | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB-os GDDR5X | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 bit | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 bit | 547 | 250 |
Mesterséges intelligencia és a Volta építészet
Az Nvidia GPU-ját széles körben használják a mély tanulás, a mesterséges intelligencia és a nagy mennyiségű adat gyorsított elemzése területén. A vállalat a GPU technológián alapuló mély tanulást fejlesztette ki annak érdekében, hogy a mesterséges intelligenciát olyan problémák kezelésére használják, mint a rák felderítése, az időjárás előrejelzése és az önálló járművezetők, például a híres Tesla.
Az Nvidia célja, hogy segítse a hálózatokat a „gondolkodás ” megtanulásában. Az Nvidia GPU-k kivételesen jól működnek a mély tanulási feladatoknál, mivel a párhuzamos számításhoz vannak tervezve, és jól működnek a mély tanulásban uralkodó vektor- és mátrixműveletek kezelésében. A vállalat GPU-ját kutatók, laboratóriumok, technológiai vállalatok és üzleti vállalkozások használják. 2009-ben az Nvidia részt vett a mély tanulás nagy robbantásának nevezett eseményen, mivel a mély tanulás ideghálózatait a cég grafikai feldolgozó egységeivel kombinálták. Ugyanebben az évben a Google Brain az Nvidia GPU-jával felhasználta a gépi tanulásra képes mély neurális hálózatok létrehozására, ahol Andrew Ng megállapította, hogy ezek százszorosára növelik a mély tanulási rendszerek sebességét.
2016 áprilisában az Nvidia bemutatta a 8-GPU fürt alapú DGX-1 szuperszámítógépet, hogy javítsa a felhasználók mélyreható tanulási képességét azáltal, hogy a GPU-kat a kifejezetten tervezett szoftverrel kombinálják. Az Nvidia kifejlesztette a GPU-alapú Nvidia Tesla K80 és P100 virtuális gépeket is, amelyek a Google Cloudon keresztül érhetők el, amelyet a Google 2016 novemberében telepített. A Microsoft az Nvidia GPU technológiáján alapuló kiszolgálókat adott az N sorozat előnézetéhez, a Tesla K80 kártya alapján. Az Nvidia együttműködött az IBM-szel egy olyan szoftverkészlet létrehozásában is, amely növeli a GPU-k AI képességeit. 2017-ben az Nvidia GPU-ját szintén online elérhetővé tették a RIKEN Központban, a Fujitsu fejlett intelligencia projektjéhez.
2018 májusában az Nvidi a mesterséges intelligencia osztályának kutatói felismerték annak a lehetőségét, hogy egy robot megtanulhat egy munkát, ha egyszerűen megfigyeli az embert, aki ugyanazt a munkát végzi. Ennek elérése érdekében olyan rendszert hoztak létre, amely egy rövid áttekintés és tesztelés után felhasználható a következő generációs univerzális robotok vezérlésére.
A Volta az Nvidia által kifejlesztett legfejlettebb GPU mikroarchitektúra kódneve, ez Pascal utódszerkezete és 2013 márciusában jelenik meg a jövőbeli ütemterv ambícióinak részeként. Az építészet Alessandro Volta elnevezést kapott., a fizikus, vegyész és az elektromos akkumulátor feltalálója. A Volta architektúra még nem érte el a szerencsejáték-ágazatot, bár ezt a Nvidia Titan V grafikus kártyával tette meg, amely a fogyasztói ágazatra összpontosult és játéktechnikában is használható.
Ez az Nvidia Titan V egy GV100 alapú grafikus kártya és három HBM2 memóriaköteg, egy csomagban. A kártya összesen 12 GB HBM2 memóriával rendelkezik, amely egy 3072 bites memória felületen keresztül működik. GPU- ja több mint 21 millió tranzisztort, 5120 CUDA magot és 640 Tensor magot tartalmaz, amelyek 110 TeraFLOPS teljesítményt nyújtanak a mély tanulás során. Működési frekvenciája 1200 MHz bázis és 1455 MHz turbó üzemmódban, míg a memória 850 MHz frekvencián működik, 652, 8 GB / s sávszélességet kínálva. A közelmúltban bejelentették a vezérigazgatói kiadás verzióját, amely 32 GB-ig növeli a memóriát.
Az első grafikus kártya, amelyet az Nvidia gyártott a Volta architektúrával, a Tesla V100 volt, amely az Nvidia DGX-1 rendszer része. A Tesla V100 a GV100 magját használja, amelyet 2017. június 21-én adtak ki. A Volta GV100 GPU egy 12 nm-es FinFET gyártási folyamatban van beépítve, 32 GB-os HBM2 memóriával, amely akár 900 GB / s sávszélességet képes szolgáltatni.
A Volta életre kelti a legújabb Xvidier nevű Nvidia Tegra SoC-t is, amelyet 2016. szeptember 28-án jelentettek be. A Xavier 7 milliárd tranzisztort és 8 egyedi ARMv8 magot tartalmaz, valamint egy Volta GPU-t 512 CUDA maggal és egy TPU-t. nyílt forráskódú (Tensor Processing Unit), DLA (Deep Learning Accelerator) néven. Xavier valós időben kódolhatja és dekódolhatja a videókat 8K Ultra HD felbontással (7680 × 4320 pixel), mindegyik 20-30 watt TDP-vel és körülbelül 300 mm2-es becsült méretű szerszámmérettel jár a 12 gyártási folyamatnak köszönhetően. nm FinFET.
A Volta architektúrát az jellemzi, hogy az első benne van a Tensor Core, a magok, amelyeket kifejezetten kiváló teljesítmény elérésére terveztek a mélyreható tanulási feladatokban, mint a szokásos CUDA magok. A Tensor Core olyan egység, amely megsokszorozza két FP16 4 × 4 mátrixot, majd hozzáad egy harmadik FP16 vagy FP32 mátrixot az eredményhez egyesített összeadás és szorzás műveletek felhasználásával, olyan FP32 eredményt kapva, amelyet opcionálisan FP16 eredményre lehet csökkenteni. A tenzormagok célja az ideghálózat kiképzésének felgyorsítása.
A Volta kiemelkedik azzal is, hogy magában foglalja a fejlett szabadalmaztatott NVLink interfészt, amely egy vezetékes alapú kommunikációs protokoll az Nvidia által kifejlesztett rövid hatótávolságú félvezető kommunikációhoz, amelyet adatkód átvitelre és vezérlésre lehet használni a processzor rendszerekben CPU és GPU, valamint azok, amelyek kizárólag a GPU-n alapulnak. Az NVLink pont-pont kapcsolatot határoz meg 20 és 25 Gb / s adatátviteli sebességgel adatsávonként és címenként az első és a második verzióban. A teljes adatátviteli sebesség a valós rendszerekben 160 és 300 GB / s a bemeneti és kimeneti adatfolyamok teljes összegére vonatkoztatva. Az eddig bemutatott NVLink termékek a nagy teljesítményű alkalmazási helyre összpontosítanak. Az NVLINK-et először 2014 márciusában jelentették be, és az Nvidia által kifejlesztett és fejlesztett, szabadalmaztatott nagysebességű jelzőrendszer-összeköttetést használnak.
Az alábbi táblázat összefoglalja a Volta-alapú kártyák legfontosabb jellemzőit:
NVIDIA VOLTA grafikus kártyák |
||||||||
CUDA magok | Cens Tensor | Frekvencia (MHz) | emlékezet | Memória interfész | Memória sávszélessége (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32 GB HBM2 | 4096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3, 072 bit | 652 | 250 | |
GeForce Titan V vezérigazgatói kiadás | 5120 | 640 | 1200/1455 | 32 GB HBM2 | 4096 bit | 900 | 250 |
Nvidia jövője Turing és Ampere megy keresztül
A két jövőbeli Nvidia architektúra Turing és Ampere lesz a minden eddig megjelenő pletyka szerint, valószínű, hogy amikor elolvassa ezt a posztot, az egyiket már hivatalosan is bejelentették. Jelenleg semmi sem ismeretes e két architektúráról, bár azt mondják, hogy a Turing a Volta egyszerűsített változata lenne a játékpiac számára, valójában ugyanannak a gyártási folyamatnak a várható érkezése 12 nm-en lesz.
Az Ampere úgy hangzik, mint Turing utódszerkezete, bár Volta utódja lehet a mesterséges intelligencia szektornak is. Erről semmi sem ismert, bár logikusnak tűnik azt várni, hogy 7 nm hullámhosszon előállítsák. A pletykák azt sugallják, hogy az Nvidia augusztus következő hónapjában bejelenti új GeForce kártyáit a Gamecom-on, csak akkor kételkedünk benne, hogy mi lesz Turing vagy Ampere, ha valóban létrejönnek.
NVIDIA G-Sync, a kép szinkronizálással kapcsolatos problémák megszüntetése
A G-Sync az Nvidia által kifejlesztett, szabadalmaztatott adaptív szinkronizálási technológia, amelynek elsődleges célja a képernyőre szakadás megszüntetése és az alternatívák szükségessége olyan szoftverek formájában, mint a Vsync. A G-Sync kiküszöböli a képernyő szakadását azáltal, hogy arra kényszeríti, hogy alkalmazkodjon a kimeneti eszköz, a grafikus kártya képkocka-sebességéhez, ahelyett, hogy a kimeneti eszköz hozzáigazodna a képernyőhöz, aminek következtében kép szakad a képernyőn.
Ahhoz, hogy a monitor G-Sync kompatibilis legyen, tartalmaznia kell az Nvidia által eladott hardver modult. Az AMD (Advanced Micro Devices) egy hasonló, a FreeSync nevû technológiát jelenített meg a kijelzõk számára, amelynek ugyanaz a funkciója, mint a G-Sync-hez, de nincs szükség speciális hardverre.
Az Nvidia egy speciális funkciót hozott létre annak elkerülése érdekében, hogy egy új keret készen álljon, miközben a képernyőn másolatot rajzol, ami késleltetést és / vagy dadogást okozhat. A modul előrejelzi a frissítést, és várja a következő keret befejezését. A képpont túlterhelése a nem rögzített frissítési forgatókönyvben is félrevezetővé válik, és a megoldások előrejelzik a következő frissítés időpontját, ezért a szellemkép elkerülése érdekében minden egyes panelen meg kell valósítani és beállítani a túllépés értékét.
A modul egy Altera Arria V GX család FPGA-n alapul, 156K logikai elemekkel, 396 DSP blokkokkal és 67 LVDS csatornával. A TSMC 28LP folyamatban állítják elő, és három chipet kombinálnak összesen 768 MB DDR3L DRAM memória számára, hogy elérjék egy bizonyos sávszélességet. A használt FPGA tartalmaz egy LVDS interfészt is a monitor panel vezérléséhez. Ez a modul a szokásos hegymászók cseréjére szolgál, és a monitor gyártók számára könnyen integrálható, akiknek csak az áramellátás áramköri lapján és a bemeneti csatlakozásokon kell gondoskodniuk.
A G-Sync saját kritikája miatt némi kritikával szembesült, és mivel továbbra is támogatják, amikor ingyenes alternatívák léteznek, például a VESA Adaptive-Sync szabvány, amely a DisplayPort 1.2a opcionális tulajdonsága. Míg az AMD FreeSync a DisplayPort 1.2a-n alapul, addig a G-Synchez az Nvidia GeForce grafikus kártyák megfelelő működéséhez a szokásos képernyő-skálázó helyett Nvidia által készített modulra van szükség, amely kompatibilis a Kepler, Maxwell, Pascal és mikroarchitektúrákkal. Volta.
A következő lépés megtörtént a G-Sync HDR technológiával, amely, amint a neve is sugallja, HDR képességekkel bővíti a monitor képminőségét. Ennek lehetővé tételéhez jelentős ugrást kellett végrehajtani a hardver területén. Ez a G-Sync HDR új verzió egy Intel Altera Arria 10 GX 480 FPGA-t használ, egy rendkívül fejlett és rendkívül programozható processzort, amely széles körű alkalmazásokba kódolható, és amelyet a Micron gyártmánya 3 GB DDR4 2400MHz memória tartalmaz.. Ez megnöveli ezen monitorok árát.
Itt véget ér minden, amit tudnunk kell az Nvidia-ról. Ne feledje, hogy megoszthatja azt a közösségi hálózatokon, hogy több felhasználót érjen el. Megjegyzést is hagyhat, ha bármilyen javaslata van, vagy valami hozzá kíván adni.
Minden információ a lenovo jógatablettáról

Minden, ami a Lenovo Yoga első osztályú táblagépén található: műszaki jellemzők, képek, akkumulátor, kamera, elérhetőség és ár.
Nvidia rtx 【minden információ】

Már vannak velünk az új NVIDIA RTX grafikus kártyák. A zászlóshajó modelljétől: NVIDIA RTX 2080 Ti, a modellekig a legtöbb játékos számára a 4K-nál:
▷ Nvidia quadro 【minden információ】?

Minden információ az Nvidia Quadro professzionális grafikus kártyákról: jellemzők, kialakítás, teljesítmény, előnyök és hátrányok ✅