Atsisiųsti gpu boost 2.0, skirtą nvidia. Vaizdo plokštės. Noriu tai patikrinti

NVIDIA GeForce GTX 780 vaizdo plokštės apžvalga | GeForce Experience ir ShadowPlay

GeForce patirtis

Kaip kompiuterių entuziastai, vertiname skirtingų nustatymų derinį, kuris turi įtakos žaidimų našumui ir kokybei. Lengviausias būdas yra išleisti daug pinigų naujai vaizdo plokštei ir nustatyti maksimalius grafikos nustatymus. Tačiau kai koks nors parametras kortelei pasirodo per sunkus ir jį tenka sumažinti arba išjungti, lieka nemalonus jausmas ir suvokimas, kad žaidimas galėtų veikti daug geriau.

Tačiau nustatyti optimalius nustatymus nėra taip paprasta. Kai kurie nustatymai sukuria geresnius vaizdo efektus nei kiti, tačiau poveikis našumui gali labai skirtis. „GeForce Experience“ – tai NVIDIA bandymas palengvinti žaidimų nustatymų pasirinkimą, lyginant procesorių, GPU ir skiriamąją gebą su konfigūracijų duomenų baze. Antroji programos dalis padeda nustatyti, ar reikia atnaujinti tvarkykles.

Tikėtina, kad entuziastai ir toliau patys rinksis nustatymus ir papildomą programą vertins neigiamai. Tačiau dauguma žaidėjų, kurie nori įdiegti žaidimą ir iškart pradėti žaidimą, nepatikrindami tvarkyklių ir neperžiūrėdami įvairių nustatymų, tikrai džiaugsis šia galimybe. Bet kuriuo atveju NVIDIA „GeForce Experience“ padeda žmonėms išnaudoti visas žaidimų galimybes, todėl yra naudingas įrankis žaidžiant kompiuteriu.

„GeForce Experience“ nustatė visus devynis žaidimus, įdiegtus mūsų bandomojoje sistemoje. Žinoma, jie neišlaikė numatytųjų nustatymų, nes tam tikrus nustatymus taikėme testavimo tikslais. Tačiau vis tiek įdomu, kaip „GeForce Experience“ pakeis mūsų pasirinktas parinktis.

Vis dėlto „Tomb Raider“ „GeForce Experience“ norėjo išjungti „TressFX“ technologiją NVIDIA GeForce GTX 780įjungus funkciją, jis rodė vidutiniškai 40 kadrų per sekundę. Dėl tam tikrų priežasčių programa negalėjo nustatyti konfigūracijos Far Cry 3, nors jos pasiūlyti nustatymai pasirodė gana aukšti. Dėl nežinomų priežasčių programa norėjo išjungti „Skyrim“ FXAA.

Malonu gauti kiekvieno žaidimo ekrano kopijų rinkinį, apibūdinantį tam tikro nustatymo įtaką vaizdo kokybei. Mūsų nuomone, iš devynių pavyzdžių, kuriuos peržiūrėjome, „GeForce Experience“ priartėjo prie optimalių nustatymų. Tačiau šis įrankis taip pat yra šališkas, pirmenybę teikdamas NVIDIA specifinėms funkcijoms, tokioms kaip „PhysX“ (kurias programa iškėlė į aukštą „Borderlands 2“ lygį) ir neskatina įtraukti AMD funkcijų (įskaitant „TressFX“ į Tomb Raider). Išjungti FXAA „Skyrim“ nėra prasmės, nes žaidimo vidutinis greitis yra 100 FPS. Gali būti, kad entuziastai norės įdiegti „GeForce Experience“, kai „NVIDIA Shield“ sistema bus pradėta pristatyti, nes atrodo, kad „Game Streaming“ funkcija ateina per NVIDIA programą.

ShadowPlay: Visada įjungtas DVR žaidimams

WoW gerbėjai dažnai įrašinėja savo reidus, tačiau tam reikia gana galingos sistemos, Fraps ir daug vietos diske.

NVIDIA neseniai paskelbė apie naują funkciją „ShadowPlay“, kuri gali žymiai palengvinti įrašymo procesą.

Kai suaktyvinta, „ShadowPlay“ naudoja Kepler GPU integruotą fiksuotą NVEnc dekoderį, kuris automatiškai įrašo paskutines 20 žaidimo minučių. Arba galite rankiniu būdu paleisti ir sustabdyti „ShadowPlay“. Taigi ši technologija pakeičia programinės įrangos sprendimus, tokius kaip „Fraps“, kurie apkrauna didesnį centrinį procesorių.

Nuoroda: NVEnc veikia tik su H.264 kodavimu, kai skiriamoji geba yra iki 4096 x 4096 pikselių. „ShadowPlay“ dar nepasiekiama rinkoje, tačiau NVIDIA teigia, kad šią vasarą ji galės įrašyti 1080p vaizdo įrašą iki 30 FPS. Norėtume matyti didesnę skiriamąją gebą, nes anksčiau buvo teigiama, kad koduotuvas gali ją palaikyti aparatinėje įrangoje.

NVIDIA GeForce GTX 780 vaizdo plokštės apžvalga | GPU Boost 2.0 ir galimos įsijungimo problemos

GPU Boost 2.0

Peržiūroje GeForce GTX Titan Negalėjome atlikti išsamaus antrosios kartos NVIDIA GPU Boost technologijos testavimo, bet dabar mes ją turime NVIDIA GeForce GTX 780. Štai trumpas šios technologijos aprašymas:

GPU Boost yra NVIDIA mechanizmas, kuris keičia vaizdo plokščių veikimą priklausomai nuo apdorojamos užduoties tipo. Kaip tikriausiai žinote, žaidimams taikomi skirtingi GPU išteklių reikalavimai. Istoriškai dažnis turi būti koreguojamas, kad būtų atsižvelgta į blogiausią scenarijų. Tačiau atliekant „lengvas“ užduotis, GPU buvo švaistomas. GPU Boost stebi įvairius parametrus ir padidina arba mažina dažnius, priklausomai nuo programos poreikių ir esamos situacijos.

Pirmasis GPU Boost diegimas veikė esant tam tikram galios slenksčiui (170 W, jei GeForce GTX 680). Tačiau bendrovės inžinieriai nustatė, kad jie gali saugiai viršyti šį lygį, jei GPU temperatūra yra pakankamai žema. Tokiu būdu našumą galima dar labiau optimizuoti.

Praktiškai GPU Boost 2.0 skiriasi tik tuo, kad NVIDIA dabar greitina dažnį ne pagal maksimalaus energijos suvartojimo indikatorių, o pagal tam tikrą temperatūrą, kuri yra 80 laipsnių Celsijaus. Tai reiškia, kad dabar bus naudojami aukštesni dažniai ir įtampa, iki lusto įkaitinimo iki 80 laipsnių. Nepamirškite, kad temperatūra daugiausia priklauso nuo ventiliatoriaus profilio ir nustatymų: kuo didesnis ventiliatoriaus greitis, tuo žemesnė temperatūra, taigi, tuo didesnė GPU Boost reikšmė (deja, ir triukšmo lygis). Technologija vis dar įvertina situaciją kartą per 100 ms, todėl NVIDIA dar turi ką nuveikti būsimose versijose.

Temperatūrai jautrūs nustatymai dar labiau apsunkina testavimą nei pirmoji GPU Boost versija. Viskas, kas padidina arba sumažina GK110 temperatūrą, keičia lusto dažnį. Todėl pasiekti pastovių rezultatų tarp bėgimų yra gana sunku. Laboratorinėmis sąlygomis belieka tikėtis stabilios aplinkos temperatūros.

Be to, kas išdėstyta pirmiau, verta paminėti, kad galite padidinti temperatūros ribą. Pavyzdžiui, jei norite NVIDIA GeForce GTX 780 sumažino dažnį ir įtampą iki 85 arba 90 laipsnių Celsijaus, tai galima sukonfigūruoti parametruose.

Norite, kad GK110 būtų kuo toliau nuo pasirinktos temperatūros ribos? Ventiliatoriaus kreivė NVIDIA GeForce GTX 780 Visiškai reguliuojamas, leidžiantis pritaikyti darbo ciklą pagal temperatūros vertes.

Galimos įsijungimo problemos

Per mūsų pažintį su GeForce GTX Titanįmonės atstovai mums parodė vidinę programėlę, kuri gali nuskaityti įvairių daviklių būseną: taip supaprastina nestandartinių kortelių elgsenos diagnozavimo procesą. Jei GK110 temperatūra pakyla per aukštai įsijungimo metu, net ir droseliuojant, ši informacija bus įrašyta į žurnalą.

Dabar įmonė šią funkciją įgyvendina per Precision X aplikaciją, kuri paleidžia įspėjamąjį „priežasčių“ algoritmą, jei įsijungimo metu įvyksta veiksmai, trukdantys efektyviai tęsti. Tai puiki savybė, nes jums nebereikia spėlioti apie galimas kliūtis. Taip pat yra OV max ribos indikatorius, kuris praneš, ar pasiekėte absoliučią GPU įtampos piką. Tokiu atveju kyla pavojus sudeginti kortelę. Galite tai apsvarstyti kaip pasiūlymą sumažinti įsijungimo nustatymus.

NVIDIA GeForce GTX 780 vaizdo plokštės apžvalga | Bandymo etalonas ir etaloniniai standartai


Bandymo stendo konfigūracija
CPU „Intel Core i7-3770K“ („Ivy Bridge“) 3,5 GHz @ 4,0 GHz (40 * 100 MHz), LGA 1155, 8 MB bendra L3 talpykla, „Hyper-Threading“ įjungta, Energijos taupymas įjungtas
Pagrindinė plokštė „Gigabyte Z77X-UD5H“ (LGA 1155), „Z77 Express“ mikroschemų rinkinys, BIOS F15q
RAM G.Skill 16 GB (4 x 4 GB) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24, 1,5 V
Saugojimo įrenginys Crucial m4 SSD 256 GB SATA 6 Gb/s
Vaizdo plokštės Nvidia GeForce GTX 780 3 GB

AMD Radeon HD 7990 6 GB

AMD Radeon HD 7970 GHz Edition 3 GB

Nvidia GeForce GTX 580 1,5 GB

Nvidia GeForce GTX 680 2 GB

Nvidia GeForce GTX Titan 6 GB

Nvidia GeForce GTX 690 4 GB

energijos vienetas Cooler Master UCP-1000W
Sistemos programinė įranga ir tvarkyklės
OS Windows 8 Professional 64 bitų
„DirectX“. „DirectX 11“.
Grafikas. vairuotojai AMD Catalyst 13.5 (Beta 2)
Nvidia GeForce Release 320.00
„Nvidia GeForce Release 320.18“ (skirta „GeForce GTX 780“)

Tinkamos kadrų dažnio vertės gavimas

Atidūs skaitytojai pastebės, kad tolesniuose puslapiuose pateikiami skaičiai kuklesni nei apžvalgoje AMD Radeon HD 7990, ir tam yra priežastis. Anksčiau mes pateikėme sintetinį ir tikrąjį kadrų dažnį, o tada parodėme laiko skirtumus tarp kadrų kartu su išmestais ir trumpais kadrais. Faktas yra tas, kad šis metodas neatspindi tikrų vaizdo plokštės pojūčių, todėl būtų nesąžininga vertinti AMD pagal sintetinius laiko delsos tarp kadrų rodiklius.

Štai kodėl kartu su kadrų dažnio svyravimais dabar pateikiame praktiškesnę dinaminio kadrų dažnio metriką. Rezultatai nėra tokie aukšti, bet tuo pačiu labai iškalbingi žaidimuose, kuriuose AMD turi sunkumų.

Testai ir nustatymai
Mūšio laukas 3 Grafikos kokybė – Ultra, v-sync off, 2560x1440, DirectX 11, Going Hunting, 90 sekundžių, FCAT
Far Cry 3 Grafikos kokybė – „Ultra“, „DirectX 11“, „v-sync“ išjungtas, 2560 x 1440, vykdykite savo maršrutą, 50 sekundžių, FCAT
Borderlands 2 Grafikos kokybė – aukščiausia, PhysX žema, 16x anizotropinis filtravimas, 2560x1440, vykdykite savo maršrutą, FCAT
Hitmanas: Absoliucija Grafikos kokybė – „Ultra“, išjungta MSAA, 2560 x 1440, įmontuotas etalonas, FCAT
The Elder Scrolls V: Skyrim Grafikos kokybė – „Ultra“, įjungta FXAA, 2560 x 1440, važiuokite savo maršrutu, 25 sekundės, FCAT
3DMark Fire Strike etalonas
BioShock Infinite Grafikos kokybė – Ultra, DirectX 11, difuzinis lauko gylis, 2560x1440, įmontuotas etalonas, FCAT
Crysis 3 Grafikos kokybė – labai aukšta, MSAA: žema (2x), didelės skiriamosios gebos tekstūros, 2560x1440, bėgimas pagal savo maršrutą, 60 sekundžių, FCAT
Kapų plėšikas Grafikos kokybė – išskirtinė, FXAA įjungta, 16 kartų anizotropinis filtravimas, TressFX plaukai, 2560 x 1440, pasirinktinis paleidimas, 45 sekundės, FCAT
LuxMark 2.0 64 bitų dvejetainis, 2.0 versija, Sala scena
SiSoftware Sandra 2013 Professional Sandra Tech Support (inžinierius) 2013.SP1, kriptografija, finansinės analizės rezultatai


TURINYS

GPU Boost 2.0

Su NVIDIA GeForce GTX 680 vaizdo plokšte gauname svarbią naują funkciją: GPU Boost. O naujasis NVIDIA GeForce GTX Titan žengia dar vieną žingsnį išplėtęs šią funkciją iki GPU Boost 2.0. Pirmoji GPU Boost 1.0 versija buvo orientuota į maksimalų energijos suvartojimą, pasiekiamą sudėtingiausiuose šiuolaikiniuose žaidimuose. Šiuo atveju GPU temperatūra nevaidino ypatingo vaidmens, nebent ji priartėjo prie kritinės ribos. Didžiausias laikrodžio dažnis buvo nustatytas pagal santykinę įtampą. Trūkumas buvo gana akivaizdus: GPU Boost 1.0 negalėjo išvengti situacijų, kai net esant nekritinei įtampai temperatūra per daug pakilo.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

GeForce GTX Titan jau vertina du parametrus: įtampą ir temperatūrą. Tai yra, santykinė įtampa (Vref) nustatoma remiantis šiais dviem parametrais. Žinoma, vis tiek liks priklausomybė nuo atskirų GPU, nes lustų gamyba skiriasi, todėl kiekviena vaizdo plokštė skirsis nuo visų kitų. Tačiau NVIDIA atkreipia dėmesį į tai, kad techniniu požiūriu temperatūros pridėjimas leido vidutiniškai 3–7 procentais didesnį „Boost“ įsijungimą. GPU Boost 2.0 technologija teoriškai galėtų būti perkelta į senesnes vaizdo plokštes, tačiau vargu ar taip nutiks.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

Pažvelkime atidžiau į GPU Boost 2.0. Priemonės, tokios kaip EVGA Precision Tool arba MSI Afterburner, jau palaiko GPU Boost 2.0. Naudojome EVGA Precision Tool 4.0 versiją.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

GPU Boost 2.0 atsižvelgia į temperatūrą, o esant žemai temperatūrai technologija gali žymiai padidinti našumą. Pagal numatytuosius nustatymus tikslinė temperatūra (Ttarget) yra 80 °C.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

GPU Boost 2.0 technologijoje yra visos mums iš pirmos kartos technologijos pažįstamos funkcijos, tačiau kartu papildomai galima nustatyti aukštesnę įtampą, taigi ir didesnius laikrodžio dažnius. Overclockeriams galima keisti nustatymus. Galite įjungti GPU viršįtampią, tačiau atminkite, kad gali sumažėti vaizdo plokštės veikimo laikas.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

Overclockeriai gali padidinti Vref ir Vmax (OverVoltaging). To norėjo daugelis GK104 vartotojų, tačiau NVIDIA tokia galimybe nepasitikėjo nei vartotojais, nei gamintojais. O mūsų išbandyta EVGA GTX 680 Classified vaizdo plokštė (išbandyta ir peržiūrima) yra tik puikus pavyzdys. Ši vaizdo plokštė turėjo specialų EVGA Evbot modulį, kuris vartotojams suteikė galimybę valdyti įtampas. Tačiau NVIDIA skubiai pareikalavo, kad EVGA pašalintų papildomą įrangą iš savo vaizdo plokščių. Su GPU Boost 2.0 ir OverVoltaging, pati NVIDIA žengė žingsnį šia kryptimi. Taigi, vaizdo plokščių gamintojai gali išleisti kelis GeForce GTX Titan modelius, pavyzdžiui, standartines versijas ir gamyklines overclocked versijas. Overvoltaging įjungiamas naudojant VBIOS jungiklį (ty aiškiai vartotojui, kad jis žinotų galimas pasekmes).

ParametrasReikšmė
Lusto kodo pavadinimasGP104
Gamybos technologija16 nm FinFET
Tranzistorių skaičius7,2 mlrd
Pagrindinė sritis314 mm²
Architektūra
„DirectX“ techninės įrangos palaikymas
Atminties magistralė
1607 (1733) MHz
Skaičiavimo blokai20 srautinio perdavimo kelių procesorių, įskaitant 2560 skaliarinių ALU, skirtų slankiojo kablelio skaičiavimams pagal IEEE 754-2008 standartą;
Tekstūravimo blokeliai160 tekstūrų adresavimo ir filtravimo vienetų su FP16 ir FP32 tekstūrų komponentų palaikymu ir visų tekstūrų formatų trilinijinio ir anizotropinio filtravimo palaikymu
Monitoriaus palaikymas
GeForce GTX 1080 etaloninės vaizdo plokštės specifikacijos
ParametrasReikšmė
Pagrindinis dažnis1607 (1733) MHz
2560
Tekstūros blokų skaičius160
Maišymo blokų skaičius64
Efektyvus atminties dažnis10000 (4×2500) MHz
Atminties tipasGDDR5X
Atminties magistralė256 bitų
Atmintis8 GB
320 GB/s
apie 9 teraflopus
103 gigapikseliai/s
257 gigatekseliai/s
PadangaPCI Express 3.0
Jungtys
Energijos suvartojimasiki 180W
Papildomas maistasViena 8 kontaktų jungtis
2
Rekomenduojama kaina599–699 USD (JAV), 54 990 RUB (Rusija)

Naujasis GeForce GTX 1080 vaizdo plokštės modelis gavo logišką pirmajam naujosios GeForce serijos sprendimui pavadinimą – nuo ​​tiesioginio pirmtako jis skiriasi tik pasikeitusiu kartos numeriu. Naujasis produktas ne tik pakeičia geriausius sprendimus dabartinėje bendrovės linijoje, bet ir kurį laiką tapo naujosios serijos flagmanu, kol buvo išleistas Titan X su dar didesnės galios GPU. Žemiau jo hierarchijoje taip pat yra jau paskelbtas GeForce GTX 1070 modelis, paremtas nulupta GP104 lusto versija, kurią svarstysime toliau.

Rekomenduojamos naujosios „Nvidia“ vaizdo plokštės kainos yra atitinkamai 599 USD ir 699 USD už įprastą versiją ir specialųjį Founders Edition (žr. toliau), ir tai yra gana geras pasiūlymas, atsižvelgiant į tai, kad GTX 1080 lenkia ne tik GTX 980 Ti. , bet ir Titan X. Šiandien naujasis produktas yra be jokių klausimų geriausias našumo sprendimas vieno lusto vaizdo plokščių rinkoje ir tuo pačiu kainuoja pigiau nei produktyviausios ankstesnės kartos vaizdo plokštės. Kol kas „GeForce GTX 1080“ iš esmės neturi konkurento iš AMD, todėl „Nvidia“ sugebėjo nustatyti jiems tinkančią kainą.

Nagrinėjama vaizdo plokštė yra pagrįsta GP104 lustu, turinčiu 256 bitų atminties magistralę, tačiau naujo tipo GDDR5X atmintis veikia labai aukštu efektyviu 10 GHz dažniu, o tai suteikia didžiausią 320 GB/s pralaidumą. - kuris beveik prilygsta GTX 980 Ti su 384 bitų magistrale. Vaizdo plokštėje su tokia magistrale įdiegtos atminties tūris galėtų būti lygus 4 arba 8 GB, tačiau įrengti mažesnę tūrį tokiam galingam sprendimui šiuolaikinėmis sąlygomis būtų kvaila, todėl GTX 1080 gana logiškai gavo 8 GB atminties. , o šio tūrio pakanka paleisti bet kokius 3D žaidimus. programas su bet kokiais kokybės nustatymais kelerius metus į priekį.

GeForce GTX 1080 PCB dėl akivaizdžių priežasčių gerokai skiriasi nuo ankstesnių bendrovės PCB. Tipiškos naujojo gaminio energijos sąnaudos yra 180 W – tai yra šiek tiek daugiau nei GTX 980, tačiau pastebimai mažesnė nei mažiau produktyvių Titan X ir GTX 980 Ti. Nuorodų plokštėje yra įprastas jungčių rinkinys vaizdo išvesties įrenginiams prijungti: vienas Dual-Link DVI, vienas HDMI ir trys DisplayPort.

Founders Edition referencinis dizainas

Net kai gegužės pradžioje buvo paskelbta apie GeForce GTX 1080, buvo paskelbtas specialus vaizdo plokštės leidimas, pavadintas Founders Edition, kurio kaina buvo didesnė, palyginti su įprastomis kompanijos partnerių vaizdo plokštėmis. Iš esmės šis leidimas yra etaloninis kortelės ir aušinimo sistemos dizainas, jį gamina pati „Nvidia“. Į tokias vaizdo plokštės parinktis galite žiūrėti skirtingai, tačiau įmonės inžinierių sukurtas etaloninis dizainas, pagamintas naudojant aukštos kokybės komponentus, turi savo gerbėjų.

Bet ar jie mokės keliais tūkstančiais rublių daugiau už pačios „Nvidia“ vaizdo plokštę, yra klausimas, į kurį gali atsakyti tik praktika. Bet kokiu atveju iš pradžių bus parduodamos referencinės vaizdo plokštės iš Nvidia už padidintą kainą, o rinktis tikrai nėra iš ko – taip nutinka su kiekvienu pranešimu, tačiau etaloninė GeForce GTX 1080 skiriasi tuo. tokia forma planuojama prekiauti per visą eksploatavimo laiką iki naujos kartos sprendimų išleidimo.

„Nvidia“ mano, kad šis leidinys turi pranašumų net prieš geriausius partnerių darbus. Pavyzdžiui, aušintuvo dviejų lizdų konstrukcija leidžia lengvai sukurti šios galingos vaizdo plokštės pagrindu ir santykinai mažos formos žaidimų kompiuterius, ir kelių lustų vaizdo sistemas (net nepaisant trijų ir keturių lustų režimo). operaciją, kurios įmonė nerekomenduoja). „GeForce GTX 1080 Founders Edition“ turi keletą privalumų – efektyvus aušintuvas naudojant garų kamerą ir ventiliatorius, išstumiantis įkaitusį orą iš korpuso – tai pirmasis „Nvidia“ toks sprendimas, sunaudojantis mažiau nei 250 W galios.

Palyginti su ankstesniais bendrovės etaloniniais gaminių projektais, maitinimo grandinė buvo patobulinta iš keturių fazių į penkių fazių. „Nvidia“ taip pat kalba apie patobulintus komponentus, kuriais grindžiamas naujasis produktas; taip pat sumažintas elektrinis triukšmas, leidžiantis pagerinti įtampos stabilumą ir įsijungimo potencialą. Dėl visų patobulinimų etaloninės plokštės energijos vartojimo efektyvumas padidėjo 6%, palyginti su GeForce GTX 980.

O norint savo išvaizda skirtis nuo „įprastų“ GeForce GTX 1080 modelių, „Founders Edition“ buvo sukurtas neįprastas „kapoto“ korpuso dizainas. Tačiau tai tikriausiai lėmė sudėtingesnę garinimo kameros ir radiatoriaus formą (žr. nuotrauką), o tai galėjo būti viena iš priežasčių, kodėl už tokį specialų leidimą reikėjo sumokėti 100 USD. Pasikartosime, kad išpardavimų pradžioje pirkėjai neturės didelio pasirinkimo, tačiau ateityje galės rinktis arba savo dizaino sprendimą iš vieno iš įmonės partnerių, arba pačios Nvidia pagamintą sprendimą.

Naujos kartos Pascal grafikos architektūra

„GeForce GTX 1080“ vaizdo plokštė buvo pirmasis bendrovės sprendimas, pagrįstas GP104 lustu, kuris priklauso naujos kartos „Nvidia“ Pascal grafikos architektūrai. Nors naujoji architektūra paremta Maxwell sukurtais sprendimais, ji turi ir svarbių funkcinių skirtumų, apie kuriuos parašysime vėliau. Pagrindinis pokytis pasauliniu požiūriu buvo naujas technologinis procesas, kurio metu buvo pagamintas naujas grafinis procesorius.

16 nm FinFET proceso naudojimas gaminant GP104 grafikos procesorius Taivano įmonės TSMC gamyklose leido žymiai padidinti lusto sudėtingumą išlaikant palyginti mažą plotą ir sąnaudas. Palyginkite tranzistorių skaičių ir GP104 bei GM204 lustų plotą – plotu jie panašūs (naujojo gaminio kristalas fiziškai net šiek tiek mažesnis), tačiau Pascal architektūros lustas turi pastebimai didesnį tranzistorių skaičių, o , atitinkamai, vykdymo vienetai, įskaitant tuos, kurie suteikia naujų funkcijų.

Architektūriniu požiūriu pirmasis žaidimų „Pascal“ yra labai panašus į panašius Maxwell architektūros sprendimus, nors yra ir tam tikrų skirtumų. Kaip ir Maxwell, Pascal procesoriai turės skirtingas grafikos apdorojimo klasterio (GPC), srautinio daugiaprocesoriaus (SM) ir atminties valdiklių konfigūracijas. SM daugiaprocesorius yra labai lygiagretus daugiaprocesorius, kuris suplanuoja ir vykdo deformacijas (32 komandų gijų grupes) CUDA branduoliuose ir kituose daugiaprocesoriaus vykdymo blokuose. Išsamią informaciją apie visų šių blokų dizainą rasite mūsų ankstesnių Nvidia sprendimų apžvalgose.

Kiekvienas iš SM kelių procesorių yra suporuotas su „PolyMorph Engine“, kuris tvarko tekstūros atranką, teseliaciją, transformaciją, viršūnių atributų nustatymą ir perspektyvos korekciją. Skirtingai nuo ankstesnių bendrovės sprendimų, GP104 lusto „PolyMorph Engine“ taip pat turi naują kelių projekcijų bloką „Simultaneous Multi-Projection“, apie kurį kalbėsime toliau. SM kelių procesorių derinys su vienu „Polymorph Engine“ tradiciškai vadinamas TPC – „Nvidia“ skirtų tekstūrų procesorių grupe.

Iš viso „GeForce GTX 1080“ GP104 lustą sudaro keturios GPC klasteriai ir 20 SM kelių procesorių, taip pat aštuoni atminties valdikliai kartu su 64 ROP įrenginiais. Kiekvienas GPC klasteris turi specialų rastrizacijos variklį ir penkis SM daugiaprocesorius. Kiekvienas daugiaprocesorius savo ruožtu susideda iš 128 CUDA branduolių, 256 KB registro failo, 96 KB bendros atminties, 48 ​​KB L1 talpyklos ir aštuonių TMU tekstūrų vienetų. Tai reiškia, kad iš viso GP104 yra 2560 CUDA branduolių ir 160 TMU vienetų.

Be to, grafikos procesorius, kuriuo pagrįstas „GeForce GTX 1080“, turi aštuonis 32 bitų (priešingai nei anksčiau naudotus 64 bitų) atminties valdiklius, kurie suteikia mums galutinę 256 bitų atminties magistralę. Kiekvienas atminties valdiklis turi aštuonis ROP blokus ir 256 KB L2 talpyklos. Tai yra, iš viso GP104 mikroschemoje yra 64 ROP blokai ir 2048 KB antrojo lygio talpyklos.

Dėl architektūrinių optimizacijų ir naujos proceso technologijos pirmasis žaidimų „Pascal“ tapo efektyviausiu visų laikų GPU. Be to, prie to prisideda ir vienas pažangiausių 16 nm FinFET technologinių procesų, ir architektūros optimizavimas, atliktas Pascal, lyginant su Maxwell. „Nvidia“ sugebėjo padidinti laikrodžio dažnį dar labiau nei tikėjosi pereidama prie naujos proceso technologijos. GP104 veikia didesniu dažniu, nei veiktų hipotetinis GM204, pagamintas naudojant 16 nm procesą. Norėdami tai padaryti, „Nvidia“ inžinieriai turėjo atidžiai patikrinti ir optimizuoti visas ankstesnių sprendimų kliūtis, kurios neleido įsibėgėti virš tam tikros ribos. Dėl to naujasis GeForce GTX 1080 modelis veikia daugiau nei 40% didesniu dažniu lyginant su GeForce GTX 980. Tačiau tai dar ne visi su GPU veikimo dažniu susiję pokyčiai.

GPU Boost 3.0 technologija

Kaip puikiai žinome iš ankstesnių Nvidia vaizdo plokščių, savo grafiniuose procesoriuose jie naudoja aparatinę technologiją GPU Boost, skirtą padidinti GPU veikimo taktinį dažnį režimuose, kai jis dar nepasiekė energijos suvartojimo ir šilumos išsklaidymo ribos. Bėgant metams šis algoritmas patyrė daug pakeitimų, o Pascal architektūros vaizdo lustas naudoja jau trečios kartos šią technologiją – GPU Boost 3.0, kurios pagrindinė naujovė yra smulkesnis turbo dažnių nustatymas, priklausomai nuo įtampos.

Jei prisimenate ankstesnių technologijos versijų veikimo principą, skirtumas tarp bazinio dažnio (garantuota minimali dažnio reikšmė, žemiau kurios GPU nenukrenta, bent jau žaidimuose) ir turbo dažnio buvo nustatytas. Tai yra, turbo dažnis visada buvo tam tikru megahercų skaičiumi didesnis nei bazinis. „GPU Boost 3.0“ tapo įmanoma kiekvienai įtampai atskirai nustatyti turbo dažnio poslinkius. Lengviausias būdas tai suprasti yra iliustracija:

Kairėje yra antroji GPU Boost versija, dešinėje - trečioji, kuri pasirodė Pascal. Fiksuotas skirtumas tarp bazinio ir turbo dažnių neleido atskleisti visų GPU galimybių, kai kuriais atvejais ankstesnių kartų GPU galėjo veikti greičiau esant nustatytai įtampai, tačiau fiksuotas turbo dažnio perteklius to neleido. pabaigti. GPU Boost 3.0 ši funkcija atsirado, o turbo dažnį galima nustatyti kiekvienai atskirai įtampos vertei, visiškai išspaudžiant visas sultis iš GPU.

Norint valdyti įsijungimą ir nustatyti turbo dažnio kreivę, reikalingos patogios paslaugos. Pati „Nvidia“ to nedaro, bet padeda savo partneriams sukurti panašias paslaugas, kad būtų lengviau įsijungti (žinoma, neperžengiant pagrįstų ribų). Pavyzdžiui, naujas GPU Boost 3.0 funkcionalumas jau buvo atskleistas EVGA Precision XOC, kuris apima specialų greitintuvo skaitytuvą, kuris automatiškai suranda ir nustato netiesinį skirtumą tarp bazinio dažnio ir turbo dažnio skirtingoms įtampoms, paleisdamas įmontuotą veikimo ir stabilumo testas. Dėl to vartotojas gauna turbo dažnio kreivę, kuri puikiai atitinka konkretaus lusto galimybes. Kuris, be to, gali būti bet kokiu būdu pakeistas rankiniu būdu.

Kaip matote programos ekrano kopijoje, be informacijos apie GPU ir sistemą, taip pat yra įsijungimo nustatymai: Power Target (apibrėžia tipinį energijos suvartojimą įsijungimo metu, kaip standarto procentą), GPU Temp Target. (maksimali leistina šerdies temperatūra), GPU laikrodžio poslinkis (viršijantis bazinį dažnį visoms įtampos reikšmėms), Atminties poslinkis (viršijantis vaizdo atminties dažnį, viršijantį numatytąją vertę), Viršįtampa (papildoma galimybė padidinti įtampą).

„Precision XOC“ programa apima tris įsijungimo režimus: pagrindinį, linijinį ir rankinį. Pagrindiniame režime galite nustatyti vieną perteklinio dažnio (fiksuoto turbo dažnio) vertę, viršijančią pagrindinį, kaip buvo ankstesnių GPU atveju. Linijinis režimas leidžia nustatyti linijinį dažnio pokytį nuo minimalios iki didžiausios GPU įtampos verčių. Na, rankiniu režimu galite nustatyti unikalias GPU dažnio reikšmes kiekvienam grafiko įtampos taškui.

Priemonėje taip pat yra specialus skaitytuvas, skirtas automatiniam įsijungimui. Galite nustatyti savo dažnio lygius arba leisti Precision XOC nuskaityti GPU esant bet kokiai įtampai ir visiškai automatiškai rasti stabiliausius dažnius kiekvienam įtampos ir dažnio kreivės taškui. Nuskaitymo proceso metu Precision XOC palaipsniui didina GPU dažnį ir tikrina jo veikimą dėl stabilumo ar artefaktų, sukurdama idealią dažnio ir įtampos kreivę, kuri bus unikali kiekvienam konkrečiam lustui.

Šį skaitytuvą galima pritaikyti pagal savo poreikius, nustatant kiekvienos įtampos vertės tikrinimo laikotarpį, minimalų ir maksimalų testuojamą dažnį bei jo žingsnį. Akivaizdu, kad norint pasiekti stabilių rezultatų, geriau būtų nustatyti nedidelį žingsnį ir tinkamą testavimo trukmę. Testavimo metu gali būti stebimas nestabilus vaizdo tvarkyklės ir sistemos darbas, tačiau jei skeneris neužšąla, jis atkurs veikimą ir toliau ieškos optimalių dažnių.

Naujas GDDR5X vaizdo atminties tipas ir patobulintas glaudinimas

Taigi, GPU galia gerokai padidėjo, tačiau atminties magistralė lieka tik 256 bitų – ar atminties pralaidumas apribos bendrą našumą ir ką su tuo galima padaryti? Panašu, kad perspektyvią antros kartos HBM atmintį gaminti vis dar per brangu, todėl teko ieškoti kitų variantų. Nuo 2009 m., kai buvo pristatyta GDDR5 atmintis, Nvidia inžinieriai tiria naujų tipų atminties panaudojimo galimybes. Dėl šios priežasties buvo pristatytas naujas atminties standartas GDDR5X – iki šiol sudėtingiausias ir pažangiausias standartas, užtikrinantis 10 Gbps perdavimo greitį.

„Nvidia“ pateikia įdomų pavyzdį, kaip tai greita. Tarp perduodamų bitų praeina tik 100 pikosekundžių – per šį laiką šviesos spindulys nukeliaus vos vieno colio (apie 2,5 cm) atstumą. O naudojant GDDR5X atmintį, duomenų perdavimo ir priėmimo grandinės turi parinkti perduodamo bito reikšmę greičiau nei per pusę šio laiko, prieš siunčiant kitą – tai tik tam, kad suprastumėte, prie ko priėjo šiuolaikinės technologijos.

Norint pasiekti tokį greitį, reikėjo sukurti naują duomenų įvesties/išvesties sistemos architektūrą, kuri pareikalavo kelerių metų bendro kūrimo su atminties lustų gamintojais. Be padidėjusio duomenų perdavimo greičio, išaugo ir energijos vartojimo efektyvumas – GDDR5X atminties lustai naudoja mažesnę 1,35 V įtampą ir yra gaminami naudojant naujas technologijas, kurios suteikia tokias pačias energijos sąnaudas 43% didesniu dažniu.

Bendrovės inžinieriai turėjo pertvarkyti duomenų linijas tarp GPU branduolio ir atminties lustų, daugiau dėmesio skirdami signalo praradimo ir blogėjimo prevencijai visame kelyje nuo atminties iki GPU ir atgal. Taigi aukščiau esančioje iliustracijoje užfiksuotas signalas rodomas didelės simetriškos „akies“ pavidalu, o tai rodo gerą visos grandinės optimizavimą ir santykinį duomenų fiksavimo iš signalo lengvumą. Be to, aukščiau aprašyti pakeitimai ne tik suteikė galimybę naudoti GDDR5X 10 GHz dažniu, bet ir turėtų padėti gauti didelį atminties pralaidumą būsimuose gaminiuose, naudojantys įprastesnę GDDR5 atmintį.

Na, naudojant naują atmintį, pralaidumas padidėjo daugiau nei 40%. Bet ar to neužtenka? Siekdama dar labiau padidinti atminties pralaidumo efektyvumą, „Nvidia“ toliau tobulino ankstesnėse architektūrose įdiegtą pažangų duomenų glaudinimą. GeForce GTX 1080 atminties posistemis naudoja patobulintas ir keletą naujų duomenų be nuostolių glaudinimo metodų, skirtų sumažinti pralaidumo reikalavimus – tai ketvirtoji lusto glaudinimo karta.

Duomenų glaudinimo algoritmai atmintyje turi keletą teigiamų aspektų. Suspaudimas sumažina į atmintį įrašomų duomenų kiekį, tas pats pasakytina ir apie duomenis, siunčiamus iš vaizdo įrašo atminties į antrojo lygio talpyklą, o tai pagerina L2 talpyklos naudojimo efektyvumą, nes suspausta plytelė (kelių kadrų buferio taškų blokas) yra mažesnė nei nesuspaustas. Tai taip pat sumažina duomenų, siunčiamų tarp skirtingų taškų, pvz., TMU ir kadrų buferio, kiekį.

Duomenų glaudinimo vamzdynas GPU naudoja kelis algoritmus, kurie nustatomi atsižvelgiant į duomenų „suspaudžiamumą“ - jiems parenkamas geriausias prieinamas algoritmas. Vienas iš svarbiausių yra delta spalvų glaudinimo algoritmas. Šis suspaudimo metodas koduoja duomenis kaip skirtumą tarp nuoseklių verčių, o ne pačius duomenis. GPU apskaičiuoja spalvų reikšmių skirtumą tarp bloko (plytelės) pikselių ir išsaugo bloką kaip vidutinę viso bloko spalvą ir duomenis apie kiekvieno pikselio reikšmių skirtumą. Grafiniams duomenims šis metodas dažniausiai puikiai tinka, nes mažose visų pikselių plytelėse spalva dažnai per daug nesiskiria.

„GeForce GTX 1080“ GP104 grafikos procesorius palaiko daugiau glaudinimo algoritmų, palyginti su ankstesniais „Maxwell“ architektūros lustais. Taigi 2:1 glaudinimo algoritmas tapo efektyvesnis, o be jo atsirado du nauji algoritmai: 4:1 suspaudimo režimas, tinkantis tais atvejais, kai bloko pikselių spalvų reikšmės skirtumas yra labai mažas, ir 8:1 režimas, derinant pastovų algoritmą 4:1 2x2 pikselių blokų glaudinimą su 2x delta glaudinimu tarp blokų. Kai suspaudimas visiškai neįmanomas, jis nenaudojamas.

Tačiau iš tikrųjų pastarasis nutinka labai retai. Tai matyti iš „Project CARS“ žaidimo ekrano kopijų, kurias „Nvidia“ pateikė, kad parodytų padidintą „Pascal“ suspaudimo laipsnį. Iliustracijose tos kadro buferio plytelės, kurias sugebėjo suspausti GPU, yra nudažytos violetine spalva, o tos, kurių nepavyksta suspausti be nuostolių, išlieka originalia spalva (viršuje - Maxwell, apačioje - Pascal).

Kaip matote, nauji GP104 glaudinimo algoritmai tikrai veikia daug geriau nei Maxwell. Nors senesnė architektūra taip pat galėjo suspausti daugumą scenoje esančių plytelių, dideliems žolės ir medžių kiekiams aplink kraštus, taip pat transporto priemonių dalims, senieji glaudinimo algoritmai netaikomi. Tačiau kai įdiegėme naujas technologijas Pascal, labai nedaug vaizdo sričių liko nesuspaustos – pagerėjęs efektyvumas akivaizdus.

Dėl patobulintų duomenų glaudinimo, GeForce GTX 1080 gali žymiai sumažinti vienam kadrui siunčiamų duomenų kiekį. Kalbant apie skaičius, patobulintas glaudinimas sutaupo dar 20% efektyvaus atminties pralaidumo. Be to, kad GeForce GTX 1080 atminties pralaidumas padidėjo daugiau nei 40 %, palyginti su GTX 980 dėl GDDR5X atminties naudojimo, visa tai kartu suteikia apie 70 % didesnį efektyvų pralaidumą, palyginti su ankstesnės kartos modeliu.

Asinchroninio skaičiavimo palaikymas Async Compute

Daugumoje šiuolaikinių žaidimų, be grafikos, naudojami sudėtingi skaičiavimai. Pavyzdžiui, skaičiavimai apskaičiuojant fizinių kūnų elgesį gali būti atliekami ne prieš ar po grafinių skaičiavimų, o kartu su jais, nes jie nėra susiję vienas su kitu ir nepriklauso vienas nuo kito viename kadre. Kitas pavyzdys – jau atvaizduotų kadrų tolesnis apdorojimas ir garso duomenų apdorojimas, kuris taip pat gali būti atliekamas lygiagrečiai su atvaizdavimu.

Kitas ryškus funkcionalumo panaudojimo pavyzdys yra asinchroninio laiko deformavimo (Asynchronous Time Warp) technika, naudojama virtualiosios realybės sistemose, siekiant pakeisti išvesties kadrą pagal žaidėjo galvos judesį prieš pat jo išvestį, nutraukiant atvaizdavimą. kito. Toks asinchroninis GPU galios įkėlimas leidžia padidinti jo vykdymo vienetų naudojimo efektyvumą.

Tokie darbo krūviai sukuria du naujus GPU naudojimo scenarijus. Pirmasis iš jų apima persidengiančias apkrovas, nes atliekant daugelio tipų užduotis visiškai neišnaudojamos GPU galimybės, o kai kurie ištekliai yra nenaudojami. Tokiais atvejais galite tiesiog paleisti dvi skirtingas užduotis tame pačiame GPU, atskirdami jo vykdymo vienetus, kad būtų galima efektyviau naudoti, pavyzdžiui, PhysX efektus, veikiančius kartu su 3D kadrų atvaizdavimu.

Siekiant pagerinti šį scenarijų, Pascal architektūra pristatė dinaminį apkrovos balansavimą. Ankstesnėje Maxwell architektūroje persidengiantys darbo krūviai buvo įgyvendinami statiškai paskirstant GPU išteklius tarp grafikos ir skaičiavimo. Šis metodas yra efektyvus, jei balansas tarp dviejų darbo krūvių maždaug atitinka išteklių pasiskirstymą ir užduotys atliekamos per tiek pat laiko. Jei negrafiniai skaičiavimai užtrunka ilgiau nei grafiniai, ir abu laukia, kol bus baigtas bendras darbas, tada dalis GPU likusį laiką neveiks, dėl to sumažės bendras našumas ir sumažės visa nauda. Aparatinės įrangos dinaminis apkrovos balansavimas leidžia naudoti atlaisvintus GPU išteklius, kai tik jie tampa prieinami – pateiksime iliustraciją, kad suprastumėte.

Taip pat yra užduočių, kurios yra labai svarbios vykdymo laikui, ir tai yra antrasis asinchroninio skaičiavimo scenarijus. Pavyzdžiui, VR asinchroninio laiko iškraipymo algoritmas turi būti užbaigtas prieš nuskaitant, kitaip kadras bus atmestas. Tokiu atveju GPU turi palaikyti labai greitą užduočių pertraukimą ir perjungimą į kitą, kad pašalintų ne tokią svarbią užduotį iš GPU vykdymo ir atlaisvintų jos išteklius svarbioms užduotims atlikti – tai vadinama išankstine užduočių atlikimu.

Vienoje žaidimo variklio atvaizdavimo komandoje gali būti šimtai piešimo iškvietimų, kurių kiekvienas savo ruožtu turi šimtus apdorotų trikampių, kurių kiekviename yra šimtai pikselių, kuriuos reikia apskaičiuoti ir nupiešti. Tradicinis GPU metodas pertraukia tik aukšto lygio užduotis, o grafikos vamzdynas yra priverstas laukti, kol bus baigtas visas darbas, prieš perjungdamas užduotis, todėl delsos laikas yra labai didelis.

Norėdami tai ištaisyti, Pascal architektūra pirmą kartą pristatė galimybę pertraukti užduotį pikselių lygiu – Pixel Level Preemption. Pascal GPU vykdymo blokai gali nuolat stebėti atvaizdavimo užduočių eigą, o paprašius pertraukti, gali sustabdyti vykdymą, išsaugodami kontekstą tolesniam užbaigimui, greitai persijungdami į kitą užduotį.

Skaičiavimo operacijų gijos lygio pertraukimas ir perjungimas veikia panašiai kaip grafinio skaičiavimo pikselių lygio pertraukimas. Skaičiavimo darbo krūviai susideda iš kelių tinklelių, kurių kiekvienoje yra kelios gijos. Kai gaunama pertraukimo užklausa, daugiaprocesoriuje veikiančios gijos nutraukia vykdymą. Kiti blokai išsaugo savo būseną, kad ateityje galėtų tęsti nuo to paties taško, o GPU persijungia į kitą užduotį. Visas užduočių perjungimo procesas užtrunka mažiau nei 100 mikrosekundžių po to, kai išjungiamos veikiančios gijos.

Žaidimų darbo krūvio atveju pikselių lygio pertraukimų grafikos darbo krūviams ir gijų lygio pertraukimų skaičiavimo darbo krūviams derinys suteikia Pascal GPU galimybę greitai perjungti užduotis su minimaliomis prastovomis. O atliekant skaičiavimo užduotis naudojant CUDA, taip pat galimas pertraukimas su minimaliu detalumu - instrukcijų lygiu. Šiuo režimu visos gijos iš karto sustabdo vykdymą ir iškart pereina prie kitos užduoties. Šis metodas reikalauja saugoti daugiau informacijos apie kiekvienos gijos visų registrų būseną, tačiau kai kuriais negrafinio skaičiavimo atvejais tai yra gana pagrįsta.

Greito pertraukimo ir užduočių perjungimo naudojimas grafikos ir skaičiavimo darbo krūviuose buvo įtrauktas į Pascal architektūrą, kad grafikos ir ne grafinės užduotys galėtų būti pertraukiamos atskirų instrukcijų lygiu, o ne ištisomis gijomis, kaip buvo Maxwell ir Kepler atveju. . Šios technologijos gali pagerinti asinchroninį įvairių GPU darbo krūvių vykdymą ir pagerinti reagavimą vykdant kelias užduotis vienu metu. „Nvidia“ renginyje jie demonstravo asinchroninį skaičiavimą, naudodami fizinių efektų skaičiavimo pavyzdį. Jei be asinchroninio skaičiavimo našumas buvo 77–79 FPS, tai įtraukus šias funkcijas kadrų dažnis padidėjo iki 93–94 FPS.

Jau pateikėme pavyzdį apie vieną iš šios funkcijos panaudojimo žaidimuose galimybių asinchroninio laiko iškraipymo VR pavidalu. Iliustracijoje pavaizduotas šios technologijos veikimas su tradiciniu pertraukimu (preemption) ir su greituoju. Pirmuoju atveju asinchroninio laiko iškraipymo procesą jie bando atlikti kuo vėliau, bet prieš pradedant atnaujinti vaizdą ekrane. Tačiau algoritmo darbas turi būti išsiųstas į GPU vykdyti keliomis milisekundėmis anksčiau, nes be greito pertraukimo nėra galimybės tiksliai atlikti darbo reikiamu momentu, o GPU kurį laiką neveikia.

Tikslaus pikselių ir gijų pertraukimo atveju (parodyta dešinėje), ši galimybė leidžia tiksliau nustatyti, kada įvyksta pertraukimas, o asinchroninis laiko deformavimas gali būti pradėtas daug vėliau, užtikrinant, kad darbas bus baigtas prieš ekranui prasidėjus. atnaujinimas. O GPU, kuris pirmuoju atveju kurį laiką neveikia, gali būti apkrautas papildomais grafikos darbais.

Vienalaikio kelių projektavimo technologija

Naujasis GP104 GPU dabar palaiko naują vienalaikio kelių projektavimo (SMP) technologiją, leidžiančią GPU efektyviau pateikti duomenis šiuolaikinėse ekrano sistemose. SMP leidžia vaizdo lustui vienu metu išvesti duomenis keliose projekcijose, todėl reikėjo įvesti naują aparatinės įrangos bloką GPU kaip „PolyMorph“ variklio dalį geometrijos konvejerio pabaigoje prieš rastravimo įrenginį. Šis blokas yra atsakingas už darbą su keliomis vieno geometrijos srauto projekcijomis.

Kelių projekcijų variklis vienu metu apdoroja geometrinius duomenis 16 iš anksto sukonfigūruotų projekcijų, sujungiančių projekcijos tašką (kamerą), šias projekcijas galima nepriklausomai pasukti arba pakreipti. Kadangi kiekvienas geometrijos primityvas vienu metu gali būti rodomas keliuose rodiniuose, SMP variklis suteikia šią funkciją, leisdamas programai nurodyti GPU atkartoti geometriją iki 32 kartų (16 vaizdų dviejuose projekcijų centruose) be papildomo apdorojimo.

Visas apdorojimo procesas yra pagreitintas aparatine įranga, o kadangi daugiaprojektavimas veikia po geometrijos variklio, nereikia kartoti visų geometrijos apdorojimo etapų kelis kartus. Sutaupyti ištekliai yra svarbūs, kai atvaizdavimo greitį riboja geometrijos apdorojimo našumas, pvz., teseliacija, kai kiekvienai projekcijai kelis kartus atliekamas tas pats geometrinis darbas. Atitinkamai, didžiausiu atveju kelių projektavimas gali sumažinti geometrijos apdorojimo poreikį iki 32 kartų.

Bet kam viso to reikia? Yra keletas gerų pavyzdžių, kai kelių projektavimo technologija gali būti naudinga. Pavyzdžiui, kelių monitorių sistema, susidedanti iš trijų ekranų, sumontuotų kampu vienas kito atžvilgiu gana arti vartotojo (surround konfigūracija). Įprastoje situacijoje scena perteikiama vienoje projekcijoje, o tai lemia geometrinius iškraipymus ir neteisingą geometrijos atvaizdavimą. Tinkamas būdas yra turėti tris skirtingas kiekvieno monitoriaus iškyšas, atsižvelgiant į jų padėties kampą.

Naudojant vaizdo plokštę luste su Pascal architektūra, tai galima padaryti vienu geometrijos praėjimu, nurodant tris skirtingas projekcijas, kurių kiekviena skirta savo monitoriui. Taip vartotojas galės keisti monitorių išdėstymo kampą vienas kito atžvilgiu ne tik fiziškai, bet ir virtualiai – pasukdamas šoninių monitorių projekcijas, kad gautų teisingą perspektyvą 3D scenoje su pastebimai platesniu žiūrėjimo kampu. (FOV). Tačiau čia yra apribojimas – tokiam palaikymui programa turi sugebėti atvaizduoti sceną plačiu FOV ir naudoti specialius SMP API iškvietimus jai nustatyti. Tai yra, jūs negalite to padaryti kiekviename žaidime; jums reikia ypatingos paramos.

Bet kuriuo atveju tos dienos, kai viename plokščiame ekrane buvo rodoma viena projekcija, jau praėjo – dabar yra daug kelių monitorių konfigūracijų ir lenktų ekranų, kuriuose taip pat galima naudoti šią technologiją. Jau nekalbant apie virtualios realybės sistemas, kuriose tarp ekranų ir vartotojo akių naudojami specialūs lęšiai, kuriems reikia naujų 3D vaizdo projektavimo į 2D techniką. Daugelis šių technologijų ir metodų vis dar yra ankstyvosiose kūrimo stadijose, svarbiausia, kad senesni GPU negali efektyviai naudoti daugiau nei vieno plokštumos vaizdo. Jie reikalauja kelių atvaizdavimo procedūrų, pakartotinio tos pačios geometrijos apdorojimo ir kt.

Maxwell architektūros lustai turėjo ribotą daugialypės raiškos palaikymą, kad padėtų pagerinti efektyvumą, tačiau Pascal SMP gali padaryti daug daugiau. Maxwellas galėjo pasukti projekciją 90 laipsnių kampu, kad būtų sudarytas kubas arba skirtinga projekcijos skiriamoji geba, tačiau tai buvo naudinga tik ribotose programose, pvz., VXGI.

Kitos SMP naudojimo galimybės apima kelių skiriamųjų gebų atvaizdavimą ir vieno žingsnio stereo atvaizdavimą. Pavyzdžiui, „Multi-Res Shading“ gali būti naudojamas žaidimuose, siekiant optimizuoti našumą. Kai taikoma, kadro centre naudojama didesnė skiriamoji geba, o periferijoje ji sumažinama, kad būtų didesnis atvaizdavimo greitis.

Vieno žingsnio stereo perteikimas naudojamas VR, jau įtrauktas į VRWorks paketą ir naudoja kelių projektavimo galimybes, kad sumažintų geometrinio darbo, reikalingo VR atvaizdavimui, kiekį. Kai naudojama ši funkcija, „GeForce GTX 1080 GPU“ scenos geometriją apdoroja tik vieną kartą, generuodamas po dvi projekcijas kiekvienai akiai vienu metu, o tai perpus sumažina GPU geometrinę apkrovą, taip pat sumažina nuostolius dėl tvarkyklės ir OS veikimo.

Dar pažangesnis VR atvaizdavimo efektyvumo didinimo metodas yra Lens Matched Shading, kuris naudoja kelias projekcijas, kad imituotų geometrinius iškraipymus, reikalingus VR atvaizdavimui. Šis metodas naudoja daugialypį projekciją, kad 3D scena būtų atvaizduojama ant paviršiaus, kuris apytiksliai atitinka objektyvo pataisytą atvaizdavimą VR ausinių atvaizdavimui, išvengiant daugybės papildomų vaizdo elementų, kurie bus atmesti, periferijoje. Metodo esmę lengviausia suprasti iš iliustracijos – prieš kiekvieną akį naudojamos keturios šiek tiek išplėstos projekcijos (Paskalyje galite naudoti 16 projekcijų kiekvienai akiai – tikslesnei lenkto lęšio imitacijai). vienas:

Šis metodas gali žymiai sutaupyti našumą. Taigi, tipiškas „Oculus Rift“ vaizdas kiekvienai akiai yra 1,1 megapikselio. Tačiau dėl projekcijų skirtumo jam atvaizduoti naudojamas 2,1 megapikselio šaltinio vaizdas – 86% didesnis nei būtina! Kelių projektavimo, įdiegto Pascal architektūroje, naudojimas leidžia sumažinti pateikiamo vaizdo skiriamąją gebą iki 1,4 megapikselio, sutaupant pusantro karto pikselių apdorojimo greitį, taip pat taupo atminties pralaidumą.

Ir kartu su dvigubu geometrijos apdorojimo greičio sutaupymu dėl vieno žingsnio stereo atvaizdavimo, „GeForce GTX 1080“ vaizdo plokštė gali žymiai padidinti VR atvaizdavimo našumą, o tai labai reikalauja tiek geometrijos apdorojimo greičio, tiek net labiau pikselių apdorojime.

Vaizdo išvesties ir apdorojimo blokų patobulinimai

Be našumo ir naujų funkcijų, susijusių su 3D atvaizdavimu, būtina išlaikyti gerą vaizdo išvesties galimybių lygį, taip pat vaizdo dekodavimą ir kodavimą. Ir pirmasis Pascal architektūros GPU nenuvylė – palaiko visus šiuolaikinius standartus šia prasme, įskaitant HEVC formato aparatinį dekodavimą, reikalingą 4K vaizdo įrašams žiūrėti kompiuteryje. Taip pat būsimi GeForce GTX 1080 vaizdo plokščių savininkai savo sistemose galės mėgautis 4K vaizdo transliacija iš „Netflix“ ir kitų tiekėjų.

Kalbant apie ekrano išvestį, „GeForce GTX 1080“ palaiko HDMI 2.0b su HDCP 2.2, taip pat „DisplayPort“. Kol kas DP 1.2 versija buvo sertifikuota, tačiau GPU yra paruoštas sertifikuoti naujesnėms standarto versijoms: DP 1.3 Ready ir DP 1.4 Ready. Pastarasis leidžia 4K ekranus išvesti 120 Hz atnaujinimo dažniu, o 5K ir 8K ekranus – 60 Hz, naudojant porą DisplayPort 1.3 laidų. Jei GTX 980 maksimali palaikoma skiriamoji geba buvo 5120x3200 esant 60 Hz, tai naujajam GTX 1080 modeliui ji padidėjo iki 7680x4320 esant 60 Hz. Referencinis „GeForce GTX 1080“ turi tris „DisplayPort“ išvestis, vieną HDMI 2.0b ir vieną skaitmeninį „Dual-Link“ DVI.

Naujasis Nvidia vaizdo plokštės modelis taip pat gavo patobulintą vaizdo duomenų dekodavimo ir kodavimo įrenginį. Taigi, GP104 lustas atitinka aukštus PlayReady 3.0 (SL3000) standartus, skirtus vaizdo transliacijos atkūrimui, todėl galite būti tikri, kad kokybiško turinio iš patikimų tiekėjų, tokių kaip „Netflix“, atkūrimas bus kiek įmanoma kokybiškesnis ir efektyvesnis. Išsami informacija apie įvairių vaizdo formatų palaikymą kodavimo ir dekodavimo metu pateikta lentelėje; naujasis produktas aiškiai skiriasi nuo ankstesnių sprendimų:

Tačiau dar įdomesnė nauja funkcija yra vadinamųjų didelio dinaminio diapazono (HDR) ekranų palaikymas, kurie netrukus bus plačiai paplitę rinkoje. 2016 metais jau parduodami televizoriai (o tik per vienerius metus tikimasi parduoti keturis milijonus HDR televizorių), o kitais metais – monitoriai. HDR yra didžiausias per pastaruosius metus ekrano technologijos proveržis, šis formatas suteikia dvigubai daugiau spalvų tonų (75 % matomo spektro, palyginti su 33 % RGB), ryškesnius ekranus (1000 nitų) su didesniu kontrastu (10 000:1) ir sodrios spalvos.

Atsiradus galimybei atkurti turinį su didesniu ryškumo skirtumu ir sodresnėmis bei sodresnėmis spalvomis vaizdas ekrane bus priartintas prie tikrovės, juoda spalva taps gilesnė, o ryški šviesa akins, kaip ir realiame pasaulyje. Atitinkamai, vartotojai matys daugiau detalių šviesiose ir tamsiose vaizdų srityse, palyginti su standartiniais monitoriais ir televizoriais.

Kad palaikytų HDR ekranus, GeForce GTX 1080 turi viską, ko reikia – galimybę išvesti 12 bitų spalvas, palaikyti BT.2020 ir SMPTE 2084 standartus, taip pat išvestis pagal HDMI 2.0b 10/12 bitų. 4K raiškos HDR standartas, kaip buvo ir Maxwell atveju. Be to, Pascal dabar palaiko HEVC formato dekodavimą 4K raiška 60 Hz dažniu ir 10 arba 12 bitų spalva, kuri naudojama HDR vaizdo įrašams, taip pat to paties formato su tais pačiais parametrais kodavimą, bet tik 10 -bitas skirtas HDR vaizdo įrašymui arba srautiniam perdavimui. Naujasis produktas taip pat paruoštas standartizuoti „DisplayPort 1.4“, skirtą HDR duomenims perduoti per šią jungtį.

Beje, ateityje gali prireikti HDR vaizdo kodavimo norint tokius duomenis perkelti iš namų kompiuterio į SHIELD žaidimų konsolę, galinčią žaisti 10 bitų HEVC. Tai yra, vartotojas galės transliuoti žaidimą iš kompiuterio HDR formatu. Palaukite, kur galėčiau gauti žaidimų su tokiu palaikymu? „Nvidia“ nuolat bendradarbiauja su žaidimų kūrėjais, kad įgyvendintų šį palaikymą, suteikdama jiems viską, ko reikia (tvarkyklių palaikymą, kodų pavyzdžius ir t. t.), kad HDR vaizdai būtų suderinami su esamais ekranais.

Vaizdo plokštės „GeForce GTX 1080“ išleidimo metu tokie žaidimai kaip „Obduction“, „The Witness“, „Lawbreakers“, „Rise of the Tomb Raider“, „Paragon“, „The Talos Principle“ ir „Shadow Warrior 2“ palaiko HDR išvestį. Tačiau artimiausiu metu šis sąrašas tikimasi papildyti .

SLI kelių lustų atvaizdavimo pakeitimai

Taip pat buvo keletas pakeitimų, susijusių su patentuota SLI kelių lustų atvaizdavimo technologija, nors niekas to nesitikėjo. SLI naudoja kompiuterinių žaidimų entuziastai, kad padidintų našumą iki ekstremalių lygių, kartu suporuodami galingas vieno lusto vaizdo plokštes, arba kad pasiektų labai aukštą kadrų dažnį apsiribodami keliais vidutinės klasės sprendimais, kurie kartais yra pigesni nei vienas geriausias. -pabaiga (Sprendimas prieštaringas, bet jie tai daro taip). Turėdami 4K monitorius, žaidėjai beveik neturi kitų galimybių, išskyrus poros vaizdo plokščių įdiegimą, nes net ir geriausi modeliai tokiomis sąlygomis dažnai negali užtikrinti patogaus žaidimo maksimaliais nustatymais.

Vienas iš svarbių Nvidia SLI komponentų yra tiltai, jungiantys vaizdo plokštes į bendrą vaizdo posistemį ir padedantys organizuoti skaitmeninį duomenų perdavimo tarp jų kanalą. „GeForce“ vaizdo plokštės tradiciškai turėjo dvigubas SLI jungtis, kuriomis buvo galima sujungti dvi ar keturias vaizdo plokštes 3 krypčių ir 4 krypčių SLI konfigūracijose. Kiekviena vaizdo plokštė turėjo prisijungti prie kiekvienos, nes visi GPU siuntė kadrus, kuriuos jie pateikė pagrindiniam GPU, todėl kiekvienoje plokštėje reikėjo dviejų sąsajų.

Pradedant nuo „GeForce GTX 1080“, visos „Nvidia“ vaizdo plokštės, pagrįstos „Pascal“ architektūra, susieja dvi SLI sąsajas, kad pagerintų perdavimo tarp GPU našumą, o šis naujasis dvigubo ryšio SLI režimas pagerina našumą ir vizualinę patirtį labai didelės raiškos ekranuose. kelių monitorių sistemos.

Šiam režimui taip pat reikėjo naujų tiltų, vadinamų SLI HB. Jie sujungia porą GeForce GTX 1080 vaizdo plokščių vienu metu per du SLI kanalus, nors naujosios vaizdo plokštės yra suderinamos ir su senesniais tiltais. Jei norite gauti 1920 × 1080 ir 2560 × 1440 pikselių skiriamąją gebą su 60 Hz atnaujinimo dažniu, galite naudoti standartinius tiltus, tačiau sudėtingesniais režimais (4K, 5K ir kelių monitorių sistemose) geriausius rezultatus suteiks tik nauji tilteliai. rėmo lygumo atžvilgiu, nors senieji tiks, bet kiek prasčiau.

Be to, naudojant SLI HB tiltus, GeForce GTX 1080 duomenų perdavimo sąsaja veikia 650 MHz dažniu, palyginti su 400 MHz įprastų SLI tiltų senesniuose GPU. Be to, kai kuriems seniems standiesiems tiltams, naudojant Pascal architektūros vaizdo lustus, galimas ir didesnis duomenų perdavimo dažnis. Padidėjus duomenų perdavimo spartai tarp GPU per dvigubą SLI sąsają su padidintu veikimo dažniu, užtikrinamas sklandesnis kadrų išvestis ekrane, lyginant su ankstesniais sprendimais:

Taip pat reikėtų pažymėti, kad kelių lustų atvaizdavimo palaikymas „DirectX 12“ šiek tiek skiriasi nuo to, kas buvo įprasta anksčiau. Naujausioje grafikos API versijoje „Microsoft“ padarė daug pakeitimų, susijusių su tokių vaizdo sistemų veikimu. Programinės įrangos kūrėjams DX12 siūlo dvi galimybes naudoti kelis GPU: kelių ekranų adapterio (MDA) ir susieto ekrano adapterio (LDA) režimus.

Be to, LDA režimas turi dvi formas: numanomą LDA (kurią Nvidia naudoja SLI) ir aiškią LDA (kai žaidimo kūrėjas imasi užduoties valdyti kelių lustų atvaizdavimą. MDA ir Explicit LDA režimai buvo įtraukti į DirectX 12. kad žaidimų kūrėjai turėtų daugiau laisvės ir galimybių naudojant kelių lustų vaizdo sistemas. Skirtumas tarp režimų aiškiai matomas šioje lentelėje:

LDA režimu kiekvieno GPU atmintis gali būti susieta su kito atmintimi ir rodoma kaip didelė bendra apimtis, žinoma, su visais našumo apribojimais, kai duomenys paimami iš „svetimos“ atminties. MDA režimu kiekvieno GPU atmintis veikia atskirai, o skirtingi GPU negali tiesiogiai pasiekti duomenų iš kito GPU atminties. LDA režimas skirtas panašaus našumo kelių lustų sistemoms, o MDA režimas turi mažiau apribojimų ir gali veikti kartu tarp atskirų ir integruotų GPU arba atskirų sprendimų su skirtingų gamintojų lustais. Tačiau šis režimas taip pat reikalauja daugiau mąstymo ir darbo iš kūrėjų programuojant dirbti kartu, kad GPU galėtų bendrauti vienas su kitu.

Pagal numatytuosius nustatymus SLI sistema, pagrįsta „GeForce GTX 1080“ plokštėmis, palaiko tik du GPU, o trijų ir keturių lustų konfigūracijos oficialiai nerekomenduojamos naudoti, nes šiuolaikiniuose žaidimuose tampa vis sunkiau užtikrinti našumo padidėjimą pridedant trečią ir ketvirtasis GPU. Pavyzdžiui, daugelis žaidimų remiasi sistemos centrinio procesoriaus galimybėmis valdant kelių lustų vaizdo sistemas; naujuose žaidimuose taip pat vis dažniau naudojami laikini metodai, naudojantys duomenis iš ankstesnių kadrų, kuriuose efektyvus kelių GPU veikimas vienu metu yra tiesiog neįmanomas.

Tačiau sistemų veikimas kitose (ne SLI) kelių lustų sistemose išlieka įmanomas, pavyzdžiui, MDA arba LDA Explicit režimai „DirectX 12“ arba dviejų lustų SLI sistema su specialiu trečiuoju GPU, skirtu „PhysX“ fiziniams efektams. O kaip dėl etalonų rekordų? Ar tikrai „Nvidia“ jų visiškai atsisako? Žinoma, ne, bet kadangi pasaulyje tokios sistemos paklausios kone nedaugelio vartotojų, tokiems itin entuziastams jie sugalvojo specialų Enthusiast Key, kurį galima atsisiųsti iš Nvidia svetainės ir atrakinti šią funkciją. Norėdami tai padaryti, pirmiausia turite gauti unikalų GPU identifikatorių paleisdami specialią programą, tada paprašyti entuziasto rakto svetainėje ir jį atsisiuntę įdiegti raktą į sistemą, taip atrakinant 3 krypčių ir 4 krypčių SLI konfigūracijas. .

Greito sinchronizavimo technologija

Kai kurie pakeitimai įvyko sinchronizavimo technologijose, kai rodoma informacija. Žvelgiant į ateitį, „G-Sync“ neatsirado nieko naujo, taip pat nepalaikoma „Adaptive Sync“ technologija. Tačiau „Nvidia“ nusprendė pagerinti išvesties sklandumą ir sinchronizavimą žaidimams, kurie rodo labai didelį našumą, kai kadrų dažnis yra pastebimai didesnis nei monitoriaus atnaujinimo dažnis. Tai ypač svarbu žaidimams, kuriems reikalinga minimali delsa ir greitas atsakas ir kuriuose vyksta kelių žaidėjų mūšiai bei varžybos.

Greitas sinchronizavimas yra nauja vertikaliojo sinchronizavimo alternatyva, kuri neturi vaizdinių artefaktų, pvz., vaizdo plyšimo, ir nėra susieta su fiksuotu atnaujinimo dažniu, o tai padidina delsą. Kokia yra „Vsync“ problema tokiuose žaidimuose kaip „Counter-Strike: Global Offensive“? Šis žaidimas veikia kelių šimtų kadrų per sekundę greičiu galinguose šiuolaikiniuose GPU, o žaidėjas gali pasirinkti, ar įjungti V sinchronizavimą, ar ne.

Daugelio žaidėjų žaidimuose vartotojai dažniausiai siekia minimalaus delsos ir išjungia VSync, dėl to aiškiai matomas vaizdo plyšimas, o tai itin nemalonu net esant dideliam kadrų dažniui. Jei įjungsite vertikalią sinchronizaciją, žaidėjas patirs reikšmingą delsą tarp savo veiksmų ir vaizdo ekrane, kai grafikos vamzdynas sulėtės iki monitoriaus atnaujinimo dažnio.

Taip veikia tradicinis konvejeris. Tačiau „Nvidia“ nusprendė atskirti vaizdų atvaizdavimo ir rodymo ekrane procesą naudojant „Fast Sync“ technologiją. Tai leidžia GPU daliai, kuri atkuria kadrus, toliau kuo efektyviau dirbti visu greičiu, saugodama tuos kadrus specialiame laikinajame buferyje – paskutiniame atvaizdavimo buferyje.

Šis metodas leidžia pakeisti ekrano rodymo būdą ir išnaudoti geriausius „VSync On“ ir „VSync Off“ režimus, kad būtų pasiektas mažas delsos laikas, bet nėra vaizdo artefaktų. Naudojant Fast Sync nėra kadrų srauto valdymo, žaidimo variklis veikia sinchronizavimo išjungtu režimu ir jam nėra liepta laukti, kol bus pateiktas kitas, todėl delsos yra beveik tokios pat mažos, kaip ir naudojant „VSync Off“ režimą. Tačiau kadangi „Fast Sync“ savarankiškai pasirenka buferį, skirtą išvesties į ekraną, ir rodo visą kadrą, vaizdo pertraukų nėra.

Greitasis sinchronizavimas naudoja tris skirtingus buferius, iš kurių pirmieji du veikia panašiai kaip dvigubas buferis klasikiniame dujotiekyje. Pirminis buferis (Front Buffer – FB) yra buferis, iš kurio informacija rodoma ekrane, pilnai atvaizduotas kadras. Antrinis buferis (Back Buffer – BB) yra buferis, kuris gauna informaciją atvaizdavimo metu.

Kai naudojamas vertikalus sinchronizavimas dideliu kadrų dažniu, žaidimas laukia, kol bus pasiektas atnaujinimo intervalas, kad pakeistų pirminį buferį su antriniu buferiu, kad ekrane būtų rodomas visas kadras. Tai sulėtina procesą, o papildomų buferių, pvz., tradicinio trigubo buferio, pridėjimas tik padidins delsą.

Naudojant greitąjį sinchronizavimą, pridedamas trečiasis buferis – paskutinis atvaizduotas buferis (LRB), kuris naudojamas visiems ką tik atvaizduotiems kadrams saugoti antriniame buferyje. Buferio pavadinimas kalba pats už save; jame yra paskutinio visiškai atvaizduoto kadro kopija. Ir kai ateina laikas atnaujinti pirminį buferį, šis LRB buferis nukopijuojamas į pirminį kaip visumą, o ne dalimis, kaip iš antrinio, kai vertikalioji sinchronizacija išjungta. Kadangi informacijos kopijavimas iš buferių yra neefektyvus, jie tiesiog sukeičiami (arba pervadinami, kaip bus patogiau suprasti), o nauja buferių keitimo logika, atsiradusi GP104, valdo šį procesą.

Praktiškai įjungus naują sinchronizavimo metodą Greitas sinchronizavimas vis tiek suteikia šiek tiek didesnį delsą, palyginti su visiško vertikalios sinchronizacijos išjungimu – vidutiniškai 8 ms daugiau, tačiau monitoriuje rodomi visi kadrai, be nemalonių artefaktų ekrane, kurie drasko vaizdas. Naująjį metodą galima įjungti iš Nvidia valdymo pulto grafinių nustatymų, esančių Vsync valdymo skyriuje. Tačiau numatytoji reikšmė išlieka programų valdymas ir tiesiog nereikia įjungti greito sinchronizavimo visose 3D programose, geriau pasirinkti šį metodą, skirtą žaidimams su dideliu FPS.

Virtualios realybės technologijos Nvidia VRWorks

Straipsnyje jau ne kartą palietėme aktualią virtualios realybės temą, tačiau daugiausiai kalbėjome apie VR labai svarbius kadrų dažnio didinimą ir mažo delsos užtikrinimą. Visa tai labai svarbu ir tikrai daroma pažanga, tačiau kol kas VR žaidimai neatrodo taip įspūdingai kaip geriausi „įprasti“ šiuolaikiniai 3D žaidimai. Taip atsitinka ne tik todėl, kad pirmaujantys žaidimų kūrėjai dar nėra ypač įsitraukę į VR programas, bet ir dėl to, kad VR yra reiklesnis kadrų dažniui, o tai neleidžia tokiuose žaidimuose naudoti daugelio įprastų technikų dėl didelių reikalavimų.

Siekdama sumažinti VR žaidimų ir įprastų žaidimų kokybės skirtumą, „Nvidia“ nusprendė išleisti visą paketą atitinkamų „VRWorks“ technologijų, į kurias įtraukta daug API, bibliotekų, variklių ir technologijų, galinčių žymiai pagerinti žaidimo kokybę ir našumą. VR žaidimai, programos. Kaip tai susiję su pranešimu apie pirmąjį žaidimų sprendimą, pagrįstą Pascal? Tai labai paprasta – į jį buvo įdiegtos kai kurios technologijos, padedančios padidinti produktyvumą ir pagerinti kokybę, ir apie jas jau rašėme.

Ir nors šis klausimas susijęs ne tik su grafika, pirmiausia mes šiek tiek pakalbėsime apie tai. Į VRWorks Graphics technologijų rinkinį įtrauktos jau anksčiau minėtos technologijos, tokios kaip Lens Matched Shading, kuri naudoja kelių projekcijų funkciją, pasirodžiusią GeForce GTX 1080. Naujasis produktas leidžia 1,5-2 kartus padidinti našumą, lyginant su sprendimais. kurios tokios paramos neturi. Taip pat paminėjome kitas technologijas, tokias kaip „MultiRes Shading“, skirtą atvaizduoti skirtingomis raiškomis kadro centre ir jo periferijoje.

Tačiau daug netikėčiau buvo paskelbta apie VRWorks Audio technologiją, skirtą kokybiškam garso duomenų apdorojimui 3D scenose, o tai ypač svarbu virtualios realybės sistemose. Įprastuose varikliuose garso šaltinių padėtis virtualioje aplinkoje apskaičiuojama gana teisingai, jei priešas šaudo iš dešinės, tai iš tos garso sistemos pusės garsas yra stipresnis, o toks skaičiavimas nereikalauja per daug skaičiavimo galios. .

Tačiau iš tikrųjų garsai patenka ne tik į grotuvą, bet į visas puses ir atsispindi nuo įvairių medžiagų, panašiai kaip atsispindi šviesos spinduliai. Ir iš tikrųjų mes girdime šiuos atspindžius, nors ir ne taip aiškiai, kaip tiesiogines garso bangas. Šie netiesioginiai garso atspindžiai dažniausiai imituojami specialiais reverb efektais, tačiau tai labai primityvus požiūris į užduotį.

„VRWorks Audio“ naudoja garso bangų atvaizdavimą, panašų į spindulių sekimą, kai šviesos spindulių kelias atsekamas iki daugybės atspindžių nuo objektų virtualioje scenoje. VRWorks Audio taip pat imituoja garso bangų sklidimą aplinkoje, sekdamas tiesiogines ir atspindėtas bangas, priklausomai nuo jų kritimo kampo ir atspindinčių medžiagų savybių. Savo darbe VRWorks Audio naudoja didelio našumo Nvidia OptiX variklį, žinomą dėl grafikos užduočių, skirtą spindulių sekimui. „OptiX“ galima naudoti atliekant įvairias užduotis, pavyzdžiui, apskaičiuojant netiesioginį apšvietimą ir ruošiant šviesos žemėlapius, o dabar – ir garso bangų sekimui „VRWorks Audio“.

„Nvidia“ įdiegė tikslius garso bangų skaičiavimus savo „VR Funhouse“ demonstracijoje, kuri naudoja kelis tūkstančius spindulių ir apskaičiuoja iki 12 objektų atspindžių. O norint suprasti technologijos pranašumus pasitelkiant aiškų pavyzdį, kviečiame žiūrėti vaizdo įrašą apie technologijos veikimą rusų kalba:

Svarbu, kad Nvidia požiūris skirtųsi nuo tradicinių garso variklių, įskaitant aparatinę įrangą, pagreitintą naudojant specialų bloką GPU metodu nuo pagrindinio konkurento. Visi šie metodai suteikia tik tikslią garso šaltinių padėtį, tačiau neapskaičiuoja garso bangų atspindžio nuo objektų 3D scenoje, nors jie gali tai imituoti naudodami aidėjimo efektą. Visgi, naudojant spindulių sekimo technologiją galima daug realiau, nes tik tokiu būdu bus galima tiksliai imituoti įvairius garsus, atsižvelgiant į objektų dydį, formą ir medžiagas scenoje. Sunku pasakyti, ar toks skaičiavimo tikslumas reikalingas įprastam žaidėjui, tačiau viena yra aišku: VR jis gali pridėti vartotojams to tikroviškumo, kurio vis dar trūksta įprastuose žaidimuose.

Na, belieka kalbėti apie VR SLI technologiją, kuri veikia ir OpenGL, ir DirectX. Jo principas itin paprastas: dviejų procesorių vaizdo sistema VR programoje veiks taip, kad kiekvienai akiai būtų skiriamas atskiras GPU, priešingai nei AFR atvaizdavimas, kuris įprastas SLI konfigūracijoms. Tai žymiai pagerina bendrą našumą, o tai labai svarbu virtualios realybės sistemoms. Teoriškai galima naudoti daugiau GPU, tačiau jų skaičius turi būti lygus.

Šis metodas buvo reikalingas, nes AFR nėra gerai pritaikytas VR, nes jo pagalba pirmasis GPU nubraižys lygų kadrą abiem akims, o antrasis - nelyginį, o tai nesumažina delsos, kuri yra labai svarbi virtualios realybės sistemoms. . Nors kadrų dažnis bus gana didelis. Taigi, naudojant VR SLI, darbas su kiekvienu kadru yra padalintas į du GPU – vienas veikia dalį kadro kairiajai akiai, antrasis – dešinei, o tada šios kadro pusės sujungiamos į visumą.

Dėl šio darbo pasidalijimo tarp poros GPU pasiekiamas beveik 2 kartus didesnis našumas, o tai leidžia pasiekti didesnį kadrų dažnį ir mažesnį delsą nei vieno GPU sistemos. Tačiau norint naudoti VR SLI, norint naudoti šį mastelio keitimo metodą, reikalingas specialus programos palaikymas. Tačiau VR SLI technologija jau yra integruota į tokias VR demonstracines programas kaip „Valve's The Lab“ ir „ILMxLAB's Trials on Tatooine“, ir tai tik pradžia – „Nvidia“ žada, kad netrukus pasirodys kitos programos, taip pat technologijos įdiegimas žaidimų varikliuose „Unreal Engine 4“. , Unity ir MaxPlay.

Ansel žaidimų ekrano kopijų platforma

Vienas iš įdomiausių pranešimų, susijusių su programine įranga, buvo aukštos kokybės ekrano kopijų fiksavimo žaidimų programose technologijos išleidimas, pavadintas vieno garsaus fotografo Ansel vardu. Žaidimai jau seniai tapo ne tik žaidimais, bet ir žaismingų rankų panaudojimo vieta įvairioms kūrybingoms asmenybėms. Kai kurie žmonės keičia žaidimų scenarijus, kai kurie išleidžia aukštos kokybės žaidimų tekstūrų rinkinius, o kiti daro gražias ekrano kopijas.

„Nvidia“ nusprendė padėti pastariesiems, pristatydama naują platformą aukštos kokybės vaizdams iš žaidimų kurti (ir kurti, nes tai nėra toks paprastas procesas). Jie tiki, kad Ansel gali padėti sukurti naują šiuolaikinio meno rūšį. Galų gale, jau yra nemažai menininkų, kurie didžiąją gyvenimo dalį praleidžia prie kompiuterio, kurdami gražias ekrano kopijas iš žaidimų, ir jie vis tiek neturėjo tam patogaus įrankio.

Ansel leidžia ne tik užfiksuoti vaizdą žaidime, bet ir keisti jį taip, kaip reikia kūrėjui. Naudodami šią technologiją galite perkelti kamerą aplink sceną, pasukti ir pakreipti ją bet kuria kryptimi, kad gautumėte norimą kadro kompoziciją. Pavyzdžiui, žaidimuose, tokiuose kaip pirmojo asmens šaudyklės, galite tik perkelti grotuvą, nieko kito tikrai negalite pakeisti, todėl visos ekrano nuotraukos pasirodo gana monotoniškos. Naudodami nemokamą Ansel kamerą galite peržengti žaidimo kameros ribas, pasirinkdami sėkmingam vaizdui reikalingą kampą arba net užfiksuoti visą 360 laipsnių stereo vaizdą iš norimo taško ir didelės raiškos vėliau žiūrima su VR šalmu.

Ansel veikia gana paprastai – naudojant specialią „Nvidia“ biblioteką, ši platforma yra įdiegta į žaidimo kodą. Norėdami tai padaryti, jo kūrėjui tereikia pridėti nedidelę kodo dalį prie savo projekto, kad „Nvidia“ vaizdo tvarkyklė galėtų perimti buferio ir atspalvio duomenis. Darbo reikia labai mažai; norint įdiegti Ansel į žaidimą, reikia mažiau nei vienos dienos. Taigi, norint įjungti šią funkciją „The Witness“ prireikė apie 40 kodo eilučių, o „The Witcher 3“ – apie 150 kodo eilučių.

„Ansel“ bus su atvirojo kodo SDK. Svarbiausia, kad vartotojas su juo gautų standartinį nustatymų rinkinį, leidžiantį keisti kameros padėtį ir kampą, pridėti efektų ir pan. Ansel platforma veikia taip: pristabdo žaidimą, įjungia nemokamą kamerą ir leidžia keisti kadrą į norimą vaizdą, rezultatą įrašant įprastos ekrano kopijos, 360 laipsnių vaizdo, stereo poros ar tiesiog didžiulės raiškos panoramos pavidalu.

Vienintelis įspėjimas yra tas, kad ne visi žaidimai palaikys visas Ansel žaidimų ekrano kopijų platformos funkcijas. Kai kurie žaidimų kūrėjai dėl vienokių ar kitokių priežasčių nenori įjungti visiškai nemokamos kameros savo žaidimuose – pavyzdžiui, dėl galimybės, kad sukčiai naudojasi šia funkcija. Arba jie nori apriboti žiūrėjimo kampo pasikeitimą dėl tos pačios priežasties – kad niekas negautų nesąžiningo pranašumo. Na, arba tam, kad vartotojai nematytų prastų spraitų fone. Visa tai yra visiškai normalūs žaidimų kūrėjų norai.

Viena įdomiausių Ansel savybių yra tiesiog didžiulės raiškos ekrano kopijų kūrimas. Nesvarbu, kad žaidimas palaiko, pavyzdžiui, iki 4K skiriamąją gebą, o vartotojo monitorius yra Full HD. Naudodami ekrano kopijų platformą galite užfiksuoti daug aukštesnės kokybės vaizdą, kurį riboja disko talpa ir našumas. Platforma lengvai fiksuoja ekrano kopijas iki 4,5 gigapikselių raiškos, sujungdama jas iš 3600 vienetų!

Akivaizdu, kad tokiose nuotraukose matosi visos detalės, iki pat teksto ant tolumoje gulinčių laikraščių, jei toks detalumo lygis iš principo numatytas žaidime – Ansel taip pat gali valdyti detalumo lygį, nustatykite maksimalų lygį, kad gautumėte geriausią vaizdo kokybę. Bet taip pat galite įjungti supersampling. Visa tai leidžia kurti vaizdus iš žaidimų, kuriuos galite saugiai spausdinti ant didelių reklamjuosčių ir būti tikri dėl jų kokybės.

Įdomu tai, kad dideliems vaizdams susiūti naudojamas specialus aparatinės įrangos pagreitintas kodas, pagrįstas CUDA. Juk jokia vaizdo plokštė negali atvaizduoti kelių gigapikselių vaizdo kaip visumos, o gali tai padaryti gabalais, kuriuos vėliau tiesiog reikia derinti, atsižvelgiant į galimus apšvietimo, spalvų skirtumus ir pan.

Po tokių panoramų susiuvimo, visam kadrui naudojamas specialus tolesnis apdorojimas, taip pat pagreitintas GPU. O norėdami užfiksuoti vaizdus su padidintu dinaminiu diapazonu, galite naudoti specialų vaizdo formatą – EXR, atvirą standartą iš Industrial Light and Magic, kurio spalvų reikšmės įrašomos 16 bitų slankiojo kablelio formatu (FP16) kiekvienas kanalas.

Šis formatas leidžia keisti vaizdo ryškumą ir dinaminį diapazoną atliekant papildomą apdorojimą, priartinant jį iki norimo lygio kiekvienam konkrečiam ekranui, kaip tai daroma naudojant RAW formatus iš fotoaparatų. Ir vėlesniam tolesnio apdorojimo filtrų naudojimui vaizdo apdorojimo programose šis formatas yra labai naudingas, nes jame yra daug daugiau duomenų nei įprastuose vaizdo formatuose.

Tačiau pačioje Ansel platformoje yra daug papildomo apdorojimo filtrų, o tai ypač svarbu, nes turi prieigą ne tik prie galutinio vaizdo, bet ir prie visų žaidimo naudojamų buferių atvaizduojant, kuriuos galima panaudoti labai įdomiems efektams. , kaip lauko gylis. Tam „Ansel“ turi specialią papildomo apdorojimo API, o bet kuris efektas gali būti įtrauktas į žaidimą, kuris palaiko šią platformą.

Ansel post filtrai apima šiuos filtrus: spalvų kreives, spalvų erdvę, transformaciją, desaturaciją, ryškumą / kontrastą, plėvelės grūdėtumą, žydėjimą, objektyvo blyksnį, anamorfinį blizgesį, iškraipymą, karščio efektą, žuvies akis, spalvų aberaciją, tonų atvaizdavimą, objektyvo nešvarumus, šviesos velenus, vinjetė, gama korekcija, konvoliucija, ryškinimas, kraštų aptikimas, suliejimas, sepija, triukšmas, FXAA ir kt.

Kalbant apie Ansel palaikymo atsiradimą žaidimuose, turėsite šiek tiek palaukti, kol kūrėjai jį įdiegs ir išbandys. Tačiau „Nvidia“ žada greitą tokio palaikymo pasirodymą tokiuose garsiuose žaidimuose kaip „The Division“, „The Witness“, „Lawbreakers“, „The Witcher 3“, „Paragon“, „Fortnite“, „Obduction“, „No Man's Sky“, „Unreal Tournament“ ir kituose.

Naujas 16 nm FinFET technologinis procesas ir architektūros optimizavimas leido GeForce GTX 1080 vaizdo plokštei, paremtai GP104 grafikos procesoriumi, net ir etaloninėje formoje pasiekti aukštą 1,6-1,7 GHz taktinį dažnį, o naujoji karta garantuoja veikimą aukščiausi galimi žaidimų dažniai GPU Boost technologija. Kartu su padidėjusiu vykdymo vienetų skaičiumi dėl šių patobulinimų naujasis produktas tapo ne tik visų laikų našiausiu vieno lusto vaizdo plokšte, bet ir efektyviausiu energiją taupančiu sprendimu rinkoje.

GeForce GTX 1080 modelis tapo pirmąja vaizdo plokšte su naujo tipo grafine atmintimi GDDR5X – naujos kartos didelės spartos lustais, kurie leido pasiekti labai didelius duomenų perdavimo greičius. GeForce GTX 1080 modifikacijos atveju šio tipo atmintis veikia efektyviu 10 GHz dažniu. Kartu su patobulintais informacijos glaudinimo algoritmais kadrų buferyje, tai padidino efektyvų šio grafikos procesoriaus atminties pralaidumą 1,7 karto, palyginti su jo tiesioginiu pirmtaku GeForce GTX 980.

„Nvidia“ išmintingai nusprendė neišleisti visiškai naujos architektūros visiškai naujame technologiniame procese, kad nesusidurtų su nereikalingomis problemomis kuriant ir gaminant. Vietoj to, jie rimtai patobulino ir taip gerą ir labai efektyvią Maxwell architektūrą, pridėdami keletą funkcijų. Dėl to su naujų GPU gamyba viskas gerai, o GeForce GTX 1080 modelio atveju inžinieriai pasiekė labai aukštą dažnio potencialą – partnerių overclocked versijose laukiami GPU dažniai iki 2 GHz! Toks įspūdingas dažnis tapo įmanomas dėl tobulo techninio proceso ir kruopštaus Nvidia inžinierių darbo kuriant Pascal GPU.

Ir nors Pascal tapo tiesioginiu Maxwell įpėdiniu ir šios grafikos architektūros iš esmės labai nesiskiria viena nuo kitos, „Nvidia“ įdiegė daug pakeitimų ir patobulinimų, įskaitant galimybę rodyti vaizdus ekranuose, vaizdo kodavimo ir dekodavimo variklį bei patobulintą asinchroninį įvairių tipų skaičiavimų vykdymas GPU, atliko kelių lustų atvaizdavimo pakeitimus ir pristatė naują sinchronizavimo metodą Fast Sync.

Neįmanoma neišskirti kelių projekcijų technologijos Simultaneous Multi-Projection, kuri padeda pagerinti virtualios realybės sistemų našumą, gauti teisingesnį scenų atvaizdavimą kelių monitorių sistemose ir diegti naujus našumo optimizavimo būdus. Tačiau VR programos greičiausiai padidins greitį, kai palaikys kelių projektavimo technologiją, kuri padeda sutaupyti GPU išteklių per pusę apdorojant geometrinius duomenis ir pusantro karto atliekant skaičiavimus po pikselius.

Iš grynai programinių pakeitimų išsiskiria žaidimų ekrano kopijų kūrimo platforma pavadinimu Ansel – bus įdomu ją išbandyti ne tik daug žaidžiantiems, bet ir tiesiog besidomintiems kokybiška 3D grafika. Naujasis produktas leidžia pakelti ekrano kopijų kūrimo ir retušavimo meną į naują lygį. Na, o „Nvidia“ tiesiog žingsnis po žingsnio toliau tobulina savo paketus žaidimų kūrėjams, pvz., „GameWorks“ ir „VRWorks“ – pavyzdžiui, pastarasis turi įdomią aukštos kokybės garso apdorojimo funkciją, atsižvelgiant į daugybę garso bangų atspindžių naudojant aparatūros spindulį. sekimas.

Apskritai, tikras lyderis į rinką įžengė kaip Nvidia GeForce GTX 1080 vaizdo plokštė, turinti visas tam reikalingas savybes: didelį našumą ir platų funkcionalumą, taip pat naujų funkcijų ir algoritmų palaikymą. Pirmieji šios vaizdo plokštės pirkėjai daugelį paminėtų privalumų galės įvertinti iš karto, o kitos sprendimo galimybės atsiskleis kiek vėliau, kai atsiras platus programinės įrangos palaikymas. Svarbiausia, kad „GeForce GTX 1080“ pasirodė labai greitas ir efektyvus, ir labai tikimės, kad „Nvidia“ inžinieriams pavyko išspręsti kai kurias problemines vietas (tie patys asinchroniniai skaičiavimai).

Grafikos greitintuvas GeForce GTX 1070

ParametrasReikšmė
Lusto kodo pavadinimasGP104
Gamybos technologija16 nm FinFET
Tranzistorių skaičius7,2 mlrd
Pagrindinė sritis314 mm²
ArchitektūraSuvienodintas su daugybe įprastų procesorių, skirtų daugelio tipų duomenų srautui apdoroti: viršūnes, pikselius ir kt.
„DirectX“ techninės įrangos palaikymas„DirectX 12“ su 12_1 funkcijų lygio palaikymu
Atminties magistralė256 bitų: aštuoni nepriklausomi 32 bitų atminties valdikliai, palaikantys GDDR5 ir GDDR5X atmintį
GPU dažnis1506 (1683) MHz
Skaičiavimo blokai15 aktyvių (iš 20 mikroschemoje) srautinio perdavimo kelių procesorių, įskaitant 1920 (iš 2560) skaliarinių ALU, skirtų slankiojo kablelio skaičiavimams pagal IEEE 754-2008 standartą;
Tekstūravimo blokeliai120 aktyvių (iš 160 mikroschemoje) tekstūros adresavimo ir filtravimo vienetų su FP16 ir FP32 komponentų tekstūrų palaikymu ir visų tekstūrų formatų trilinijinio ir anizotropinio filtravimo palaikymu
Rastriniai operacijų blokai (ROP)8 platūs ROP blokai (64 pikseliai) su įvairių anti-aliasing režimų palaikymu, įskaitant programuojamus ir su FP16 arba FP32 kadrų buferio formatu. Blokai susideda iš konfigūruojamų ALU masyvo ir yra atsakingi už gylio generavimą ir palyginimą, kelių mėginių ėmimą ir maišymą.
Monitoriaus palaikymasIntegruotas palaikymas iki keturių monitorių, prijungtų per Dual Link DVI, HDMI 2.0b ir DisplayPort 1.2 (1.3/1.4 Ready) sąsajas

Referencinės vaizdo plokštės GeForce GTX 1070 specifikacijos
ParametrasReikšmė
Pagrindinis dažnis1506 (1683) MHz
Universalių procesorių skaičius1920
Tekstūros blokų skaičius120
Maišymo blokų skaičius64
Efektyvus atminties dažnis8000 (4×2000) MHz
Atminties tipasGDDR5
Atminties magistralė256 bitų
Atmintis8 GB
Atminties juostos plotis256 GB/s
Skaičiavimo našumas (FP32)apie 6,5 teraflopo
Teorinis maksimalus užpildymo greitis96 gigapikseliai/s
Teorinė tekstūros atrankos sparta181 gigatekselis/s
PadangaPCI Express 3.0
JungtysVienas Dual Link DVI, vienas HDMI ir trys DisplayPort
Energijos suvartojimasiki 150W
Papildomas maistasViena 8 kontaktų jungtis
Sistemos korpuse užimtų lizdų skaičius2
Rekomenduojama kaina379–449 USD (JAV), 34 990 (Rusija)

„GeForce GTX 1070“ vaizdo plokštė taip pat gavo logišką pavadinimą, panašų į tą patį sprendimą iš ankstesnės „GeForce“ serijos. Nuo tiesioginio pirmtako GeForce GTX 970 jis skiriasi tik pakeistu kartos numeriu. Naujas produktas dabartinėje bendrovės linijoje yra vienu laipteliu žemesnis už dabartinį aukščiausios klasės sprendimą GeForce GTX 1080, kuris tapo laikinu naujosios serijos flagmanu, kol bus išleisti dar didesnės galios GPU sprendimai.

Rekomenduojamos naujos aukščiausios klasės „Nvidia“ vaizdo plokštės kainos yra atitinkamai 379 USD ir 449 USD už įprastas „Nvidia“ partnerių versijas ir specialųjį „Founders Edition“. Palyginti su geriausiu modeliu, tai labai gera kaina, turint omenyje, kad GTX 1070 blogiausiu atveju atsilieka apie 25%. O paskelbimo ir išleidimo metu GTX 1070 tampa geriausiu našumo sprendimu savo klasėje. Kaip ir GeForce GTX 1080, GTX 1070 neturi tiesioginių AMD konkurentų ir gali būti lyginamas tik su Radeon R9 390X ir Fury.

GP104 grafikos procesorius GeForce GTX 1070 modifikacijoje nusprendė palikti visą 256 bitų atminties magistralę, nors naudojo ne naujo tipo GDDR5X atmintį, o labai greitą GDDR5, kuris veikia dideliu efektyviu 8 GHz dažniu. Vaizdo plokštėje su tokia magistrale įdiegtos atminties kiekis gali būti 4 arba 8 GB, o siekiant užtikrinti maksimalų naujojo sprendimo veikimą esant aukštiems nustatymams ir atvaizdavimo raiškoms, GeForce GTX 1070 vaizdo plokštės modelyje taip pat buvo sumontuota 8 GB vaizdo atmintį, kaip ir jos vyresnioji sesuo. Šio tūrio pakanka kelerius metus paleisti bet kokias 3D programas su maksimaliais kokybės nustatymais.

Specialusis leidimas GeForce GTX 1070 Founders Edition

Kai gegužės pradžioje buvo paskelbta apie GeForce GTX 1080, buvo paskelbta apie specialų vaizdo plokštės leidimą, pavadintą Founders Edition, kurio kaina, palyginti su įprastomis kompanijos partnerių vaizdo plokštėmis, buvo didesnė. Tas pats pasakytina ir apie naują produktą. Šiame straipsnyje vėl kalbėsime apie specialų GeForce GTX 1070 vaizdo plokštės leidimą, pavadintą Founders Edition. Kaip ir senesnio modelio atveju, „Nvidia“ nusprendė šią gamintojo referencinės vaizdo plokštės versiją išleisti už didesnę kainą. Jie teigia, kad daugelis žaidėjų ir entuziastų, perkančių aukščiausios klasės brangias vaizdo plokštes, nori, kad gaminys būtų tinkamai „premium“ išvaizda ir jausmas.

Atitinkamai, būtent tokiems vartotojams į rinką bus išleista vaizdo plokštė GeForce GTX 1070 Founders Edition, kurią Nvidia inžinieriai suprojektavo ir pagamino iš aukščiausios kokybės medžiagų ir komponentų, tokių kaip GeForce GTX 1070 Founders Edition aliuminio gaubtas, taip pat. kaip žemo profilio galinė plokštė, dengianti kitą spausdintinės plokštės pusę ir gana populiari tarp entuziastų.

Kaip matote iš plokštės nuotraukų, „GeForce GTX 1070 Founders Edition“ paveldėjo lygiai tą patį pramoninį dizainą, būdingą nuorodai „GeForce GTX 1080 Founders Edition“. Abiejuose modeliuose naudojamas radialinis ventiliatorius, kuris šildomą orą šalina į išorę, o tai labai naudinga tiek mažuose korpusuose, tiek kelių lustų SLI konfigūracijoms su ribota fizine erdve. Šildomo oro pūtimas lauke, o ne cirkuliuojant korpuso viduje, sumažina šiluminį įtampą, pagerina įsijungimo rezultatus ir pailgina sistemos komponentų tarnavimo laiką.

Po GeForce GTX 1070 etaloninės aušinimo sistemos gaubtu yra specialios formos aliuminio radiatorius su trimis įmontuotais variniais šilumos vamzdeliais, kurie šalina šilumą iš paties GPU. Šilumos vamzdžių pašalinta šiluma išsklaido aliuminio radiatoriumi. Na, o žemo profilio metalinė plokštė plokštės gale taip pat skirta geresnėms temperatūros charakteristikoms užtikrinti. Jame taip pat yra ištraukiama dalis, kad oras geriau judėtų tarp kelių SLI konfigūracijų vaizdo plokščių.

Kalbant apie plokštės maitinimo sistemą, „GeForce GTX 1070 Founders Edition“ turi keturių fazių maitinimo sistemą, optimizuotą stabiliam energijos tiekimui. „Nvidia“ teigia, kad naudojant specialius „GTX 1070 Founders Edition“ komponentus, pagerėjo energijos vartojimo efektyvumas, stabilumas ir patikimumas, palyginti su „GeForce GTX 970“, todėl užtikrinamas geresnis įsijungimo našumas. Pačios įmonės testuose GeForce GTX 1070 GPU nesunkiai viršijo 1,9 GHz dažnį, o tai artima senesnio GTX 1080 modelio rezultatams.

„Nvidia GeForce GTX 1070“ vaizdo plokštę mažmeninės prekybos parduotuvėse bus galima įsigyti nuo birželio 10 d. Rekomenduojamos GeForce GTX 1070 Founders Edition ir partnerių sprendimų kainos skiriasi, ir tai yra svarbiausias šio specialaus leidimo klausimas. Jei „Nvidia“ partneriai savo „GeForce GTX 1070“ vaizdo plokštes parduoda nuo 379 USD (JAV rinkoje), tai „Nvidia“ etaloninio dizaino „Founders Edition“ kainuos 449 USD. Ar yra daug entuziastų, norinčių permokėti už, atvirai kalbant, abejotinus referencinės versijos pranašumus? Laikas parodys, bet mes manome, kad informacinė lenta yra įdomesnė kaip galimybė įsigyti pačioje išpardavimų pradžioje, o vėliau jos įsigijimo vieta (ir net už didesnę kainą!) jau sumažinama iki nulio.

Belieka pridurti, kad etaloninės GeForce GTX 1070 spausdintinė plokštė yra panaši į senesnės vaizdo plokštės ir abi skiriasi nuo ankstesnių įmonės plokščių dizaino. Tipiškas naujojo gaminio energijos suvartojimas yra 150 W, o tai yra beveik 20 % mažiau nei GTX 1080 ir yra artimas ankstesnės kartos vaizdo plokštės GeForce GTX 970 energijos suvartojimui. Nvidia atskaitos plokštė turi pažįstamą rinkinį. jungčių, skirtų vaizdo išvesties įrenginiams prijungti: vienas Dual-Link DVI, vienas HDMI ir trys DisplayPort. Be to, palaikomos naujos HDMI ir DisplayPort versijos, apie kurias rašėme aukščiau GTX 1080 modelio apžvalgoje.

Architektūriniai pokyčiai

Vaizdo plokštė „GeForce GTX 1070“ yra pagrįsta GP104 lustu – naujos kartos „Nvidia“ Pascal grafikos architektūros pirmagimiu. Ši architektūra paremta Maxwell sukurtais sprendimais, tačiau turi ir funkcinių skirtumų, apie kuriuos išsamiai rašėme aukščiau – dalyje, skirtoje aukščiausios klasės GeForce GTX 1080 vaizdo plokštei.

Pagrindinis naujosios architektūros pokytis buvo technologinis procesas, kurio metu bus gaminami visi nauji GPU. 16 nm FinFET proceso naudojimas GP104 gamyboje leido žymiai padidinti lusto sudėtingumą išlaikant santykinai mažą plotą ir sąnaudas, o pirmasis Pascal architektūros lustas turi žymiai didesnį vykdymo vienetų skaičių, įskaitant tuos. suteikiantis naujų funkcijų, palyginti su panašaus padėties Maxwell lustais.

GP104 vaizdo lusto dizainas yra panašus į panašius Maxwell architektūros sprendimus, o išsamios informacijos apie šiuolaikinių GPU dizainą galite rasti mūsų ankstesnių Nvidia sprendimų apžvalgose. Kaip ir ankstesni GPU, naujosios architektūros lustai turės skirtingas grafikos apdorojimo klasterio (GPC), srautinio daugiaprocesoriaus (SM) ir atminties valdiklių konfigūracijas, o „GeForce GTX 1070“ jau patyrė tam tikrų pakeitimų – dalis lusto buvo užrakinta ir neaktyvi ( paryškinta pilka spalva):

Nors GP104 GPU apima keturias GPC grupes ir 20 SM kelių procesorių, „GeForce GTX 1070“ versijoje jis gavo sumažintą modifikaciją, kai viena GPC klasteris buvo išjungtas dėl aparatinės įrangos. Kadangi kiekvienas GPC klasteris turi skirtą rastrizacijos variklį ir apima penkis SM kelių procesorių, o kiekvienas daugiaprocesorius susideda iš 128 CUDA branduolių ir aštuonių TMU, šioje GP104 versijoje yra 1920 CUDA branduolių ir 120 aktyvių TMU iš 2560 srauto procesorių ir 160 fiziškai prieinamų tekstūrų blokų. .

GPU, kuriuo grindžiamas GeForce GTX 1070, turi aštuonis 32 bitų atminties valdiklius, iš viso 256 bitų atminties magistralę – lygiai tokią pat, kaip ir senesnio GTX 1080 modelio. Atminties posistemis nebuvo sumažintas, kad būtų pakankamai aprūpintas. didelio pralaidumo atmintis su sąlyga naudoti GDDR5 atmintį GeForce GTX 1070. Kiekvienas iš atminties valdiklių yra susietas su aštuoniais ROP blokais ir 256 KB antrojo lygio talpyklos, todėl šios modifikacijos GP104 lustas taip pat turi 64 ROP blokus ir 2048 KB antrojo lygio talpyklos lygio.

Dėl architektūrinio optimizavimo ir naujos proceso technologijos GP104 GPU yra iki šiol efektyviausias GPU. „Nvidia“ inžinieriai, pereidami prie naujos proceso technologijos, sugebėjo padidinti laikrodžio dažnį labiau nei tikėjosi, dėl to teko sunkiai dirbti, kad kruopščiai patikrintų ir optimizuotų visas ankstesnių sprendimų kliūtis, kurios neleido dirbti aukštesniais dažniais. Atitinkamai, „GeForce GTX 1070“ taip pat veikia labai aukštu dažniu, daugiau nei 40% didesniu nei „GeForce GTX 970“ pamatinė vertė.

Kadangi GeForce GTX 1070 modelis iš esmės yra tik šiek tiek mažiau galingas GTX 1080 su GDDR5 atmintimi, jis palaiko absoliučiai visas technologijas, kurias aprašėme ankstesniame skyriuje. Norėdami sužinoti daugiau apie „Pascal“ architektūrą ir jos palaikomas technologijas, pvz., patobulintus vaizdo išvesties ir apdorojimo įrenginius, „Async Compute“ palaikymą, „Simultaneous Multi-Projection“ technologiją, SLI kelių lustų atvaizdavimo pakeitimus ir naują „Fast Sync“ tipą, verta patikrinti skyrių apie GTX 1080.

Didelio našumo GDDR5 atmintis ir efektyvus jos naudojimas

Aukščiau rašėme apie GP104 grafikos procesoriaus atminties posistemio pokyčius, kuriais remiasi GeForce GTX 1080 ir GTX 1070 – šiame GPU esantys atminties valdikliai palaiko tiek naujo tipo GDDR5X vaizdo atmintį, kuri išsamiai aprašyta GTX 1080 apžvalgą, ir seną gerą GDDR5 atmintį, kuri mums žinoma jau keletą metų.

Kad jaunesniame GTX 1070 modelyje, palyginti su senesniu GTX 1080, nebūtų prarasta per daug atminties pralaidumo, jis paliko aktyvius visus aštuonis 32 bitų atminties valdiklius, suteikdamas visą 256 bitų bendrą vaizdo atminties sąsają. Be to, vaizdo plokštė buvo aprūpinta didžiausios spartos GDDR5 atmintimi, kokia buvo rinkoje – su efektyviu 8 GHz veikimo dažniu. Visa tai užtikrino 256 GB/s atminties pralaidumą, priešingai nei 320 GB/s senesniam sprendimui – maždaug tiek pat sumažėjo ir skaičiavimo galimybės, tad balansas buvo išlaikytas.

Nepamirškite, kad nors didžiausias teorinis pralaidumas yra svarbus GPU našumui, taip pat turite atkreipti dėmesį į tai, kaip efektyviai jis naudojamas. Atvaizdavimo proceso metu daug skirtingų kliūčių gali apriboti bendrą našumą, neleidžiant panaudoti viso turimo pralaidumo. Siekiant sumažinti šias kliūtis, GPU naudoja specialų be nuostolių glaudinimą, kad pagerintų duomenų skaitymo ir rašymo operacijų efektyvumą.

Pascal architektūra jau pristatė ketvirtosios kartos delta buferio informacijos glaudinimą, leidžiančią GPU efektyviau išnaudoti turimas vaizdo atminties magistralės galimybes. „GeForce GTX 1070“ ir „GTX 1080“ atminties posistemė naudoja patobulintus senus ir keletą naujų duomenų be nuostolių glaudinimo metodų, skirtų sumažinti pralaidumo reikalavimus. Tai sumažina į atmintį įrašomų duomenų kiekį, pagerina L2 talpyklos efektyvumą ir sumažina duomenų, siunčiamų tarp skirtingų GPU taškų, pvz., TMU ir kadrų buferio, kiekį.

GPU Boost 3.0 ir įsijungimo funkcijos

Daugelis „Nvidia“ partnerių jau paskelbė apie gamyklinius „overclocked“ sprendimus, pagrįstus „GeForce GTX 1080“ ir „GTX 1070“. Daugelis vaizdo plokščių gamintojų taip pat kuria specialias įsijungimo programas, kurios leidžia naudotis naujomis GPU Boost 3.0 technologijos funkcijomis. Vienas iš tokių paslaugų pavyzdžių yra EVGA Precision XOC, kuris apima automatinį skaitytuvą įtampos ir dažnio kreivei nustatyti – šiuo režimu kiekvienai įtampos vertei, atliekant stabilumo testą, randamas stabilus dažnis, kuriam esant GPU užtikrina didesnį našumą. . Tačiau šią kreivę galima keisti rankiniu būdu.

Gerai žinome GPU Boost technologiją iš ankstesnių Nvidia vaizdo plokščių. Savo GPU jie naudoja šią aparatinės įrangos funkciją, skirtą padidinti GPU veikimo taktinį greitį režimuose, kai jis dar nepasiekė energijos suvartojimo ir šilumos išsklaidymo ribų. Pascal GPU šis algoritmas patyrė keletą pakeitimų, iš kurių pagrindinis buvo smulkesnis turbo dažnių nustatymas, priklausomai nuo įtampos.

Jei anksčiau skirtumas tarp bazinio dažnio ir turbo dažnio buvo fiksuotas, tai GPU Boost 3.0 versijoje atsirado galimybė kiekvienai įtampai nustatyti turbo dažnio poslinkius atskirai. Dabar turbo dažnį galima nustatyti kiekvienai atskirai įtampos vertei, o tai leidžia visiškai išspausti visas GPU įsijungimo galimybes. Apie šią funkciją išsamiai rašėme „GeForce GTX 1080“ apžvalgoje, o tam galite naudoti EVGA Precision XOC ir MSI Afterburner paslaugų programas.

Kadangi, išleidus vaizdo plokštes, palaikančias GPU Boost 3.0, kai kurios detalės pasikeitė įjungimo metodikoje, Nvidia turėjo pateikti papildomų paaiškinimų naujų produktų įsijungimo instrukcijose. Yra įvairių įsijungimo būdų su skirtingais kintamaisiais, kurie turi įtakos galutiniam rezultatui. Tam tikras metodas gali būti tinkamesnis kiekvienai konkrečiai sistemai, tačiau pagrindai visada yra maždaug tokie patys.

Daugelis greitintuvų naudoja Unigine Heaven 4.0 etaloną, kad patikrintų sistemos stabilumą, kuris puikiai apkrauna GPU darbą, turi lanksčius nustatymus ir gali būti paleistas lango režimu kartu su šalia esančiu įsijungimo ir stebėjimo paslaugų langu, pvz., EVGA Precision arba MSI Afterburner. Tačiau tokio patikrinimo pakanka tik pirminiams įvertinimams, o norint tvirtai patvirtinti įsijungimo stabilumą, jį reikia patikrinti keliose žaidimų programose, nes skirtingi žaidimai reikalauja skirtingų GPU funkcinių blokų apkrovų: matematinių, tekstūrinių, geometrinių. . „Heaven 4.0“ etalonas taip pat patogus įsijungimo užduotims atlikti, nes turi kilpinį veikimo režimą, kuriame patogu keisti įsijungimo nustatymus ir yra greičio padidėjimo įvertinimo etalonas.

„Nvidia“ rekomenduoja kartu paleisti „Heaven 4.0“ ir „EVGA Precision XOC“, kai įjungiamos naujosios „GeForce GTX 1080“ ir „GTX 1070“ vaizdo plokštės. Pirma, patartina nedelsiant padidinti ventiliatoriaus greitį. O rimtam įsijungimui galima iš karto nustatyti greičio reikšmę iki 100%, dėl to vaizdo plokštė labai garsiai skambės, bet kiek įmanoma atvėsins GPU ir kitus vaizdo plokštės komponentus, sumažindama temperatūrą iki žemiausio įmanomo lygio. , užkertant kelią droseliui (dažnių sumažėjimui dėl GPU temperatūros padidėjimo virš tam tikros vertės).

Tada taip pat turite nustatyti maksimalų galios tikslą. Šis nustatymas suteiks didžiausią galią GPU, padidins energijos suvartojimo lygį ir GPU Temp Target. Tam tikrais tikslais antroji reikšmė gali būti atskirta nuo Power Target pakeitimo, o tada šiuos nustatymus galima reguliuoti individualiai – pavyzdžiui, kad būtų pasiektas mažesnis vaizdo lusto įkaitimas.

Kitas žingsnis yra padidinti vaizdo lusto dažnio padidėjimo reikšmę (GPU Clock Offset) – tai reiškia, kiek didesnis turbo dažnis bus veikimo metu. Ši vertė padidina visų įtampų dažnį ir pagerina veikimą. Kaip visada, įsijungdami, turite patikrinti stabilumą, didinant GPU dažnį mažais žingsneliais – nuo ​​10 MHz iki 50 MHz kiekvienam žingsniui, kol nepastebėsite mikčiojimo, tvarkyklės ar programos klaidų ar net vaizdinių artefaktų. Pasiekę šią ribą, turėtumėte sumažinti dažnio reikšmę vienu žingsniu žemyn ir dar kartą patikrinti stabilumą ir našumą įsijungimo metu.

Be GPU dažnio, galima padidinti ir vaizdo atminties dažnį (Memory Clock Offset), o tai ypač svarbu „GeForce GTX 1070“ atveju, aprūpintame GDDR5 atmintimi, kuri dažniausiai puikiai įsijungia. Procesas atminties veikimo dažnio atveju tiksliai pakartoja tai, kas daroma ieškant stabilaus GPU dažnio, skirtumas tik tas, kad žingsnius galima padaryti didesnius – prie bazinio dažnio iš karto pridedant 50-100 MHz.

Be aukščiau aprašytų veiksmų, taip pat galite padidinti įtampos ribą (Overvoltage), nes aukštesni GPU dažniai dažnai pasiekiami esant aukštesnei įtampai, kai nestabilios GPU dalys gauna papildomos energijos. Tiesa, galimas trūkumas didinant šią vertę yra vaizdo lusto pažeidimo ir pagreitinto gedimo galimybė, todėl įtampos didinimą reikia naudoti itin atsargiai.

Overclocking entuziastai naudoja kiek kitokias technikas, keičia parametrus skirtinga tvarka. Pavyzdžiui, kai kurie įsijungėjai dalijasi eksperimentais, ieškodami stabilaus GPU ir atminties dažnio, kad jie netrukdytų vienas kitam, ir tada išbando bendrą vaizdo lusto ir atminties lustų įsijungimą, tačiau tai yra nereikšmingos individo detalės. metodas.

Sprendžiant iš nuomonių forumuose ir straipsnių komentarų, kai kuriems vartotojams nepatiko naujasis GPU Boost 3.0 veikimo algoritmas, kai GPU dažnis iš pradžių pakyla labai aukštai, dažnai viršija turbo dažnį, o vėliau, veikiant kylant GPU temperatūrai. arba padidėjęs energijos suvartojimas virš nustatytos ribos, jis gali nukristi iki žymiai mažesnių verčių. Tai tik atnaujinto algoritmo specifika, prie naujos dinamiškai besikeičiančio GPU dažnio elgesio reikia priprasti, tačiau tai neturi jokių neigiamų pasekmių.

GeForce GTX 1070 vaizdo plokštė tapo antruoju modeliu po GTX 1080 naujoje Nvidia linijoje, pagrįstoje Pascal šeimos grafikos procesoriais. Nauja 16 nm FinFET proceso technologija ir architektūros optimizavimas leido pristatomai vaizdo plokštei pasiekti aukštus taktinius dažnius, o tai padeda ir naujos kartos GPU Boost technologija. Net nepaisant sumažėjusio funkcinių vienetų skaičiaus srauto procesorių ir tekstūrų modulių pavidalu, jų skaičius išlieka pakankamas, kad GTX 1070 taptų pelningiausiu ir energiją taupančiu sprendimu.

GDDR5 atminties įdiegimas jaunesniame iš išleistų Nvidia vaizdo plokščių modelių GP104 mikroschemoje, priešingai nei naujajam GDDR5X tipui, kuris išskiria GTX 1080, netrukdo jam pasiekti aukštų našumo rodiklių. Pirma, „Nvidia“ nusprendė nekarpyti „GeForce GTX 1070“ modelio atminties magistralės, antra, įdiegė greičiausią GDDR5 atmintį, kurios efektyvusis 8 GHz dažnis yra tik šiek tiek mažesnis už senesniuose modeliuose naudojamo GDDR5X 10 GHz. modelis. Atsižvelgiant į patobulintus delta glaudinimo algoritmus, efektyvus GPU atminties pralaidumas tapo didesnis nei panašaus ankstesnės kartos GeForce GTX 970 modelio.

GeForce GTX 1070 yra geras, nes jis siūlo labai didelį našumą ir naujų funkcijų bei algoritmų palaikymą už žymiai mažesnę kainą, palyginti su senesniu modeliu, paskelbtu kiek anksčiau. Jei tik keli entuziastai gali sau leisti įsigyti GTX 1080 už 55 000, tai kur kas didesnis potencialių pirkėjų ratas galės sumokėti 35 000 vos už ketvirtadaliu mažiau našų sprendimą su lygiai tokiomis pat galimybėmis. Tai buvo palyginti mažos kainos ir didelio našumo derinys, dėl kurio „GeForce GTX 1070“ buvo bene pelningiausias pirkinys jo išleidimo metu.

Grafikos greitintuvas GeForce GTX 1060

ParametrasReikšmė
Lusto kodo pavadinimasGP106
Gamybos technologija16 nm FinFET
Tranzistorių skaičius4,4 mlrd
Pagrindinė sritis200 mm²
ArchitektūraSuvienodintas su daugybe įprastų procesorių, skirtų daugelio tipų duomenų srautui apdoroti: viršūnes, pikselius ir kt.
„DirectX“ techninės įrangos palaikymas„DirectX 12“ su 12_1 funkcijų lygio palaikymu
Atminties magistralė192 bitų: šeši nepriklausomi 32 bitų atminties valdikliai, palaikantys GDDR5 atmintį
GPU dažnis1506 (1708) MHz
Skaičiavimo blokai10 srautinio perdavimo kelių procesorių, įskaitant 1280 skaliarinių ALU, skirtų slankiojo kablelio skaičiavimams pagal IEEE 754-2008 standartą;
Tekstūravimo blokeliai80 tekstūrų adresavimo ir filtravimo vienetų su FP16 ir FP32 tekstūrų komponentų palaikymu ir visų tekstūrų formatų trilinijinio ir anizotropinio filtravimo palaikymu
Rastriniai operacijų blokai (ROP)6 platūs ROP blokai (48 pikseliai), palaikantys įvairius anti-aliasing režimus, įskaitant programuojamus ir su FP16 arba FP32 kadrų buferio formatu. Blokai susideda iš konfigūruojamų ALU masyvo ir yra atsakingi už gylio generavimą ir palyginimą, kelių mėginių ėmimą ir maišymą.
Monitoriaus palaikymasIntegruotas palaikymas iki keturių monitorių, prijungtų per Dual Link DVI, HDMI 2.0b ir DisplayPort 1.2 (1.3/1.4 Ready) sąsajas

GeForce GTX 1060 etaloninės vaizdo plokštės specifikacijos
ParametrasReikšmė
Pagrindinis dažnis1506 (1708) MHz
Universalių procesorių skaičius1280
Tekstūros blokų skaičius80
Maišymo blokų skaičius48
Efektyvus atminties dažnis8000 (4×2000) MHz
Atminties tipasGDDR5
Atminties magistralė192 bitų
Atmintis6 GB
Atminties juostos plotis192 GB/s
Skaičiavimo našumas (FP32)apie 4 teraflopus
Teorinis maksimalus užpildymo greitis72 gigapikseliai/s
Teorinė tekstūros atrankos sparta121 gigatekselis/s
PadangaPCI Express 3.0
JungtysVienas Dual Link DVI, vienas HDMI ir trys DisplayPort
Tipiškas energijos suvartojimas120 W
Papildomas maistasViena 6 kontaktų jungtis
Sistemos korpuse užimtų lizdų skaičius2
Rekomenduojama kaina249 USD (299 USD) JAV ir 18 990 Rusijoje

Vaizdo plokštė GeForce GTX 1060 taip pat gavo pavadinimą, panašų į tą patį ankstesnės GeForce serijos sprendimą, nuo tiesioginio pirmtako GeForce GTX 960 pavadinimo skiriasi tik pasikeitusiu pirmuoju kartos skaitmeniu. Naujas produktas dabartinėje bendrovės linijoje yra vienu laipteliu žemesnis nei anksčiau išleistas GeForce GTX 1070 sprendimas, kurio greitis naujoje serijoje yra vidutinis.

Rekomenduojamos naujosios „Nvidia“ vaizdo plokštės kainos yra atitinkamai 249 USD ir 299 USD už įprastas bendrovės partnerių versijas ir specialųjį „Founder's Edition“. Palyginti su dviem senesniais modeliais, tai yra labai palanki kaina, nes naujasis GTX 1060 modelis, nors ir nusileidžia aukščiausios klasės plokštėms, nėra nė kiek pigesnis už juos. Paskelbimo metu naujasis produktas neabejotinai tapo geriausiai veikiančiu sprendimu savo klasėje ir vienu iš naudingiausių pasiūlymų šioje kainų kategorijoje.

Šis Nvidia Pascal šeimos vaizdo plokštės modelis buvo išleistas siekiant atremti šviežią konkuruojančios kompanijos AMD sprendimą, kuris kiek anksčiau rinkai išleido Radeon RX 480. Galima palyginti naująjį Nvidia gaminį su šia vaizdo plokšte, nors ir ne visiškai tiesiogiai, nes jų kaina vis tiek pastebimai skiriasi. „GeForce GTX 1060“ yra brangesnis (249–299 USD, palyginti su 199–229 USD), tačiau jis taip pat yra akivaizdžiai greitesnis už konkurentą.

GP106 grafikos procesorius turi 192 bitų atminties magistralę, todėl į vaizdo plokštę su tokia magistrale įdiegtos atminties kiekis gali būti 3 arba 6 GB. Atvirai kalbant, mažesnės vertės šiuolaikinėmis sąlygomis nepakanka, o daugeliui žaidimų projektų, net ir Full HD raiškos, trūks vaizdo atminties, o tai labai paveiks atvaizdavimo sklandumą. Siekiant užtikrinti maksimalų naujojo sprendimo veikimą aukštuose nustatymuose, GeForce GTX 1060 vaizdo plokštės modelyje buvo sumontuota 6 GB vaizdo atminties, kurios pakanka paleisti bet kokias 3D programas su bet kokiais kokybės nustatymais. Be to, šiandien tiesiog nėra skirtumo tarp 6 ir 8 GB, o toks sprendimas leis šiek tiek sutaupyti.

Tipiškas naujojo gaminio energijos suvartojimas yra 120 W, o tai yra 20% mažiau nei GTX 1070 ir prilygsta ankstesnės kartos GeForce GTX 960 vaizdo plokštės, kurios našumas ir pajėgumai yra daug mažesni, energijos suvartojimui. Nuorodų plokštėje yra įprastas jungčių rinkinys vaizdo išvesties įrenginiams prijungti: vienas Dual-Link DVI, vienas HDMI ir trys DisplayPort. Be to, palaikomos naujos HDMI ir DisplayPort versijos, apie kurias rašėme GTX 1080 modelio apžvalgoje.

GeForce GTX 1060 atskaitos plokštės ilgis yra 9,8 colio (25 cm), o tarp skirtumų nuo senesnių versijų atskirai pažymime, kad GeForce GTX 1060 nepalaiko SLI kelių lustų atvaizdavimo konfigūracijos ir neturi specialios jungtis tam. Kadangi plokštė sunaudoja mažiau energijos nei senesni modeliai, papildomai maitinimui ant plokštės buvo sumontuota viena 6 kontaktų PCI-E išorinė maitinimo jungtis.

GeForce GTX 1060 vaizdo plokštės rinkoje pasirodė nuo pat anonso dienos produktų pavidalu iš kompanijos partnerių: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Taip pat ribotais kiekiais bus išleistas specialus GeForce GTX 1060 Founder’s Edition leidimas, kurį gamina pati Nvidia, kuris bus parduodamas už 299 USD išskirtinai Nvidia svetainėje ir nebus oficialiai pristatomas Rusijoje. Founder's Edition yra aukštos kokybės medžiagų ir komponentų, įskaitant aliuminio važiuoklę, efektyvią aušinimo sistemą, mažos varžos maitinimo grandines ir pagal užsakymą sukurtus įtampos reguliatorius.

Architektūriniai pokyčiai

Vaizdo plokštė GeForce GTX 1060 yra paremta visiškai nauju grafikos procesoriaus modeliu GP106, kuris funkciškai nesiskiria nuo Pascal architektūros pirmagimio GP104 lusto pavidalu, ant kurio yra aukščiau aprašyti GeForce GTX 1080 ir GTX 1070 modeliai. Ši architektūra yra pagrįsta sprendimais, sukurtais Maxwell, tačiau ji taip pat turi tam tikrų funkcinių skirtumų, apie kuriuos išsamiai rašėme anksčiau.

GP106 vaizdo lustas savo dizainu yra panašus į aukščiausios klasės Pascal lustą ir panašius Maxwell architektūros sprendimus, o išsamios informacijos apie šiuolaikinių GPU dizainą galite rasti mūsų ankstesnių Nvidia sprendimų apžvalgose. Kaip ir ankstesni GPU, naujosios architektūros lustai turi skirtingas grafikos apdorojimo grupių (GPC) skaičiavimo grupių, srautinio daugiaprocesorių (SM) ir atminties valdiklių konfigūracijas:

GP106 grafikos procesoriuje yra dvi GPC klasteriai, susidedantys iš 10 srautinio perdavimo kelių procesorių (Streaming Multiprocessor – SM), tai yra lygiai pusė to, kas yra GP104. Kaip ir senesniame GPU, kiekviename daugiaprocesoriuje yra 128 skaičiavimo branduoliai, 8 TMU tekstūros vienetai, 256 KB registro atminties, 96 KB bendros atminties ir 48 KB pirmojo lygio talpyklos. Dėl to „GeForce GTX 1060“ iš viso yra 1280 apdorojimo branduolių ir 80 tekstūrų vienetų – perpus mažiau nei GTX 1080.

Tačiau GeForce GTX 1060 atminties posistemis nebuvo perpus sumažintas, palyginti su geriausiu sprendimu; jame yra šeši 32 bitų atminties valdikliai, suteikiantys galutinę 192 bitų atminties magistralę. Esant efektyviam GeForce GTX 1060 skirtos GDDR5 vaizdo atminties dažniui, lygiam 8 GHz, pralaidumas siekia 192 GB/s, o tai yra gana geras sprendimas šio kainų segmento sprendimui, ypač turint omenyje aukštą jos panaudojimo efektyvumą Pascal. Kiekvienas atminties valdiklis turi aštuonis ROP blokus ir su juo susietą 256 KB L2 talpyklos, todėl iš viso pilnoje GP106 GPU versijoje yra 48 ROP blokai ir 1536 KB L2 talpyklos.

Siekiant sumažinti atminties pralaidumo reikalavimus ir efektyviau išnaudoti Pascal architektūrą, buvo toliau patobulintas lusto neprarandantis glaudinimas, galintis suspausti duomenis buferiuose, kad būtų padidintas efektyvumas ir našumas. Visų pirma, į naujosios šeimos lustus buvo įtraukti nauji trikampio glaudinimo metodai, kurių santykis yra 4:1 ir 8:1, suteikiant papildomą 20% pralaidumo efektyvumą, palyginti su ankstesniais Maxwell šeimos sprendimais.

Bazinis naujojo GPU dažnis yra 1506 MHz – dažnis iš esmės neturėtų nukristi žemiau šios žymos. Tipinis turbo dažnis (Boost Clock) yra daug didesnis ir lygus 1708 MHz – tai yra vidutinė tikrojo dažnio, kuriuo GeForce GTX 1060 grafikos lustas veikia įvairiausiuose žaidimuose ir 3D programose, reikšmė. Tikrasis padidinimo dažnis priklauso nuo žaidimo ir testavimo sąlygų.

Kaip ir kiti „Pascal“ šeimos nariai, „GeForce GTX 1060“ ne tik veikia dideliu laikrodžio dažniu, užtikrindamas aukštą našumą, bet ir turi tinkamą įsijungimo greitį. Pirmieji eksperimentai rodo galimybę pasiekti maždaug 2 GHz dažnius. Nenuostabu, kad įmonės partneriai ruošia ir gamyklines GTX 1060 vaizdo plokštės versijas.

Taigi pagrindinis naujosios architektūros pokytis buvo 16 nm FinFET technologinis procesas, kurio panaudojimas gaminant GP106 leido žymiai padidinti lusto sudėtingumą išlaikant santykinai mažą 200 mm² plotą, todėl Šis Pascal architektūros lustas turi žymiai didesnį vykdymo vienetų skaičių, palyginti su panašios padėties Maxwell lustu, pagamintu naudojant 28 nm proceso technologiją.

Jei GM206 (GTX 960), kurio plotas 227 mm², turėjo 3 milijardus tranzistorių ir 1024 ALU, 64 TMU, 32 ROP ir 128 bitų magistralę, tai naujajame GPU buvo 4,4 milijardo tranzistorių, 1280 ALU 200 mm². 80 TMU ir 48 ROP su 192 bitų magistrale. Be to, beveik pusantro karto didesniu dažniu: 1506 (1708) prieš 1126 (1178) MHz. Ir tai yra naudojant tą patį 120 W energijos suvartojimą! Dėl to GP106 GPU kartu su GP104 tapo vienu efektyviausiai energiją naudojančių GPU.

Naujos Nvidia technologijos

Viena įdomiausių kompanijos technologijų, kurią palaiko GeForce GTX 1060 ir kiti Pascal šeimos sprendimai, yra technologija. „Nvidia“ vienalaikė daugialypė projekcija. Apie šią technologiją jau rašėme savo „GeForce GTX 1080“ apžvalgoje; ji leidžia naudoti keletą naujų būdų, kaip optimizuoti atvaizdavimą. Visų pirma, vienu metu projektuoti VR vaizdą abiem akims vienu metu, labai padidinant GPU naudojimo virtualioje realybėje efektyvumą.

Kad palaikytų SMP, visi Pascal šeimos GPU turi specialų variklį, kuris yra „PolyMorph Engine“ geometrijos dujotiekio gale prieš rastrizacijos bloką. Jos pagalba GPU vienu metu gali projektuoti geometrinį primityvą į kelias projekcijas iš vieno taško, o šios projekcijos gali būti stereofoninės (t.y. vienu metu palaikoma iki 16 arba 32 projekcijų). Ši galimybė leidžia Pascal GPU tiksliai atkurti išlenktus paviršius VR atvaizdavimui, taip pat teisingai rodyti kelių monitorių sistemose.

Svarbu, kad „Simultaneous Multi-Projection“ technologija jau integruojama į populiarius žaidimų variklius („Unreal Engine“ ir „Unity“) bei žaidimus, o iki šiol buvo paskelbta apie daugiau nei 30 kuriamų žaidimų technologijų palaikymą, įskaitant tokius gerai žinomus projektus kaip „Unreal“. Turnyras, Poolnation VR, Everesto VR, Obduction, Adr1ft ir neapdoroti duomenys. Įdomu tai, kad nors „Unreal Tournament“ nėra VR žaidimas, jis naudoja SMP, kad pasiektų aukštesnės kokybės vaizdus ir pagerintų našumą.

Kita ilgai laukta technologija yra galingas įrankis, leidžiantis kurti ekrano kopijas žaidimuose. Nvidia Ansel. Šis įrankis leidžia kurti neįprastas ir labai kokybiškas ekrano kopijas iš žaidimų, su anksčiau nepasiekiamomis funkcijomis, jas išsaugoti labai didele raiška ir papildyti įvairiais efektais bei dalintis savo kūriniais. „Ansel“ leidžia tiesiogine prasme sukurti ekrano kopiją taip, kaip to nori menininkas, leidžiant bet kurioje scenos vietoje sumontuoti fotoaparatą su bet kokiais parametrais, pritaikyti vaizdui galingus postfiltrus ar net padaryti 360 laipsnių nuotrauką, kurią norite peržiūrėti virtualios realybės šalmas.

„Nvidia“ standartizavo „Ansel“ vartotojo sąsajos integravimą į žaidimus ir tai taip paprasta, kaip pridėti kelias kodo eilutes. Nereikia laukti, kol ši funkcija pasirodys žaidimuose; Anselio sugebėjimus galite įvertinti jau dabar žaidime „Mirror’s Edge: Catalyst“, o kiek vėliau ji bus pasiekiama „Witcher 3: Wild Hunt“. Be to, su Ansel pagalba kuriama daug žaidimų projektų, įskaitant tokius žaidimus kaip Fortnite, Paragon ir Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky ir kt.

Taip pat naujasis GeForce GTX 1060 GPU palaiko įrankių rinkinį Nvidia VRWorks, kuri padeda kūrėjams kurti įspūdingus virtualios realybės projektus. Šiame pakete yra daug programų ir įrankių kūrėjams, įskaitant VRWorks Audio, kuris leidžia atlikti labai tikslius garso bangų atspindžių nuo scenoje esančių objektų skaičiavimus naudojant GPU spindulių sekimą. Paketas taip pat apima integraciją į VR ir PhysX fizinius efektus, kad būtų užtikrintas fiziškai teisingas objektų elgesys scenoje.

Vienas iš įdomiausių VR žaidimų, kuris turi naudos iš VRWorks, yra „VR Funhouse“, pačios „Nvidia“ virtualios realybės žaidimas, kurį nemokamai galima įsigyti „Valve“ „Steam“ paslaugoje. Šis žaidimas yra pagrįstas „Unreal Engine 4“ („Epic Games“) ir veikia „GeForce GTX 1080“, 1070 ir 1060 vaizdo plokštėse kartu su „HTC Vive VR“ ausinėmis. Be to, šio žaidimo šaltinio kodas bus viešai prieinamas, o tai leis kitiems kūrėjams panaudoti paruoštas idėjas ir kodą savo VR atrakcionuose. Laikykitės mūsų žodžio – tai vienas įspūdingiausių virtualios realybės galios demonstracijų.

Taip pat dėl ​​SMP ir VRWorks technologijų, GeForce GTX 1060 grafikos procesoriaus naudojimas VR programose užtikrina gana pakankamą pradinio lygio virtualios realybės našumą, o atitinkamas GPU atitinka minimalų reikalingą aparatinės įrangos lygį, įskaitant SteamVR, tampa vienu iš sėkmingiausi įsigijimai, skirti naudoti sistemose su oficialiu VR palaikymu.

Kadangi GeForce GTX 1060 modelis yra paremtas GP106 lustu, kuris savo galimybėmis niekuo nenusileidžia senesnių modifikacijų pagrindu tapusiam GP104 grafiniam procesoriui, jis palaiko absoliučiai visas mūsų aprašytas technologijas.

„GeForce GTX 1060“ vaizdo plokštė tapo trečiuoju naujosios „Nvidia“ linijos modeliu, paremtu „Pascal“ grafikos procesorių šeima. Naujas 16 nm FinFET technologinis procesas ir architektūros optimizavimas leido visoms naujoms vaizdo plokštėms pasiekti aukštą taktinį dažnį ir sutalpinti daugiau funkcinių vienetų GPU srauto procesorių, tekstūrų modulių ir kitų pavidalu, lyginant su ankstesnės kartos vaizdo lustais. Būtent todėl GTX 1060 modelis tapo pelningiausiu ir energiją taupančiu sprendimu savo klasėje ir apskritai.

Ypač svarbu, kad GeForce GTX 1060 siūlo gana aukštą našumą ir naujų funkcijų bei algoritmų palaikymą už žymiai mažesnę kainą, lyginant su senesniais GP104 sprendimais. Naujojo modelio GP106 grafikos lustas užtikrina savo klasėje pirmaujančią našumą ir energijos vartojimo efektyvumą. GeForce GTX 1060 modelis yra specialiai sukurtas ir puikiai tinka visiems šiuolaikiniams žaidimams esant dideliems ir maksimaliems grafiniams nustatymams, esant 1920x1080 raiškai ir netgi su įvairiais būdais (FXAA, MFAA arba MSAA) įjungtu viso ekrano anti-aliasing.

O tiems, kurie nori dar geresnio našumo su itin didelės raiškos ekranais, „Nvidia“ turi aukščiausios klasės „GeForce GTX 1070“ ir „GTX 1080“ vaizdo plokštes, kurios taip pat yra labai geros našumo ir energijos vartojimo efektyvumo požiūriu. Visgi žemos kainos ir pakankamo našumo derinys išskiria GeForce GTX 1060 iš senesnių sprendimų. Palyginti su konkuruojančiu „Radeon RX 480“, „Nvidia“ sprendimas yra šiek tiek greitesnis, mažiau sudėtingas ir mažiau užimantis GPU, o energijos vartojimo efektyvumas yra žymiai geresnis. Tiesa, ji parduodama kiek brangiau, tad kiekviena vaizdo plokštė turi savo nišą.