Архитектурни карти на Pascal. Семейства видеокарти Nvidia GeForce Справочна информация. Pascal дисплей канал: HDR-Ready

2016 вече е към своя край, но неговият принос към игралната индустрия ще остане с нас за дълго време. Първо, видеокартите от червения лагер получиха неочаквано успешна актуализация в средния ценови диапазон, и второ, NVIDIA за пореден път доказа, че не напразно заема 70% от пазара. Maxwells бяха добри, GTX 970 с право се смяташе за една от най-добрите карти за парите, но Pascal е съвсем различен въпрос.

Новото поколение хардуер в лицето на GTX 1080 и 1070 буквално погреба резултатите от миналогодишните системи и водещия пазар на използван хардуер, докато "по-младите" линии в лицето на GTX 1060 и 1050 затвърдиха успеха си в по-достъпни сегменти. Собствениците на GTX980Ti и други титани плачат с крокодилски сълзи: техните убер-пушки за много хиляди рубли загубиха 50% от цената и 100% от показността наведнъж. Самата NVIDIA твърди, че 1080 е по-бърза от миналогодишния TitanX, 1070 лесно "натрупва" 980Ti, а относително бюджетната 1060 ще навреди на собствениците на всички останали карти.

Наистина ли оттук растат краката на високата производителност и какво да правите с всичко това в навечерието на празниците и внезапните финансови радости, както и с какво точно да се зарадвате, ще разберете в този дълъг и малко скучен статия.

Можете да обичате Nvidia или ... да не обичате, но да отричате, че е вътре този моменте лидер в областта на видео инженерството ще бъде само наемен убиец от алтернативна вселена. Тъй като Vega на AMD все още не е обявена, все още не сме виждали водещите RX на Polaris, а R9 Fury, със своите 4 GB експериментална памет, всъщност не може да се счита за обещаваща карта (VR и 4K все още искат малко повече, отколкото тя има) - имаме това, което имаме. Докато 1080 Ti и условните RX 490, RX Fury и RX 580 са само слухове и очаквания, имаме време да разгледаме текущата гама на NVIDIA и да видим какво е постигнала компанията последните години.

Бъркотията и историята на произхода на Паскал

NVIDIA редовно дава причини да „не обичате себе си“. Историята на GTX 970 и нейните "3,5 GB памет", "NVIDIA, Майната ти!" от Линус Торвалдс, пълна порнография в редовете на настолната графика, отказ от работа с безплатната и много по-разпространена система FreeSync в полза на собствената й собствена ... Като цяло има достатъчно причини. Едно от най-неприятните неща за мен лично е случилото се с последните две поколения видео карти. Ако вземем грубо описание, тогава "модерните" графични процесори идват от дните на поддръжката на DX10. И ако днес търсите "дядото" на 10-та серия, тогава началото на съвременната архитектура ще бъде в района на 400-та серия видеоускорители и архитектурата Fermi. Именно в него идеята за "блоков" дизайн от т.нар. „CUDA ядра“ в терминологията на NVIDIA.

Ферми

Ако видеокартите от 8000-та, 9000-та и 200-та серия бяха първите стъпки в усвояването на самата концепция, „модерна архитектура“ с универсални шейдърни процесори (като AMD, да), тогава 400-та серия вече беше възможно най-подобна на това, което ние вижте в някои 1070. Да, Fermi все още имаше малка патерица Legacy от предишни поколения: шейдърът работеше на два пъти по-висока честота от ядрото, отговорно за изчисляването на геометрията, но цялостната картина на някои GTX 480 не се различава много от някои някои 780-ти, SM мултипроцесорите са групирани, клъстерите комуникират чрез общ кеш с контролери на паметта и резултатите от работата се показват от блок за растеризация, общ за клъстера:


Блокова схема на процесора GF100, използван в GTX 480.

В 500-та серия все още имаше същия Fermi, леко подобрен „вътре“ и с по-малко брак, така че най-добрите решения получиха 512 CUDA ядра вместо 480 за предишното поколение. Визуално блок-схемите обикновено изглеждат като близнаци:


GF110 е сърцето на GTX 580.

На места увеличиха честотите, леко промениха дизайна на самия чип, нямаше революция. Същият 40 nm технологичен процес и 1,5 GB видео памет на 384-битова шина.

Кеплер

С появата на архитектурата Kepler много се промени. Можем да кажем, че това поколение даде на видеокартите NVIDIA вектора на развитие, който доведе до появата на настоящите модели. Промени се не само архитектурата на GPU, но и кухнята за разработване на нов хардуер в NVIDIA. Ако Fermi беше фокусиран върху намирането на решение, което да осигури висока производителност, тогава Kepler заложи на енергийна ефективност, разумно използване на ресурсите, високи честоти и лекота на оптимизация на игровия двигател за възможностите на високопроизводителна архитектура.

Бяха направени сериозни промени в дизайна на графичния процесор: не "флагманът" GF100 / GF110 беше взет за основа, а "бюджетът" GF104 / GF114, който беше използван в една от най-популярните карти от онова време - GTX 460.


Цялостната процесорна архитектура е опростена чрез използването само на два големи блока с четири унифицирани шейдърни мултипроцесорни модула. Оформлението на новите флагмани изглеждаше така:


GK104 е инсталиран в GTX 680.

Както можете да видите, всяка от изчислителните единици значително е повишила теглото си спрямо предишната архитектура и е наречена SMX. Сравнете структурата на блока с това, което е показано по-горе в секцията Ферми.


Мултипроцесор SMX GPU GK104

Шестстотната серия нямаше видеокарти на пълноценен процесор, съдържащ шест блока изчислителни модули, флагманът беше GTX 680 с инсталиран GK104 и само "двуглавият" 690 беше по-хладен от него, на който просто два процесора бяха отгледани с всички необходими връзки и памет. Година по-късно флагманът GTX 680 с незначителни промени се превърна в GTX 770, а венецът на еволюцията на архитектурата Kepler бяха видеокарти, базирани на кристал GK110: GTX Titan и Titan Z, 780Ti и обичайният 780. Вътре - все същите 28 нанометра, единственото качествено подобрение (което НЕ е отишло при потребителски видеокарти, базирани на GK110) - производителност с операции с двойна точност.

Максуел

Първата видеокарта, базирана на архитектурата Maxwell, беше... NVIDIA GTX 750Ti. Малко по-късно се появиха разфасовките му в лицето на GTX 750 и 745 (доставени само като интегрирано решение), а по време на появата си картите от по-нисък клас наистина разтърсиха пазара на евтини видео ускорители. Новата архитектура беше тествана на чипа GK107: малка част от бъдещите флагмани с огромни радиатори и плашеща цена. Изглеждаше нещо подобно:


Да, има само една изчислителна единица, но колко по-сложна е от предшественика си, сравнете сами:


Вместо голям блок SMX, който беше използван като основна "строителна тухла" при създаването на GPU, се използват нови, по-компактни SMM блокове. Основните изчислителни единици на Kepler бяха добри, но страдаха от лошо използване на капацитета - банален глад за инструкции: системата не можеше да разпръсне инструкции върху голям брой задвижващи механизми. Pentium 4 имаше приблизително същите проблеми: захранването беше бездействащо и грешката в прогнозирането на разклонения беше много скъпа. В Maxwell всеки изчислителен модул беше разделен на четири части, на всяка от които беше даден собствен буфер за инструкции и warp scheduler - същия тип операции върху група нишки. В резултат на това ефективността се е увеличила, а самите графични процесори са станали по-гъвкави от своите предшественици и най-важното е, че с цената на малко кръв и сравнително прост кристал те са разработили нова архитектура. Историята върви спираловидно, хехе.

Най-вече мобилните решения се възползваха от иновациите: площта на кристала е нараснала с една четвърт, а броят на изпълнителните единици на мултипроцесорите почти се е удвоил. За щастие 700-та и 800-та серия направиха основната бъркотия в класирането. Само вътре в 700 имаше видео карти, базирани на архитектурите Kepler, Maxwell и дори Fermi! Ето защо настолните Maxwells, за да се отдалечат от смесица от предишни поколения, получиха обща серия 900, от която впоследствие се отделиха мобилните карти GTX 9xx M.

Паскал - логично развитие на Максуел архитектурата

Това, което беше заложено в Kepler и продължено в поколението Maxwell, остана в Pascals: първите потребителски видеокарти бяха пуснати на базата на не много големия чип GP104, който се състои от четири клъстера за графична обработка. Пълноразмерният шест клъстерен GP100 отиде при скъп полупрофесионален графичен процесор под марката TITAN X. Въпреки това, дори „изрязаният“ 1080 свети така, че миналите поколения се чувстват зле.

Подобряване на представянето

основа на основите

Maxwell стана основата на новата архитектура, диаграмата на сравнимите процесори (GM104 и GP104) изглежда почти еднаква, основната разлика е броят на мултипроцесорите, опаковани в клъстери. Kepler (700-то поколение) имаше два големи SMX мултипроцесора, които бяха разделени на 4 части всяка в Maxwell, осигурявайки необходимото свързване (промяна на името на SMM). В Pascal бяха добавени още две към съществуващите осем в блока, така че имаше 10 от тях и съкращението отново беше прекъснато: сега единичните мултипроцесори отново се наричат ​​SM.


Останалото е пълна визуална прилика. Вярно, имаше още повече промени вътре.

Двигател на прогреса

В многопроцесорния блок има неприлично много промени. За да не навлизам в много скучните подробности какво е преработено, как е оптимизирано и как е било преди, ще опиша промените много накратко, в противен случай някои вече се прозяват.

На първо място, Паскал коригира частта, която отговаря за геометричния компонент на картината. Това е необходимо за конфигурации с няколко монитора и работа с VR каски: с подходяща поддръжка от двигателя на играта (и тази поддръжка скоро ще се появи чрез усилията на NVIDIA), видеокартата може да изчисли геометрията веднъж и да получи няколко геометрични проекции за всяка на екраните. Това значително намалява натоварването във VR не само в областта на работата с триъгълници (тук увеличението е само два пъти), но и при работа с пикселния компонент.

Условният 980Ti ще прочете геометрията два пъти (за всяко око) и след това ще я запълни с текстури и ще извърши последваща обработка за всяко от изображенията, обработвайки общо около 4,2 милиона точки, от които около 70% действително ще бъдат използвани, останалите ще бъдат отрязани или ще попаднат в областта, която просто не се показва за всяко от очите.

1080 ще обработи геометрията веднъж и пикселите, които не попадат в крайното изображение, просто няма да бъдат изчислени.


С пикселния компонент всичко всъщност е още по-готино. Тъй като увеличаването на честотната лента на паметта може да се извърши само на два фронта (увеличаване на честотата и честотната лента на такт) и двата метода струват пари, а „гладът“ на GPU за памет е все по-изразен през годините поради нарастването на разделителната способност и развитието на VR остава да подобри "безплатните" методи за увеличаване на честотната лента. Ако не можете да разширите шината и да повишите честотата - трябва да компресирате данните. В предишните поколения хардуерната компресия вече беше приложена, но в Pascal беше изведена на ново ниво. Отново ще се справим без скучна математика и ще вземем готов пример от NVIDIA. Отляво - Максуел, отдясно - Паскал, онези точки, чийто цветен компонент е бил подложен на компресия без загуби, са запълнени с розово.


Вместо да прехвърля конкретни плочки от 8x8 точки, паметта съдържа „средния“ цвят + матрица от отклонения от него, такива данни отнемат от ½ до ⅛ от оригиналния обем. При реални задачи натоварването на подсистемата на паметта е намаляло от 10 до 30%, в зависимост от броя на градиентите и равномерността на запълване в сложни сцени на екрана.


Това изглеждаше недостатъчно на инженерите и за водещата видеокарта (GTX 1080) беше използвана памет с увеличена честотна лента: GDDR5X предава два пъти повече битове данни (не инструкции) на часовник и произвежда повече от 10 Gb / s при връх. Прехвърлянето на данни с такава луда скорост изисква напълно ново оформление на паметта на платката, а общата ефективност на паметта се увеличава с 60-70% в сравнение с флагманите от предишното поколение.

Намалете закъсненията и времето на престой

Видеокартите отдавна се занимават не само с графична обработка, но и със свързани изчисления. Физиката често е свързана с рамки на анимация и е забележително паралелна, което означава, че е много по-ефективно да се изчислява на GPU. Но най-големият генератор на проблеми в последно време се превърна в VR индустрията. Много двигатели за игри, методологии за разработка и куп други технологии, използвани за работа с графики, просто не са предназначени за VR, случаят на преместване на камерата или промяна на позицията на главата на потребителя по време на изобразяването на кадъра просто не е обработен. Ако оставите всичко както е, тогава десинхронизирането на видеопотока и вашите движения ще предизвикат пристъпи на морска болест и просто ще попречат на потапянето в света на играта, което означава, че „грешните“ кадри просто трябва да бъдат изхвърлени след рендиране и стартиране работи отново. А това са нови закъснения в показването на картината на дисплея. Няма положителен ефект върху производителността.

Pascal взе предвид този проблем и въведе динамично балансиране на натоварването и възможността за асинхронни прекъсвания: сега изпълнителните модули могат или да прекъснат текущата задача (запазвайки резултатите от работата в кеша), за да обработят по-спешни задачи, или просто да нулират недостатъчно изчертаната рамка и започнете нов, като значително намалите закъсненията във формирането на изображението. Основният бенефициент тук, разбира се, е VR и игрите, но тази технология може да помогне и при изчисления с общо предназначение: симулацията на сблъсък на частици получи увеличение на производителността с 10-20%.

Boost 3.0

Видеокартите на NVIDIA получиха автоматичен овърклок отдавна, още през 700-то поколение, базирано на архитектурата Kepler. В Maxwell овърклокът беше подобрен, но пак беше меко казано така-така: да, видеокартата работеше малко по-бързо, стига термопакетът да го позволяваше, допълнителни 20-30 мегахерца за ядрото и 50 -100 за памет, окабелен от завода, даде увеличение, но малко . Работеше така:


Дори и да имаше марж за температурата на GPU, производителността не се увеличи. С появата на Паскал инженерите разтърсиха това прашно блато. Boost 3.0 работи на три фронта: температурен анализ, усилване на тактовата честота и усилване на напрежението на чипа. Сега всички сокове са изцедени от графичния процесор: стандартните драйвери на NVIDIA не правят това, но софтуерът на доставчика ви позволява да изградите крива на профилиране с едно щракване, което ще вземе предвид качеството на вашата конкретна копия на видеокартата.

EVGA беше една от първите в тази област, неговата помощна програма Precision XOC има сертифициран от NVIDIA скенер, който последователно преминава през целия диапазон от температури, честоти и напрежения, постигайки максимална производителност във всички режими.

Добавете тук нова технология на процеса, високоскоростна памет, всякакви оптимизации и намаляване на топлинния пакет на чиповете и резултатът ще бъде просто неприличен. От 1500 "базови" MHz GTX 1060 може да изтръгне повече от 2000 MHz, ако се срещне добро копие и продавачът не се прецака с охлаждането.

Подобряване на качеството на картината и възприемането на света на играта

Производителността е повишена на всички фронтове, но има редица точки, в които не е имало качествени промени от няколко години: в качеството на показваното изображение. И тук не става дума за графични ефекти, те се предоставят от разработчиците на игри, а за това какво точно виждаме на монитора и как играта изглежда на крайния потребител.

Бърза вертикална синхронизация

Най-важната характеристика на Pascal е тройният буфер за извеждане на кадри, който едновременно осигурява ултра ниски закъснения при рендиране и гарантира вертикална синхронизация. Изходното изображение се съхранява в единия буфер, последният изобразен кадър се съхранява в другия, а текущият се изчертава в третия. Сбогом на хоризонтални ивици и накъсване, здравей висока производителност. Тук няма закъснения, които класическият V-Sync подхожда (тъй като никой не ограничава производителността на видеокартата и тя винаги рисува с възможно най-високата честота на кадрите), а на монитора се изпращат само напълно оформени кадри. Мисля, че след нова година ще напиша отделна голяма публикация за V-Sync, G-Sync, Free-Sync и този нов алгоритъм за бърза синхронизация от Nvidia, има твърде много подробности.

Нормални екранни снимки

Не, тези екранни снимки, които са сега, са просто срам. Почти всички игри използват куп технологии, за да направят картината в движение невероятна и спираща дъха, а екранните снимки се превърнаха в истински кошмар: вместо удивително реалистична картина, която се състои от анимация, специални ефекти, които използват особеностите на човешкото зрение, виждате някои някакъв ъгловат не разбирам какво със странни цветове и абсолютно безжизнена картина.

Новата технология NVIDIA Ansel решава проблема със скрийншотовете. Да, внедряването му изисква интегрирането на специален код от разработчиците на игри, но има минимум реални манипулации, но печалбата е огромна. Ansel знае как да постави на пауза играта, прехвърля контрола върху камерата в ръцете ви и след това - място за творчество. Можете просто да направите снимка без GUI и любимия си ъгъл.


Можете да изобразите съществуваща сцена в ултрависока разделителна способност, да заснемете 360-градусови панорами, да ги зашиете в равнина или да ги оставите в 3D за гледане в VR каска. Направете снимка с 16 бита на канал, запазете я като вид RAW файл и след това си поиграйте с експозиция, баланс на бялото и други настройки, така че екранните снимки отново да станат привлекателни. Очакваме тонове страхотно съдържание от феновете на игрите след година или две.

Обработка на видео звук

Новите библиотеки на NVIDIA Gameworks добавят много функции, достъпни за разработчиците. Те са насочени основно към VR и ускоряване на различни изчисления, както и подобряване на качеството на картината, но една от функциите е най-интересната и заслужава да се спомене. VRWorks Audio извежда работата със звука на съвсем ново ниво, като брои звука не по банални средни формули в зависимост от разстоянието и дебелината на препятствието, а извършва цялостно проследяване на аудио сигнала, с всички отражения от околната среда, реверберация и звукопоглъщане в различни материали. NVIDIA има добър видео пример за това как работи тази технология:


Гледайте по-добре със слушалки

Чисто теоретично, нищо не пречи да изпълнявате такава симулация на Maxwell, но оптимизациите по отношение на асинхронно изпълнение на инструкции и нова система за прекъсване, вградена в Pascals, ви позволяват да извършвате изчисления, без да се отразява значително на честотата на кадрите.

Паскал общо

Всъщност има още повече промени и много от тях са толкова дълбоки в архитектурата, че човек може да напише огромна статия за всяка от тях. Ключовите нововъведения са подобрен дизайн на самите чипове, оптимизация на най-ниско ниво по отношение на геометрията и асинхронна работа с пълна обработка на прекъсванията, много функции, пригодени за работа с високи резолюции и VR, и, разбира се, безумни честоти, които миналите поколения видеокарти не можеха да мечтаят. Преди две години 780 Ti едва прекрачи прага от 1 GHz, днес 1080 работи на две в някои случаи: и тук заслугата не е само в намалената технология на процеса от 28 nm до 16 или 14 nm: много неща са оптимизирани при най-ниското ниво, започвайки с дизайна на транзисторите, завършвайки с тяхната топология и свързване вътре в самия чип.

За всеки отделен случай

Линията от видеокарти от серия NVIDIA 10 се оказа наистина балансирана и доста плътно покрива всички потребителски случаи на игри, от опцията „да играят стратегия и diablo“ до „Искам топ игри в 4k“. Тестовете на играта бяха избрани според една проста техника: да се покрие възможно най-широк набор от тестове с възможно най-малък набор от тестове. BF1 е чудесен пример за добра оптимизация и ви позволява да сравните производителността на DX11 срещу DX12 при същите условия. DOOM беше избран по същата причина, само за да се сравнят OpenGL и Vulkan. Третият "Witcher" тук действа като толкова оптимизирана играчка, в която максималните графични настройки позволяват всеки флагман да бъде прецакан просто по силата на шит кода. Той използва класическия DX11, който е изпитан с времето и перфектно разработен в драйвери и е познат на разработчиците на игри. Overwatch взема рап за всички "турнирни" игри, които имат добре оптимизиран код, всъщност е интересно колко висок е средният FPS в игра, която не е много тежка от графична гледна точка, изострена за работа в " средна" конфигурация, достъпна по целия свят.

Веднага ще дам някои общи коментари: Vulkan е много ненаситен по отношение на видео паметта, за него тази характеристика е един от основните показатели и ще видите тази теза, отразена в бенчмарковете. DX12 на AMD карти се държи много по-добре, отколкото на NVIDIA, ако "зелените" показват средно намаляване на FPS на новите API, тогава "червените", напротив, показват увеличение.

младша дивизия

GTX 1050

По-младата NVIDIA (без буквите Ti) не е толкова интересна, колкото заредената си сестра с буквите Ti. Неговата съдба е игрово решение за MOBA игри, стратегии, турнирни стрелби и други игри, където детайлите и качеството на картината са от малък интерес за никого, а стабилна честота на кадрите за минимални пари е това, което лекарят е поръчал.


На всички снимки няма честота на ядрото, защото е индивидуално за всеки екземпляр: 1050 без допълнителната. мощността може да не гони, а сестра й с 6-пинов конектор лесно ще вземе условните 1,9 GHz. По отношение на мощността и дължината са показани най-популярните варианти, винаги можете да намерите видеокарта с различна схема или друго охлаждане, което не се вписва в посочените "стандарти".

DOOM 2016 (1080p, ULTRA): OpenGL - 68 FPS, Vulkan - 55 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 38 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 49 FPS, DX12 - 40 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS;

GTX 1050 има графичен процесор GP107, наследен от по-старата карта с леко подрязване на функционални блокове. 2 GB видеопамет няма да ви позволят да се развихрите, но за електронни спортове и игра на танкове е идеално, тъй като цената за младша карта започва от 9,5 хиляди рубли. Не е необходимо допълнително захранване, видеокартата се нуждае само от 75 вата от дънната платка през PCI-Express слота. Вярно е, че в този ценови сегмент има и AMD Radeon RX460, който със същите 2 GB памет е по-евтин и почти не отстъпва по качество, а за приблизително същите пари можете да получите RX460, но в 4 GB версия. Не че му помогнаха много, но някакъв резерв за бъдещето. Изборът на доставчик не е толкова важен, можете да вземете това, което е налично и не изваждате джоба си с допълнителни хиляда рубли, които е по-добре да похарчите за заветните букви Ti.

GTX 1050 Ti

Около 10 хиляди за обичайния 1050 не е лошо, но за заредената (или пълна, наречете го както искате) версия те искат малко повече (средно 1-1,5 хиляди повече), но нейното пълнене е много по-интересно . Между другото, цялата серия 1050 се произвежда не от рязане / отхвърляне на "големи" чипове, които не са подходящи за 1060, а като напълно независим продукт. Има по-малък производствен процес (14 nm), различна инсталация (кристалите се отглеждат от фабриката на Samsung), има изключително интересни екземпляри с доп. захранване: термичният пакет и базовата консумация са все същите 75 W, но потенциалът за овърклок и възможността за надхвърляне на допустимото са напълно различни.


Ако продължите да играете на FullHD резолюция (1920x1080), не планирате надстройка и останалият ви хардуер е преди 3-5 години, това е чудесен начин да увеличите производителността в играчките с малки загуби. Трябва да се съсредоточите върху решенията на ASUS и MSI с допълнително 6-пиново захранване, опциите от Gigabyte не са лоши, но цената не е толкова обнадеждаваща.

DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 44 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.

Средна дивизия

Видеокартите от 60-та линия отдавна се считат за най-добрият избор за тези, които не искат да харчат много пари и в същото време да играят на високи графични настройки във всичко, което ще бъде пуснато през следващите няколко години. Започна с GTX 260, която имаше две версии (по-проста, 192 поточни процесора и по-дебела, 216 „камъка“), продължи в 400-то, 500-то и 700-то поколение, а сега NVIDIA отново влезе в почти идеална комбинация от цени и качество. Отново са налични две „средни“ версии: GTX 1060 с 3 и 6 GB видео памет се различават не само по количеството налична RAM, но и по производителност.

GTX 1060 3GB

Кралица на електронните спортове. Разумна цена, невероятна производителност за FullHD (а в eSports рядко използват по-висока разделителна способност: там резултатите са по-важни от красотата), разумно количество памет (3 GB за минута беше преди две години във флагмана GTX 780 Ti , които струват неприлични пари). По отношение на производителността, по-младият 1060 лесно превъзхожда миналогодишния GTX 970 със запомнящите се 3,5 GB памет и лесно влачи за ушите предминалния супер-флагман 780 Ti.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 70 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 92 FPS, DX12 - 85 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS.

Тук абсолютният фаворит като цена и ауспух е версията на MSI. Добри честоти, тиха охладителна система и нормални размери. За нея те не искат нищо, в района на 15 хиляди рубли.

GTX 1060 6GB

Версията с 6 GB е бюджетният билет за VR и високи разделителни способности. Няма да гладува за памет, малко по-бърз е във всички тестове и уверено ще надмине GTX 980, където миналогодишната видеокарта няма да има достатъчно 4 GB видео памет.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 73 FPS;
Battlefield 1 (1080p, ULTRA): DX11 - 94 FPS, DX12 - 90 FPS;
Overwatch (1080p, ULTRA): DX11 - 166 FPS.

Бих искал още веднъж да отбележа поведението на видеокартите при използване на Vulkan API. 1050 с 2 GB памет - FPS спад. 1050 Ti с 4 GB - почти на ниво. 1060 3 GB - усвояване. 1060 6 GB - растеж на резултатите. Тенденцията, мисля, е ясна: Vulkan се нуждае от 4+ GB видео памет.

Проблемът е, че и двете 1060 не са малки видео карти. Изглежда, че топлинният пакет е разумен и платката там е наистина малка, но много производители решиха просто да обединят охладителната система между 1080, 1070 и 1060. Някой има видеокарти с височина 2 слота, но дълги 28+ сантиметра, някой е направил те са по-къси, но по-дебели (2,5 слота). Избирайте внимателно.

За съжаление, допълнителни 3 GB видео памет и отключена изчислителна единица ще ви струват ~ 5-6 хиляди рубли в допълнение към цената на 3-гигабайтната версия. В този случай Palit има най-интересните опции за цена и качество. ASUS пусна чудовищни ​​28 см охладителни системи, които са изваяни на 1080, 1070 и 1060 и такава видеокарта няма да пасне никъде, версиите без фабричен овърклок струват почти същото, а ауспухът е по-малък и искат повече за сравнително компактни MSI, отколкото конкуренти при приблизително същото ниво на качество и фабричен овърклок.

Висша лига

Да играеш за всички пари през 2016 г. е трудно. Да, 1080 е безумно готин, но перфекционистите и хардуерните хора знаят, че NVIDIA КРИЕ съществуването на супер-флагмана 1080 Ti, който трябва да е невероятно готин. Първите спецификации вече изтичат онлайн и е ясно, че зелените чакат червено-белите да се намесят: някакъв супер-пистолет, който може да бъде незабавно поставен на място от новия крал на 3D графиката, великият и мощен GTX 1080 Ti. Е, засега имаме това, което имаме.

GTX 1070

Миналогодишните приключения на мега-популярния GTX 970 и неговата не съвсем честна-4-гигабайтова-памет бяха активно подредени и изсмукани из целия интернет. Това не й попречи да се превърне в най-популярната графична карта за игри в света. Преди промяната на годината в календара, той заема първо място в проучването на Steam за хардуер и софтуер. Това е разбираемо: комбинацията от цена и производителност беше просто перфектна. И ако сте пропуснали миналогодишния ъпгрейд и 1060 не изглежда достатъчно гаден, GTX 1070 е вашият избор.

Резолюции от 2560x1440 и 3840x2160 видеокартата усвоява с гръм и трясък. Системата за овърклок Boost 3.0 ще се опита да добави дърва за огрев, когато натоварването на графичния процесор се увеличи (тоест в най-трудните сцени, когато FPS пада под натиска на специални ефекти), овърклоквайки процесора на видеокартата до умопомрачителните 2100+ MHz. Паметта лесно изкарва 15-18% от ефективната честота над фабричните стойности. Чудовищно нещо.


Внимание, всички тестове се извършват в 2.5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks Off): DX11 - 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.

Разбира се, невъзможно е да извадите ултра-настройки в 4k и никога да не паднете под 60 кадъра в секунда нито с тази карта, нито с 1080, но можете да играете на условни „високи“ настройки, като изключите или леко намалите най-ненаситните функции напълно разделителна способност, а по отношение на действителната производителност графичната карта лесно бие дори миналогодишната 980 Ti, която струва почти двойно повече. Gigabyte има най-интересната опция: успяха да натъпчат пълноценен 1070 в ITX-стандартен корпус. Благодарение на скромния термичен пакет и енергийно ефективния дизайн. Цените на картите започват от 29-30 хиляди рубли за вкусни опции.

GTX 1080

Да, флагманът няма буквите Ti. Да, не използва най-големия графичен процесор, предлаган от NVIDIA. Да, тук няма страхотна памет HBM 2 и графичната карта не прилича на Звезда на смъртта или, в краен случай, на имперски крайцер от клас Star Destroyer. И да, това е най-страхотната графична карта за игри в момента. Един по един взема и стартира DOOM с резолюция 5k3k при 60fps при ултра настройки. Всички нови играчки са обект на него и през следващите година или две няма да има проблеми: докато новите технологии, вградени в Pascal, станат широко разпространени, докато двигателите на игрите се научат как ефективно да зареждат наличните ресурси ... Да, след няколко години ще кажем: „Ето, вижте GTX 1260, преди няколко години ви трябваше флагман, за да играете на тези настройки“, но засега най-добрите от най-добрите графични карти са налични преди новата година на много разумна цена цена.


Внимание, всички тестове се извършват в 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks Off): DX11 - 55 FPS;
Battlefield 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.

Остава само да решите: имате ли нужда от това или можете да спестите пари и да вземете 1070. Няма голяма разлика между играта на „ултра“ или „високи“ настройки, тъй като съвременните двигатели перфектно рисуват картина с висока разделителна способност дори при средна настройки: в крайна сметка имаме вие ​​не сте сапунени конзоли, които не могат да осигурят достатъчно производителност за честни 4k и стабилни 60fps.

Ако изхвърлим най-евтините опции, тогава Palit отново ще има най-добрата комбинация от цена и качество във версията GameRock (около 43-45 хиляди рубли): да, охладителната система е „дебела“, 2,5 слота, но видеокартата е по-къс от конкурентите и рядко се инсталира чифт 1080. SLI бавно умира и дори животворната инжекция на високоскоростни мостове не му помага много. Вариантът ASUS ROG не е лош, ако имате инсталирани много екстри. не искате да покривате допълнителни слотове за разширение: видеокартата им е с дебелина точно 2 слота, но изисква 29 сантиметра свободно пространство от задната стена до кошницата на твърдия диск. Чудя се дали Gigabyte ще може да пусне това чудовище в ITX формат?

Резултати

Новите видеокарти на NVIDIA просто погребаха пазара на използван хардуер. На него оцелява само GTX 970, който може да бъде грабнат за 10-12 хиляди рубли. Потенциалните купувачи на използвани 7970 и R9 280 често нямат къде да го поставят и просто не го хранят, а много опции от вторичния пазар са просто необещаващи и като евтин ъпгрейд за няколко години напред те не са добри: има малко памет, новите технологии не се поддържат. Красотата на новото поколение видеокарти е, че дори игрите, които не са оптимизирани за тях, работят много по-весело, отколкото на ветерани GPU класации от минали години и е трудно да си представим какво ще се случи след една година, когато двигателите на игрите се научат да използват пълноценно силата на новите технологии.

GTX 1050 и 1050Ti

Уви, не мога да препоръчам закупуването на най-евтиния Pascal. RX 460 обикновено се продава с хиляда-две по-малко и ако бюджетът ви е толкова ограничен, че вземете видеокарта „за най-новата“, тогава Radeon е обективно по-интересна инвестиция. От друга страна 1050 е малко по-бърз и ако цените във вашия град за тези две видео карти са почти еднакви, вземете го.

1050Ti, от своя страна, е страхотна опция за тези, които ценят историята и играта повече от звънците и свирките и реалистичните косми по носа. Той няма пречка под формата на 2 GB видео памет, няма да „падне“ след една година. Можете да заложите пари - направете го. The Witcher на високи настройки, GTA V, DOOM, BF 1 - няма проблем. Да, ще трябва да се откажете от редица подобрения, като изключително дълги сенки, сложна теселация или „скъпото“ изчисление на самозасенчващи се модели с ограничено проследяване на лъчи, но в разгара на битката ще забравите за тези изящества след 10 минути игра, а стабилните 50-60 кадъра в секунда ще дадат много по-завладяващ ефект от нервните скокове от 25 до 40, но с настройки на "максимум".

Ако имате Radeon 7850, GTX 760 или по-млади видео карти с 2 GB видео памет или по-малко, можете спокойно да смените.

GTX 1060

По-младият 1060 ще зарадва тези, за които скоростта на кадрите от 100 FPS е по-важна от графичните звънци и свирки. В същото време ще ви позволи удобно да играете всички пуснати играчки във FullHD резолюция с високи или максимални настройки и стабилни 60 кадъра в секунда, а цената е много различна от всичко, което идва след него. По-старият 1060 с 6 гигабайта памет е безкомпромисно решение за FullHD с марж на производителността за година-две, познаване на VR и напълно приемлив кандидат за игра във високи резолюции при средни настройки.

Няма смисъл да сменяте GTX 970 с GTX 1060, ще отнеме още една година. Но досадните 960, 770, 780, R9 280X и по-старите устройства могат безопасно да се актуализират до 1060.

Топ сегмент: GTX 1070 и 1080

1070 едва ли ще стане толкова популярен, колкото GTX 970 (въпреки това повечето потребители имат цикъл на актуализация на желязо на всеки две години), но по отношение на цена и качество със сигурност е достойно продължение на 70-та линия. Той просто грайндва игри при мейнстрийм 1080p, лесно се справя с 2560x1440, издържа на изпитанието на неоптимизираните 21 към 9 и е доста способен да показва 4k, макар и не при максимални настройки.


Да, SLI също може да бъде такъв.

Казваме сбогом на всеки 780 Ti, R9 390X и други миналогодишни 980, особено ако искаме да играем във висока разделителна способност. И да, това е най-добрият вариант за тези, които обичат да изграждат адска кутия във формат Mini-ITX и да плашат гостите с 4k игри на 60-70 инчов телевизор, който работи на компютър с размерите на кафемашина.
История на графичната карта gtx 1050 Добавете тагове

NVIDIA се готви да пусне нова серия графични карти за игри, която ще бъде открита от GeForce GTX 1080. Този модел ще бъде първият продукт от игрови клас, базиран на архитектурата Pascal. GeForce GTX 1080 ще донесе редица технологични иновации, които ще разгледаме в тази статия. Материалът ще бъде от теоретичен характер, обсъжда архитектурните характеристики и новите функции на GeForce GTX 1080. Тестването и сравнението с други видеокарти ще се появи по-късно.

Бързият напредък в миниатюризацията на силиконовите чипове през последните години се забави. Intel дори изостави стратегията тик-так, която включваше редовен преход към по-тънка технология на процеса. Няколко поколения продукти на NVIDIA и AMD се промениха на пазара на графични ускорители в рамките на един 28-nm технологичен процес. Отчасти това беше от полза и принуди производителите да обърнат повече внимание на развитието на архитектурата. Този качествен преход беше ясно видим по едно време при преминаването от Kepler към архитектурата Maxwell, когато новото поколение се оказа по-производително и енергийно ефективно, без да се увеличава броят на транзисторите или дори да се намалява размерът на кристалите. Например, GeForce GTX 980 е базиран на по-компактен чип GM204, което не пречи на видеокартата да демонстрира по-висока производителност в сравнение с GeForce GTX 780 Ti с по-сложен чип GK110.

Новото поколение GeForce ще получи както нова архитектура, така и по-тънък технологичен процес. А GeForce GTX 1080 е пионер в много отношения. Това е първият GPU с архитектура Pascal с GPU GP104, базиран на 16nm FinFET технология. Сред важните новости NVIDIA отбелязва бързата GDDR5X памет. Новите технологични характеристики ви позволяват да повишите честотите до рекордни нива, определяйки ново ниво на "майсторство". А новите технологии за игри разширяват възможностите на GeForce, особено в областта на работата с VR съдържание. Това са петте основни характеристики, които производителят подчертава в нов продукт.

Заслужава да се отбележи, че първоначално специализираният изчислителен ускорител Tesla P100 стана пионер на архитектурата Pascal. Базиран е на процесор GP100. Но тъй като продуктът е фокусиран върху напълно различна област на приложение, именно GeForce GTX 1080 е пионерът сред настолните графични ускорители.

GPU GP104 е наследник на GM204, така че когато изучавате GeForce GTX 1080, можете да надграждате върху GeForce GTX 980, въпреки че новодошлият е по-бърз от GeForce GTX 980 Ti и GeForce GTX Titan X. Процесорите Pascal използват клъстерна структура, подобна на техните предшественици, където GPC клъстерът (Graphics Processing Cluster) е по същество независима изчислителна единица. GP100 е базиран на шест клъстера, GP104 има четири клъстера, а следващият чип GP106 трябва да получи два клъстера. Четири GPC правят новия GPU GP104 възможно най-близо до GM204. И блоковата схема на този чип също наподобява стар процесор.

Разликите в структурата стават очевидни при по-внимателно разглеждане. В миналото поколение клъстерът включваше четири големи многопроцесорни SMM единици. В GP104 долните изпълнителни модули са групирани в пет SM мултипроцесорни блока. Всяка такава голяма единица за обработка на данни е свързана със собствена геометрична единица за обработка на Polymorph Engine, от която сега има 20 вместо 16 за GM204.

Един SM е разделен на четири масива за обработка на данни със собствена контролна логика и това също е подобно на структурата на по-старите GPU. И в двата случая мултипроцесорът работи със 128 поточни ядра (CUDA ядра). SM има 96 KB споделен кеш, отделен кеш за текстури и осем текстурни единици. В резултат на това имаме конфигурация от 2560 поточни процесора и 160 текстурни единици. Новият процесор има 64 ROPs и 2 MB L2 кеш - няма разлики от GM204.

Има повече контролери на паметта, Pascal промени цялата подсистема на паметта. Вместо четири 64-битови контролера са внедрени осем 32-битови контролера, което осигурява ширина на шината на паметта от 256 бита. След успешната GeForce GTX 980 такава шина на паметта в топ продукт вече не е изненадваща. В същото време ефективността на шината на GeForce GTX 1080 е по-висока поради новите алгоритми за компресиране на данни. Също така, увеличаването на пропускателната способност се осигурява от микросхеми на новия стандарт GDDR5X, при които ефективната стойност на обмен на данни е еквивалентна на честота от 10 GHz. Обичайната GDDR5 памет беше ограничена до честоти до 7 GHz. Видеобуферът е увеличен до 8 GB.

Благодарение на новата технология на процеса, GP104 е по-компактен от GM204 с повече изчислителни единици. В същото време новият процесор има повече възможности за увеличаване на честотите. Първоначално беше зададена базова стойност от 1607 MHz със среден Boost Clock от 1733 MHz. Стойностите на пиковата честота са дори по-високи. С такива рекордни честоти GeForce GTX 1080 се вписва в TDP от 180 W, което е малко по-високо от GeForce GTX 980. Но новодошлият е по-бърз от топ версията Ti, която има забележимо по-висок TDP.

За визуално сравнение, нека обобщим характеристиките на GeForce GTX 1080 и най-добрите видеокарти от предишни поколения в една таблица.

Видео адаптер GeForce GTX 1080 GeForce GTX Titan X GeForce GTX 980 Ti GeForce GTX 980 GeForce GTX 780 Ti
Ядро GP104 GM200 GM200 GM204 GK110
Брой транзистори, милиона броя 7200 8000 8000 5200 7100
Технология на процеса, nm 16 28 28 28 28
Основна площ, кв. мм 314 601 601 398 561
Брой поточни процесори 2560 3072 2816 2048 2880
Брой текстурни блокове 160 192 176 128 240
Брой рендерни единици 64 96 96 64 48
Честота на ядрото, MHz 1607-1733 1000-1075 1000-1075 1126-1216 875-926
Шина на паметта, бит 256 386 386 256 384
Тип памет GDDR5X GDDR5 GDDR5 GDDR5 GDDR5
Честота на паметта, MHz 10010 7010 7010 7010 7010
Размер на паметта, MB 8192 12288 6144 4096 3072
Поддържана версия на DirectX 12.1 12.1 12.1 12.1 12.0
Интерфейс PCI-E3.0 PCI-E3.0 PCI-E3.0 PCI-E3.0 PCI-E3.0
Мощност, W 180 250 250 165 250

Графичните карти от среден и висок клас на NVIDIA отдавна разполагат с технологията GPU Boost, която увеличава честотата на графичния процесор, докато надхвърли границите на температурата или мощността. Минималната стойност за 3D режим е базовата честота, но често при нормално игрово натоварване честотите винаги са по-високи. Новите GeForces получиха подобрена технология GPU Boost 3.0 с по-гъвкав алгоритъм за промяна на честотата в зависимост от захранващото напрежение в режим на честотно ускорение. GPU Boost 2.0 има фиксирана разлика между базовата стойност и Turbo честотата. GPU Boost 3.0 ви позволява да използвате различни честотни компенсации, което ще разкрие по-добре потенциала на GPU. Теоретично, когато параметрите се променят автоматично в режим Boost с увеличаване или намаляване на напрежението, честотата ще се промени нелинейно, в някои моменти делтата на Boost може да е по-голяма, отколкото би била с GPU Boost Стара версия. Нови гъвкави опции за настройка на Boost ще бъдат достъпни за потребителите. Най-новата версия на помощната програма EVGA Precision вече поддържа GeForce GTX 1080, сред нейните характеристики е автоматичен скенер с тест за стабилност, който може да генерира нелинейна честотна крива на Boost за различни напрежения. Преходът към нова технология на процеса и оптимизирането на структурата на ядрото направи възможно постигането на толкова значително ускорение на честотата, че максималното усилване спрямо декларираните стойности може да бъде увеличено до 2 GHz.

От появата на GDDR5, NVIDIA работи върху следващото поколение високоскоростна памет. Резултатът от взаимодействието с разработчиците на памет беше появата на GDDR5X със скорост на предаване на данни 10 Gb / s. Работата с такава бърза памет поставя нови изисквания към окабеляването на електрическите вериги. Поради това линиите за предаване на данни между GPU и чиповете с памет бяха преработени, структурата на самия чип беше променена. Всичко това ви позволява да работите ефективно с ултра-бърз видео буфер. Сред предимствата на GDDR5X е по-ниското работно напрежение от 1,35 V.

С ефективна честота на паметта от 10 000 MHz, увеличението на честотната лента спрямо обичайните 7012 MHz за текущото поколение е почти 43%. Но предимствата на Pascal не спират дотук. GeForce поддържа специални алгоритми за компресиране на данни в паметта, което позволява по-ефективно използване на кеша и прехвърляне на повече данни за същата честотна лента. Поддържат се няколко техники, в зависимост от типа на данните се избира различен алгоритъм за компресиране. Важна роля играе алгоритъмът за делта цветова компресия. Благодарение на него не се кодира цветът на всеки отделен пиксел, а разликата между пикселите при серийно предаване на данни. Изчислява се среден цвят на плочката и данни за цветовото отместване за всеки пиксел от тази плочка.

Тази компресия прави Maxwell много продуктивна, но Pascal е още по-ефективен. GPU GP104 допълнително поддържа нови алгоритми с още по-голяма компресия за случаите, когато разликата в цвета е минимална.

Като пример NVIDIA цитира два слайда от играта Project CARS. Тези плочки, където е приложено компресиране на данни, са боядисани в розово върху тях. Горният слайд показва работата на компресията на Maxwell, долният на Pascal.

Както можете да видите, Pascal компресията се прилага и в онези области, където не се извършва на Maxwell. В резултат на това почти целият кадър беше компресиран. Разбира се, ефективността на такива алгоритми зависи от всяка конкретна сцена. Според NVIDIA разликата в тази ефективност между GeForce GTX 1080 и GeForce GTX 980 варира от 11% до 28%. Ако вземем 20% като средна стойност, тогава като вземем предвид увеличението на честотите на паметта, полученото увеличение на пропускателната способност е около 70%.

Следващото поколение GeForce поддържа Async Compute с подобрено използване на изчисленията за различни видовезадачи. В съвременните игри GPU могат да изпълняват други задачи едновременно с изобразяването на изображения. Това може да бъде изчисляване на физиката на телата, последваща обработка на изображения и специална техника за асинхронно изкривяване на времето (Asynchronous Time Warp) за режим на виртуална реалност. Когато изпълнявате различни задачи, не винаги участват всички изчислителни единици и изпълнението на всяка задача може да отнеме различно време. Например, ако неграфичните изчисления отнемат повече време от графичните изчисления, тогава той все още чака всеки процес да завърши, за да превключи към нови задачи. В същото време част от ресурсите на GPU са неактивни. Pascal въведе динамично балансиране на натоварването. Ако една задача е изпълнена по-рано, тогава освободените ресурси се свързват с друга задача.

По този начин е възможно да се избегне престой и да се увеличи общата производителност с комбинирано натоварване на GPU. При такова натоварване скоростта на превключване между задачите също играе важна роля. Pascal поддържа прекъсване на задача на различни нива за възможно най-бързо превключване. Когато се получи нова команда, процесорът прекъсва задачите на нивата на обработка на пиксели и потоци, запазвайки тяхното състояние за по-нататъшно завършване, а изчислителните единици се поемат за нова задача. Pascal поддържа прекъсвания на ниво инструкция, Maxwell и Kepler само на ниво нишка.

Прекъсването на различни нива ви позволява по-точно да определите момента на превключване на задачата. Това е важно за техниката Asynchronous Time Warp, която деформира вече формирано изображение, преди да го изведе за корекция според позицията на главата. С Asynchronous Time Warp се нуждаете от бърз изход за превключване стриктно преди показването на рамката, в противен случай са възможни артефакти под формата на „трептене“ на картината. Паскал се справя най-добре с тази задача.

Pascal представи хардуерна поддръжка за мултипрожекционна технология, която ви позволява да работите едновременно с различни проекции на изображения. Специален блокЕдновременната мулти-проекция в PolyMorph Engine е отговорна за генерирането на различни проекции при обработката на единичен геометричен поток. Този блок обработва геометрията едновременно за 16 проекции с един или два перспективни центъра. Това не изисква повторна обработка на геометрията и позволява данните да бъдат репликирани до 32 пъти (16 проекции по две точки).

Благодарение на технологията можете да получите правилното изображение при конфигурации с няколко монитора. При използване на три монитора изображението се изобразява за една проекция. Ако крайните монитори се завъртят под лек ъгъл, за да се създаде ефект на атмосфера, тогава ще получите неправилна геометрия в страничните зони. Мултипроекцията създава правилното изображение, образувайки правилната проекция в съответствие с ъгъла на монитора. Единственото условие за този режим е самото приложение да поддържа широк FOV.

Тази техника за изобразяване позволява най-ефективното използване на извити панели и също така отваря възможности за правилно изобразяване на други устройства за показване, дори на сферичен екран.

Тази технология разширява възможностите на Pascal при формирането на стерео изображение и в системите за виртуална реалност (VR). В стерео режим се генерират две изображения на една и съща сцена за всяко око. Хардуерната поддръжка за едновременна мулти-проекция ви позволява да създавате всяка проекция за вашето око с обработка на единична геометрия, използвайки технологията Single Pass Stereo. И значително ускорява работата в този режим.

При VR системите потребителят използва очила със специални лещи, които въвеждат определени изкривявания. За компенсация изображението е леко деформирано по краищата и потребителят в крайна сметка наблюдава изображението, коригирано от обектива. Но първоначално видеокартата очертава изображението в обичайната плоска проекция и след това част от периферното изображение изчезва.

Технологията Lens Matched Shading може да раздели изображение на четири квадранта и след това да вземе проби от пиксели. Тоест картината първоначално се проектира върху няколко равнини, които симулират извитата форма на лещата.

Крайното изображение се изобразява с по-ниска резолюция, ненужните области се изрязват. Първоначално изображението на Oculus Rift е 1,1 мегапиксела на око, но оригиналната плоска проекция се изобразява на 2,1 мегапиксела. Благодарение на Lens Matched Shading, първоначалното изображение ще бъде 1,4 мегапиксела. Това ви позволява значително да увеличите производителността в режим VR.

Виртуалната реалност е обещаваща посока, която ще разшири опита от взаимодействието с виртуалната среда и ще даде на играчите нови усещания. NVIDIA активно подкрепя развитието на VR. Един от ограничаващите фактори за популяризирането на VR системите са високите изисквания за производителност на графичния ускорител. Специалните технологии и хардуерната оптимизация допринасят за качествено повишаване на производителността в тази посока. Компанията пусна цялостен набор от VRWorks от специални API, библиотеки и софтуерни машини. Той включва инструменти за работа с Single Pass Stereo и Lens Matched Shading. Той също така включва технология MultiRes Shading, която ви позволява да променяте разделителната способност в страничните зони по време на VR рендиране, за да намалите натоварването.

Ефектът на присъствие се свързва не само със зрителните усещания, но и с други сетива. Звукът също играе важна роля. Ето защо NVIDIA разработи VRWorks Audio технология за пресъздаване на реалистичен звук въз основа на позицията на източника. звукови вълнии отражения от повърхности. Технологията използва двигателя OptiX, който първоначално е бил използван за рендиране на осветление чрез метода за проследяване на лъчи. Проследява пътя на звуковите "лъчи" от източника до отразяващите повърхности и обратно. Този прогресивен метод ще ви позволи да пресъздадете реалистичен звук, като вземете предвид акустичните характеристики на виртуалната стая и с налагането на отразени звуци. Научете повече за NVIDIA VRWorks Audio във видеото:

Можете да подобрите ефекта на потапяне, като взаимодействате с виртуалната среда. Сега интерактивността се осъществява чрез позиционно проследяване и проследяване на ръчни контролери. На базата на PhysX е създаден механизъм, който определя дали ще има взаимодействие при виртуален контакт с един или друг обект. Също така с PhysX можете да реализирате физически надеждни ефекти, когато сте изложени на виртуална среда.

Новото поколение видео карти има поддръжка за VR SLI. Този режим предвижда, че отделен GPU ще обработва изображението за всяко око в режим VR. Този метод елиминира забавянията в работата на SLI и осигурява по-добра производителност. Поддръжката за VR SLI ще бъде внедрена в Unreal Engine 4 и Unity, което ни позволява да се надяваме на по-голямо популяризиране на тази технология с нарастването на наличието на системи за виртуална реалност.

Технологията Simple SLI също е актуализирана. По-старите видеокарти GeForce винаги имаха два конектора за SLI мостове. Тези мостове са необходими за превключване на всички видеокарти една с друга в 3-Way и 4-Way SLI режими. Сега в простия SLI две видео карти могат да използват два комуникационни интерфейса наведнъж, увеличавайки общата производителност.

Новият метод на превключване изисква нови SLI HB двойни мостове. Поддръжката за споделен режим при свързване чрез обикновен единичен мост се запазва. Двойният мост се препоръчва за високи резолюции - 4K, 5K и системи с няколко монитора. Мостът на скоростта също се препоръчва при 2K с монитор от 120Hz или по-бърз. В по-прости режими можете да се справите с мост в стар стил.

GeForce GTX 1080 е увеличила скоростта на самия интерфейс – от 400 MHz на 650 MHz. Може да се реализира с нови мостове и някои версии на стария формат. Увеличаването на скоростта на данни в SLI осигурява по-плавни промени в рамката и известно увеличение на производителността в тежки режими.

Възможностите за изобразяване на няколко GPU в DirectX 12 са подобрени. Два основни вида работа се поддържат с такива конфигурации: Multi Display Adapter (MDA) и Linked Display Adapter (LDA). Първият ви позволява да работите заедно с различни графични процесори, включително комбиниране на потенциала на интегрирана и външна графика. LDA е проектиран да споделя подобни решения. Неявният LDA се използва основно в SLI, което осигурява широка съвместимост с приложения на софтуерно ниво. Експлицитните LDA и MDA дават повече възможности на разработчиците, но от тях зависи да осигурят този режим във всяко приложение.

Също така си струва да се отбележи, че поддръжката на SLI е официално обявена само в конфигурация от две GeForce GTX 1080. Теоретично са възможни по-сложни конфигурации в режимите Explicit LDA и MDA. Интересното е, че в същото време NVIDIA предлага отключване на 3-Way и 4-Way режими с помощта на специален код за ентусиасти. За да направите това, ще трябва да направите специална заявка на уебсайта на компанията за идентификатора на вашия GPU.

Поддръжката на Fast Sync е добавена към графичния процесор GP104. Тази технология е алтернатива на включването или изключването на V-sync. В бързи игри (особено игри с много играчи), високата честота на кадрите осигурява максимална отзивчивост към действията на потребителя. Но ако честотата на опресняване на монитора бъде превишена, са възможни артефакти под формата на счупвания на изображението. Това неутрализира вертикалната синхронизация, която осигурява известно забавяне по пътя. Fast Sync ви позволява да показвате максималния брой кадри без възможни пропуски. Това се осигурява от хардуерни промени в тръбопровода за изход на изображение. Използва се троен буфер вместо традиционния двоен буфер и се извежда само напълно изобразеният кадър.

С Fast Sync можете да играете на обикновен монитор при 100-200 fps без визуални артефакти и с минимални закъснения, както в нормален режим с деактивиран VSync. По-долу са резултатите от проучване на закъсненията при показване на изображение в различни режимив играта Counter-Strike: Global Offensive.

Както можете да видите, има малка разлика между Fast Sync и деактивиран VSync, но тя не може да се сравни със закъсненията на изходния кадр с активен VSync.

Ако говорим не за максимална отзивчивост, а за максимална гладкост на изображението, тогава тя се осигурява от технологията G-Sync, която се изпълнява заедно със специални монитори. G-Sync осигурява пълна хардуерна синхронизация на показаните кадри с честотата на опресняване на екрана.

GeForce GTX 1080 може да извежда през DVI, HDMI и DisplayPort. Поддържат се DisplayPort 1.2 и HDMI 2.0b с HDCP 2.2, но графичната карта също е готова за DisplayPort 1.3/1.4. Когато използвате последния, 4K при 120Hz или 8K (7680x4320) при 60Hz могат да бъдат изведени чрез два DisplayPort 1.3 кабела. За сравнение, трябва да се отбележи, че GeForce GTX 980 може да извежда само 5120x3200, когато се превключва чрез два DisplayPort кабела.

Стандартната версия на GeForce GTX 1080 е оборудвана с три DisplayPort порта, един HDMI и един Dual-Link DVI.

Процесорът GP104 получи подобрен блок за декодиране / кодиране на видео с поддръжка на стандарта PlayReady 3.0 (SL3000) и хардуерно декодиране HEVC с поддръжка на висококачествено 4K / 8K видео. Пълните възможности на GeForce GTX 1080 спрямо GeForce GTX 980 са показани в таблицата по-долу.

В списъка с иновации GeForce GTX 1080 поддържа HDR съдържание и дисплеи. Този стандарт е голям пробив в технологията, осигуряващ 75% покритие на видимото цветово пространство вместо 33% за RGB при 10/12 битова дълбочина на цвета. Такива дисплеи показват повече нюанси, имат по-висока яркост и по-дълбок контраст, което ви позволява да виждате по-фини цветови нюанси. В момента вече се пускат телевизори с HDR, монитори се очакват през следващата година.

В допълнение към HDR декодирането се поддържа и хардуерно кодиране, което ще ви позволи да записвате видео по този стандарт. И функцията за HDR стрийминг за игровата конзола Shield ще бъде добавена скоро.

NVIDIA работи с разработчиците, за да внесе HDR в компютърните игри. В резултат на това Rise of the Tomb Raide, Tom Clancy's The Division, The Talos Principle, Paragon, втората част на Shadow Warrior и други игри ще получат HDR поддръжка.

Съвременните игри се променят, играчите показват нови интереси и желание да погледнат любимата си игра от нов ъгъл. Понякога обикновена екранна снимка се превръща в нещо повече от обикновен кадър от играта. А с NVIDIA Ansel всяка екранна снимка може да бъде необикновена. Това е нова технология за заснемане на изображения с набор от специални функции. Ansel ви позволява да прилагате филтри, да подобрявате изображението, да използвате безплатна камера и да създавате панорами. За пълна функционалност е необходима поддръжка на приложението. За да направите това, Ansel предоставя проста интеграция. Например, за да интегрират Ansel в The Witcher 3, разработчиците добавиха само 150 реда код, а логическата игра Witness се нуждаеше от 40 реда код.

Ansel поставя играта в режим на пауза и след това ви позволява да извършвате различни операции. Например, можете да смените камерата и да изберете произволен ъгъл. Някои ограничения са възможни само ако разработчиците умишлено ограничават движението на безплатната камера.

Можете да увеличите разделителната способност на крайното изображение и да увеличите нивото на LOD, за да постигнете максимална яснота във всички детайли. Увеличаването на мащаба е комбинирано с допълнително анти-алиасинг за най-добър ефект.

Освен това Ansel ви позволява да създавате гигантски изображения до 4,5 гигапиксела. Такива изображения се зашиват от отделни фрагменти, което се извършва на хардуерно ниво. Освен това към крайното изображение могат да се приложат различни постефекти. Изображението може да бъде запазено в RAW формат или EXR с 16-битово цветово кодиране. Това ще даде широки възможности за последваща работа с него.

Можете да създавате стерео панорами и 360-градусови снимки, които след това да гледате в очила за виртуална реалност.

Има голямо разнообразие от ефекти, които могат да бъдат приложени към заснетото изображение - зърно, цъфтеж, сепия, ефекти на обектива и много други, до създаване на картина с ефект на рибешко око. Широките възможности на Ansel са невероятни. Играчът получава възможности, които просто не са съществували преди.

След като проучихме архитектурата и новите технологии, трябва да разгледаме самата GeForce GTX 1080. Референтната версия изглежда като предишните модели с леко актуализиран дизайн и по-остри очертания.

Обратната страна е защитена от две плочи, което наподобява "резервацията" на GeForce GTX 980.

Цялостният дизайн на охлаждането остана непроменен. Охладителят работи на принципа на турбина. Има голяма основа, оребрен радиатор за охлаждане на GPU и допълнителен радиатор в близост до захранващия възел за по-добро охлаждане на силовите елементи.

Ще разгледаме всички останали нюанси в отделна статия, където в същото време ще проведем сравнителни тестове. Ако говорим за предварителните оценки на производителя, NVIDIA сравнява новия продукт с GeForce GTX 980 и говори за предимство от около 70% в прости игри и разлика от повече от 2,5 пъти в режим VR. Разликата с GeForce GTX 980 Ti ще бъде по-малка, но можем да говорим за някои конкретни стойности след практически тестове.

заключения

Време е да обобщим нашето теоретично запознаване с GeForce GTX 1080. Тази видеокарта в момента е най-технологичният продукт сред графичните ускорители. GeForce GTX 1080 разполага с 16nm Pascal процесор и нова GDDR5X памет за първи път. Самата архитектура е разработка на Maxwell с оптимизации и нови функции за DirectX 12. Архитектурните подобрения са значително подобрени чрез значително увеличение на честотите на GPU и паметта. Много значителен напредък в областта на рендирането на VR благодарение на новите технологии, които ускоряват работата в този режим. Прогресивна иновация е поддръжката на HDR дисплеи и свързано съдържание. Благодарение на новия модул за обработка на видео, още повече възможности за възпроизвеждане и запис на видео с висока разделителна способност, включително работа с HDR формат. Феновете на ултрадинамичните мултиплейър игри ще оценят технологията Fast Sync. Ценителите на виртуалната красота ще останат доволни от възможностите на Ansel. Купувайки GeForce GTX 1080, вие получавате не само най-бързия видео ускорител в момента, но и най-функционалния.

Официално този модел ще бъде достъпен за клиенти след 27 май. Първо ще бъдат пуснати в продажба референтните дизайнерски версии на Founders Edition. Те ще имат по-висока цена. Малко по-късно ще бъдат пуснати нестандартни опции, чиято цена е със $100 по-ниска. Е, докато GeForce GTX 1080 се появи на вътрешния пазар, ние ще се опитаме, като част от голям тест, да разкрием напълно техния потенциал в сравнение със съществуващите видео карти от най-висок клас.

Преглед на Nvidia GeForce GTX 1080 Pascal | Запознайте се с GP104 GPU

В навечерието на Computex Nvidia реши да представи дългоочакваната си новост - архитектурата Pascal, адаптирана за геймърите. В новите графични карти GeForce GTX 1080 и 1070 производителят инсталира графичен процесор GP104. Днес ще прегледаме по-стария модел, а по-младият трябва да бъде в ръцете ни в началото на юни.

Архитектурата Pascal обещава по-бързо и повече ефективна работа, повече изчислителни модули, намалена площ на матрицата и по-бърза памет с надстроен контролер. Той е по-подходящ за VR, 4K игри и други приложения, изискващи висока производителност.

Както винаги, ще се опитаме да разберем обещанията на производителя и да ги тестваме на практика. Да започваме.

Ще промени ли GeForce GTX 1080 баланса на силите в сегмента от висок клас?

Nvidia GeForce GTX 1080 е най-бързата от двете графични карти за игри, обявени по-рано този месец. И двете използват GPU GP104, който между другото вече е вторият GPU с микроархитектура на Pascal (първият беше GP100, който се появи на GTC през април). Изпълнителният директор на Nvidia Рен-Сун Хуан подразни ентусиастите, когато представи новия продукт пред широката публика, твърдейки, че GeForce GTX 1080 ще надмине две 980s в SLI.

Той също така отбеляза, че GTX 1080, с по-добра производителност, има по-ниска консумация на енергия от серията 900. Той е два пъти по-бърз и три пъти по-ефективен от бившия флагман GeForce Titan X, но ако погледнете придружаващите графики и диаграми, се оказва, че такава впечатляваща разлика се проявява при определени задачи, свързани с виртуалната реалност. Но дори ако тези обещания са само частично потвърдени, все още ни очакват много интересни времена по отношение на развитието на игри от висок клас за компютър.

Виртуалната реалност бавно набира скорост, но високите хардуерни изисквания към графичната подсистема създават значителна бариера пред достъпа до тези технологии. Освен това повечето от наличните днес игри не знаят как да се възползват от мултипроцесорното изобразяване. Тоест обикновено сте ограничени до възможностите на един бърз видео адаптер с един GPU. GTX 1080 е в състояние да надмине две 980s и не би трябвало да се бори с днешните VR игри, елиминирайки необходимостта от многопроцесорни конфигурации в бъдеще.

4K екосистемата напредва също толкова бързо. Интерфейсите с по-голяма честотна лента като HDMI 2.0b и DisplayPort 1.3/1.4 трябва да отворят вратата към 4K монитори с 120Hz панели и поддръжка за динамични честоти на опресняване до края на тази година. Докато предишните поколения графични процесори от най-висок клас на AMD и Nvidia бяха рекламирани като 4K решения за игри, потребителите трябваше да направят компромис с качеството, за да поддържат приемлива скорост на кадрите. GeForce Nvidia GTX 1080 може да бъде първата графична карта, която е достатъчно бърза, за да поддържа висока честота на кадрите при резолюция 3840x2160 с настройки за максимални графични детайли.

Какво е положението с многомониторните конфигурации? Много геймъри са готови да инсталират три монитора с разделителна способност 1920x1080, но при условие, че графичната система може да се справи с натоварването, тъй като в този случай картата трябва да изобрази половин милион пиксела, тъй като разделителната способност е 7680x1440. Има дори ентусиасти, готови да вземат три 4K дисплея с комбинирана резолюция от 11520x2160 пиксела.

Последният вариант е твърде екзотичен дори за нова флагманска графична карта за игри. Процесорът Nvidia GP104 обаче е оборудван с технология, която обещава да подобри изживяването за типичните задачи на новия модел, т.е. 4K и Surround. Но преди да преминем към новите технологии, нека разгледаме по-отблизо процесора GP104 и неговата основна архитектура Pascal.

От какво е направен GP104?

От началото на 2012 г. AMD и Nvidia използват 28nm технологичен процес. С преминаването към него и двете компании направиха значителен скок напред, запознавайки ни с графичните карти Radeon HD 7970 и GeForce GTX 680. През следващите четири години обаче трябваше да избягват много, за да извлекат повече производителност от съществуващата технология . Постиженията на графичните карти Radeon R9 Fury X и GeForce GTX 980 Ti са наистина чудеса предвид тяхната сложност. Първият чип, създаден от Nvidia по 28nm процес, беше GK104, който се състоеше от 3,5 милиарда транзистора. GM200 в GeForce GTX 980 Ti и Titan X вече има осем милиарда транзистора.

Преходът към 16nm TSMC FinFET Plus технология позволи на инженерите на Nvidia да реализират нови идеи. Според техническите данни чиповете 16FF+ са с 65% по-бързи, могат да имат два пъти по-голяма плътност от 28HPM или да консумират 70% по-малко енергия. При създаването на своите графични процесори Nvidia използва оптималната комбинация от тези предимства. TSMC твърди, че се основава на инженеринга на съществуващия 20 nm процес, но използва FinFET транзистори вместо плоски транзистори. Компанията казва, че този подход намалява количеството скрап и увеличава производителността на работните плочи. Твърди се също, че компанията не е разполагала с 20-нанометров технологичен процес с бързи транзистори. Отново, светът на компютърната графика седи върху 28 nm технология за повече от четири години.


Блокова схема на процесора GP104

Наследникът на GM204 се състои от 7,2 милиарда транзистора, разположени на площ от 314 mm2. За сравнение, площта на матрицата GM204 е 398 mm2 с 5,2 милиарда транзистора. В пълната версия един GPU GP104 има четири клъстера за графична обработка (GPC). Всеки GPC включва пет клъстера за обработка на нишки/текстури (TPC) и растеризатор. TPC комбинира един стрийминг мултипроцесор (SM) и PolyMorph двигателя. SM съчетава 128 CUDA ядра с една прецизност, 256KB регистрова памет, 96KB споделена памет, 48KB L1/текстурен кеш и осем текстурни единици. Четвъртото поколение на двигателя PolyMorph включва нов логически блок, който се намира в края на геометричния тръбопровод преди блока за растеризация, той контролира функцията за едновременна мулти-проекция (повече за това по-долу). Общо получаваме 20 SM, 2560 CUDA ядра и 160 единици за обработка на текстури.


Един стрийминг мултипроцесор (SM) в GP104

GPU задната част включва осем 32-битови контролера на паметта (256-битова обща ширина на канала), осем единици за растеризация и 256KB L2 кеш на единица. Завършваме с 64 ROPs и 2MB споделен L2 кеш. Въпреки че блоковата диаграма на процесора Nvidia GM204 показва четири 64-битови контролера и 16 ROP, те са групирани заедно и функционално еквивалентни.

Някои от структурните елементи на GP104 са подобни на тези на GM204, тъй като новият GPU е изграден от "градивните елементи" на своя предшественик. Няма нищо лошо. Ако си спомняте, в архитектурата на Maxwell компанията разчиташе на енергийната ефективност и не разклащаше блоковете, които бяха силна странаКеплер. Тук виждаме подобна картина.

Добавянето на четири SM може да не повлияе забележимо на производителността. Въпреки това, GP104 има няколко трика в ръкава си. Първият коз е значително по-високите тактови честоти. Базовата тактова честота на GPU е 1607 MHz. Спецификациите на GM204, за сравнение, показват 1126 MHz. GPU Boost достига максимална честота от 1733MHz, но ние увеличихме нашата извадка до 2100MHz с помощта на помощната програма PrecisionX beta на EVGA. Откъде такъв резерв за овърклок? Според Джон Албин, старши вицепрезидент по GPU инженерството, неговият екип е знаел, че процесът TSMC 16FF+ ще повлияе на архитектурата на чипа, така че те са се фокусирали върху оптимизирането на таймингите на чипа, за да премахнат пречките, които пречат на постигането на по-високи тактови скорости. В резултат на това изчислителната скорост с единична точност на GP104 достигна 8228 GFLOPs (при базов часовник) в сравнение с тавана от 4612 GFLOPs на GeForce GTX 980. Скоростта на запълване на тексел скочи от 155,6 Gtex/s на 980 (с GPU Boost) до 277, 3 Gtex /s.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
SM 20 16
Брой CUDA ядра 2560 2048
Базова честота на GPU, MHz 1607 1126
Честота на GPU в режим Boost, MHz 1733 1216
Скорост на изчисление, GFLOPs (на базовата честота) 8228 4612
Брой текстурни единици 160 128
Скорост на пълнене с Texel, Gtex/s 277,3 155,6
Скорост на трансфер на паметта, Gbps 10 7
Честотна лента на паметта, GB/s 320 224
Брой блокове за растеризация 64 64
Размер на L2 кеша, MB 2 2
Термопакет, W 180 165
Брой транзистори 7,2 милиарда 5,2 милиарда
Площ на кристала, mm2 314 398 мм
Технология на процеса, nm 16 28

Задната част все още включва 64 ROPs и 256-битова шина на паметта, но Nvidia въведе GDDR5X памет, за да увеличи наличната честотна лента. Компанията положи много усилия за популяризирането на новия тип памет, особено на фона на HBM паметта, която се използва в различни графични карти на AMD и HBM2, която Nvidia инсталира в Tesla P100. Изглежда, че в момента има недостиг на HBM2 памет на пазара и компанията не е готова да приеме ограниченията на HBM (четири стека от 1 GB или трудността при прилагането на осем стека от 1 GB). По този начин получихме видео памет GDDR5X, чието предлагане очевидно също е ограничено, тъй като GeForce GTX 1070 вече използва обикновен GDDR5. Но това не покрива предимствата на новото решение. GDDR5 паметта в GeForce GTX 980 имаше скорост на трансфер на данни от 7 Gb/s. Това осигури 224 GB/s честотна лента през 256-битова шина. GDDR5X започва от 10 Gb/s, увеличавайки пропускателната способност до 320 GB/s (~43% увеличение). Според Nvidia увеличението е постигнато чрез надградена I/O схема и без увеличаване на консумацията на енергия.

Архитектурата Maxwell стана по-ефективна при използване на честотната лента чрез оптимизиране на кеша и алгоритмите за компресия, а Pascal следва същия път с нови методи за компресия без загуби за по-икономично използване на наличната честотна лента на подсистемата на паметта. Алгоритъмът за делта компресиране на цветовете се опитва да постигне печалба 2:1 и този режим е подобрен, за да се използва по-често. Има и нов режим 4:1, който се използва в случаите, когато разликите на пиксел са много малки. И накрая, Pascal въвежда друг нов алгоритъм 8:1, който прилага компресия 4:1 към 2x2 блокове, разликата между които се обработва в алгоритъм 2:1.



Разликата не е трудна за онагледяване. Първото изображение показва некомпресирана екранна снимка от Project CARS. Следното изображение показва елементите, които картата Maxwell може да компресира, те са оцветени в лилаво. В третия кадър можете да видите, че Паскал компресира сцената още повече. Според Nvidia тази разлика се превръща в около 20% намаление на количеството информация в байтове, което трябва да бъде извлечено от паметта за всеки кадър.

Преглед на Nvidia GeForce GTX 1080 Pascal | Дизайн на справочна карта

Nvidia промени подхода си към дизайна на картите. Вместо „справка“, тя нарича своя собствена версия на картата Founders Edition (версия на създателите). Невъзможно е да не забележите, че външният вид на GeForce GTX 1080 е станал по-ъглов, но в охладителната система се използва същият стар доказан механизъм за изхвърляне на горещ въздух през страничната лента.

Картата тежи 1020 гр. и е с дължина 27 см. Тя е доста приятна на допир, тъй като корпусът на охладителя не само изглежда като метал, но всъщност е направен от метал, по-точно от алуминий. Матовите сребристи части са лакирани и при невнимателно боравене с картата бързо се надраскат.

Задната плоча е разделена на две части. Служи само за декорация и не носи охлаждаща функция. По-късно ще разберем дали това е правилното решение. Nvidia препоръчва да премахнете тази плоча, когато използвате SLI, за да постигнете по-добър въздушен поток между картите, монтирани близо една до друга.

В долната част няма нищо интересно, но забелязахме, че части от черния капак могат да влязат в контакт с дънната платка отдолу, като охладителя на чипсета и SATA портовете.

В горната част на картата виждаме един допълнителен осем-пинов захранващ конектор. Предвид официалните спецификации на видеокартата, както и 60W мощност, изтеглена от слота на дънната платка, един такъв конектор би трябвало да е достатъчен за номинален TDP от 180W. Естествено, ще проверим колко енергия всъщност консумира тази карта и дали претоварва захранващите линии.

Има и два SLI конектора. Наред с новите графични карти Pascal, Nvidia представи нови мостове с висока честотна лента. По-късно ще ги разгледаме по-подробно. Накратко, досега официално се поддържат SLI конфигурации само на две видеокарти и двата конектора се използват за работа на двуканален интерфейс между GPU.

Три пълноценни DisplayPort конектора са налични на I/O панела. Списък със спецификации DisplayPort 1.2, но се очаква да бъде съвместим с DisplayPort 1.3/1.4 (поне контролерът на дисплея може да работи с новите стандарти). Има също HDMI 2.0 изход и DVI-D с двойна връзка. Не можете да търсите аналогови конектори.

В другия край на картата има голям слот за въздухоулавяне и три отвора за винтове за допълнително фиксиране на картата в кутията.

Дизайн и мощност на охладител

След внимателно проучване на външния вид е време да разгледаме и пълнежа, скрит под алуминиевия корпус. Това се оказа по-трудно, отколкото може да изглежда на пръв поглед. След разглобяването преброихме 51 части на масата, включително винтове. Ако премахнете вентилаторите, ще се добавят още 12.

Nvidia най-накрая се върна към използването на истинска парна камера. Той е прикрепен към платката с четири винта отгоре на графичния процесор.

Центробежният вентилатор трябва да ви е познат. Директното отвеждане на топлина включва всмукване на въздух на едно място, преминаването му през ребрата на радиатора и извън корпуса. Кожухът на охладителя, който служи и като рамка, не само стабилизира картата, но също така помага за охлаждане на преобразувателите на напрежение и модулите памет.

След като премахнахме всички външни компоненти, стигнахме до печатна електронна платка. За разлика от предишните решения, Nvidia използва шестфазно захранване. Пет фази обслужват GPU, а останалата фаза захранва GDDR5X паметта.

На таблото можете да видите място за друга фаза, което е празно.

Графичният процесор GP104 покрива площ от 314 mm2, което е много по-малко от предшественика му. Около процесора се виждат линии от други слоеве на платката. За да се постигнат високи тактови честоти, проводниците трябва да са възможно най-къси. Поради строгите изисквания, партньорите на Nvidia вероятно ще имат нужда от повече време, за да стартират производството.

Паметта GDDR5X е представена от чипове Micron 6HA77. Те наскоро влязоха в масово производство, тъй като видяхме 6GA77 чипове в изтеклите снимки на новата видеокарта на Nvidia по-рано в пресата.

Общо осем модула памет са свързани към 256-битовата шина на паметта чрез 32-битови контролери. При честота от 1251 MHz честотната лента достига 320 GB / s.

GDDR5X модулите на Micron използват 170-пинов пакет вместо 190-пинов GDDR5. Освен това те са малко по-малки: 14x10 mm вместо 14x12 mm. Тоест имат по-висока плътност и изискват подобрено охлаждане.

Обръщайки картата, намерихме свободно място за втория захранващ конектор. По този начин партньорите на Nvidia могат да инсталират втори допълнителен конектор, за да добавят мощност или да преместят съществуващия на друга позиция.

Платката има и слот, който ви позволява да завъртите захранващия конектор на 180 градуса.

Кондензаторите са разположени директно под графичния процесор, за да изгладят възможните пренапрежения. Също така от тази страна на платката е ШИМ (преди това беше разположен от предната страна). Това решение дава възможност на партньорите на Nvidia да инсталират други PWM контролери.

Но обратно към контролера на регулатора на напрежението PWM. Технологията GPU Boost 3.0 на Nvidia получи нов набор от изисквания за регулиране на напрежението, което доведе до значителни промени. Очаквахме да видим контролер тип IR3536A от International Rectifier, съчетан с 5+1 фазов дизайн, но Nvidia използва µP9511P. Това не е най-добрата новина за овърклокърите, тъй като картата не поддържа интерфейса и протокола на инструменти като MSI Afterburner и Gigabyte OC Guru. Преходът към нов контролер, който все още не е много добре описан, най-вероятно се дължи на технически характеристики.

Тъй като PWM контролерът не може директно да задвижва отделните фази на преобразувателя на напрежение, Nvidia използва мощни MOSFET драйвери с 53603A чипове, за да задвижва портата на MOSFET транзисторите. Но в сравнение с някои от другите опции, оформлението на веригата изглежда спретнато и подредено.

Тук има различни видове MOSFET. 4C85N е доста гъвкав двуканален MOSFET за преобразуване на напрежение. Той обслужва всичките шест фази на захранването и има достатъчно големи електрически и топлинни резерви, за да издържи натоварванията на референтния дизайн.


Чудя се как технологията GPU Boost 3.0 на Nvidia и модифицираната верига на регулатора на напрежението ще повлияят на консумацията на енергия. Определено ще го проверим.

Преглед на Nvidia GeForce GTX 1080 Pascal | Едновременна мулти-проекция и Async Compute технология

Едновременен многопроекционен двигател

Увеличеният брой ядра, тактовата честота на ядрото и производителността на паметта 10Gbps GDDR5X ускоряват всяка игра, която сме тествали. Архитектурата на Pascal обаче включва няколко функции, които ще можем да оценим само в бъдещи игри.

Една от новите функции, които Nvidia нарича Simultaneous Multi-Projection Engine, или многопрожекционен двигател, представен от хардуерен блок, добавен към PolyMorph двигателите. Новият двигател може да създаде до 16 проекции на геометрични данни от една гледна точка. Или може да измести гледната точка, за да създаде стереоскопично изображение чрез дублиране на геометрията 32 пъти в хардуера, без удара в производителността, който бихте изпитали, ако се опитвате да постигнете този ефект без SMP.


Една равнинна проекция

Нека се опитаме да разберем предимствата на тази технология. Например, имаме три монитора в съраунд конфигурация. Те са леко обърнати навътре, за да "увиват" потребителя, така че е по-удобно за игра и работа. Но игрите не знаят за това и изобразяват изображението в една равнина, така че изглежда извито на кръстопътя на рамките на монитора и като цяло картината изглежда изкривена. За такава конфигурация би било по-правилно една проекция да се изобрази право напред, втора проекция вляво, сякаш от панорамна кабина на самолет, и трета проекция вдясно. По този начин извита преди това панорама ще изглежда по-плавна и потребителят ще получи много по-широк зрителен ъгъл. Цялата сцена все още трябва да бъде растеризирана и боядисана, но графичният процесор не трябва да изобразява сцената три пъти, което елиминира допълнителните разходи.


Неправилна перспектива при дисплеи под ъгъл



SMP коригирана перспектива

Приложението обаче трябва да поддържа настройки за широк зрителен ъгъл и да използва SMP API повиквания. Това означава, че преди да можете да се възползвате от тази функция, разработчиците на игри трябва да я овладеят. Не сме сигурни колко усилия са готови да положат за шепа потребители на мултимониторен съраунд звук. Но има и други приложения, за които има смисъл да внедрите тази функция възможно най-скоро.


използвайки еднопроходно стерео изобразяване, SMP създава една проекция за всяко око

Да вземем за пример виртуалната реалност. Вече има нужда от индивидуална проекция за всяко око. Днешните игри просто изобразяват изображения на два отделни екрана с всички свързани недостатъци и загуби на ефективност. Но тъй като SMP поддържа два прожекционни центъра, сцената може да бъде изобразена с едно преминаване с помощта на функцията Single Pass Stereo на Nvidia. Геометрията се обработва веднъж и SMP създава своята проекция за лявото и дясното око. Освен това SMP може да приложи допълнителни проекции за функция, наречена Lens Matched Shading.


Изображения след първото преминаване с функции за засенчване в съответствие с обектива



Последната сцена, която се изпраща на слушалките

Накратко, Lens Matched Shading се опитва да направи VR изобразяването по-ефективно, като избягва количеството работа, което традиционното изобразяване на планарна проекция обикновено трябва да направи, за да изкриви геометрията, за да съответства на изкривяването на обектива на слушалките (така че пикселите се изобразяват пропилени там, където има най-голяма кривина) . Този ефект може да се постигне чрез използване на SMP за разделяне на областта на квадранти. Така че вместо да изобразява и работи с квадратна проекция, GPU създава изображения, които съответстват на филтъра за изкривяване на обектива. Този метод предотвратява генерирането на допълнителни пиксели. Няма да забележите разлика в качеството, стига разработчиците да отговарят или надвишават честотата на семплиране на очите на HMD.

Според Nvidia, комбинацията от техники за Single Pass Stereo и Lens Matched Shading може да осигури до 2 пъти по-висока производителност във VR в сравнение с не-SMP GPU. Част от това е свързано с рендирането на пиксели. Използвайки Lens Matched Shading, за да избегнете обработката на пиксели, които не трябва да бъдат рендирани, скоростта на рендиране в сцена с балансираните предварителни настройки на Nvidia спадна от 4,2 MP/s (Oculus Rift) на 2,8 MP/s, като по този начин натоварването на шейдъра върху GPU намаля с един и половин пъти. Технологията Single Pass Stereo, която обработва геометрията само веднъж (вместо повторно изобразяване за второто око), ефективно елиминира половината от обработката на геометрията, която трябва да се направи днес. Сега е ясно какво е имал предвид Ren-Sun, когато е заявил "двойно увеличение на производителността и трикратно увеличение на ефективността в сравнение с Titan X."

Асинхронни изчисления

Архитектурата на Pascal също включва някои промени по отношение на асинхронните изчисления, които са свързани с DirectX 12, VR и архитектурното предимство на AMD поради редица причини.

Nvidia поддържа статично споделяне на GPU ресурси за графики и изчислителни натоварвания от архитектурата Maxwell. На теория този подход е добър, когато и двата блока са активни едновременно. Но да кажем, че 75% от ресурсите на процесора са посветени на графиката и той изпълнява своята част от задачата по-бързо. Тогава този блок ще бъде неактивен, чакайки изчислителният блок да завърши своята част от работата. Така се губят всички възможни предимства от едновременното изпълнение на тези задачи. Pascal адресира този недостатък с динамично балансиране на натоварването. Ако драйверът реши, че един от дяловете се използва недостатъчно, той може да превключи ресурсите си, за да помогне на друг, предотвратявайки времето на престой, което се отразява негативно на производителността.

Nvidia също така подобри възможностите за прекъсване на Pascal, тоест способността да се спре текущата задача, за да се реши по-„спешна“ с много кратко време за изпълнение. Както знаете, GPU са силно паралелизирани машини с големи буфери, предназначени да заемат подобни ресурси един до друг. Неактивният шейдър е безполезен, така че трябва да бъде включен в работния процес по всякакъв начин.


По-добре е за VR заявките за прекъсване да се изпращат възможно най-късно, за да се уловят най-новите данни за проследяване

Чудесен пример е функцията Asynchronous Time Warp (ATW), която Oculus въведе с Rift. В случай, че видеокартата не може да произведе нов кадър на всеки 11 ms на 90Hz дисплей, ATW генерира междинен кадър, като използва последния кадър с регулирана позиция на главата. Но трябва да има достатъчно време за създаване на такава рамка и, за съжаление, графичното прекъсване не е много точно. Всъщност архитектурите Fermi, Kepler и Maxwell поддържат прекъсване на ниво изтегляне, което означава, че кадрите могат да се превключват в рамките на повикване за изтегляне, потенциално задушавайки техниката ATW.

Pascal прилага прекъсване на ниво пиксел за графики, така че GP104 може да спре текущата операция на ниво пиксел, да запази състоянието си и да превключи към различен контекст. Вместо прекъсването от милисекунди, за което пише Oculus, Nvidia твърди, че са по-малко от 100 микросекунди.

В архитектурата на Maxwell, еквивалентът на прекъсване на ниво пиксел в изчислителна единица беше реализиран чрез прекъсване на ниво нишка. Паскал също запази тази техника, но добави поддръжка за прекъсвания на ниво инструкция в изчислителните задачи на CUDA. В момента драйверите на Nvidia не включват тази функция, но скоро ще бъде достъпна заедно с прекъсване на ниво пиксел.

Преглед на Nvidia GeForce GTX 1080 Pascal | Изходящ конвейер, SLI и GPU Boost 3.0

Pascal дисплей канал: HDR-Ready

Миналата година се срещнахме с AMD в Сонома, Калифорния, където те споделиха някои от детайлите на новата си архитектура Polaris, като тръбопровод за извеждане на изображения, който поддържа съдържание с висок динамичен диапазон и свързани дисплеи.

Не е изненадващо, че Pascal архитектурата на Nvidia е пълна с функции като тази, някои от които дори бяха налични в Maxwell. Например контролерът на дисплея в GP104 получи поддръжка за 12-битов цвят, широка цветова гама BT.2020, електрооптично предаване SMPTE 2084 и HDMI 2.0b с HDCP 2.2.

Към този списък Pascal добавя ускорено 4K60p HEVC декодиране с 10/12-битов цвят чрез специален хардуерен блок, който твърди, че поддържа стандарта HEVC версия 2. Преди това Nvidia използваше хибриден подход, използвайки софтуерни ресурси. В допълнение, кодирането беше ограничено до осем бита информация за цвета на пиксел. Но ние вярваме, че за да поддържа спорната спецификация, Microsoft PlayReady 3.0 изисква по-бързо и по-ефективно решение.

Архитектурата също поддържа HEVC кодиране в 10-битов цвят при 4K60p за запис или стрийминг в HDR, Nvidia дори има специално приложение за това. С помощта на кодирането на процесора GP104 и софтуера GameStream HDR, който скоро ще бъде пуснат, ще можете да предавате поточно игри с висок динамичен обхват към устройства Shield, свързани към HDR-съвместим телевизор. Shield е оборудван със собствен HEVC декодер с поддръжка за 10-битов цвят на пиксел, което допълнително разтоварва конвейера за изход на изображението.

GeForce GTX 1080 GeForce GTX 980
H.264 кодиране Да (2x 4K60p) да
HEVC кодиране Да (2x 4K60p) да
HEVC кодиране 10 бита да Не
H.264 декодиране Да (4K120p до 240Mbps) да
HEVC декодиране Да (4K120p/8K30p до 320Mbps) Не
VP9 декодиране Да (4K120p до 320Mbps) Не
HEVC 10/12-битово декодиране да Не

В допълнение към поддръжката на HDMI 2.0b, GeForce GTX 1080 е сертифицирана по DisplayPort 1.2 и е съвместима с DP 1.3/1.4. В това отношение той вече надминава все още неиздадения Polaris, чийто контролер на дисплея засега поддържа само DP 1.3. За щастие на AMD спецификациите на версия 1.4 не включват по-бърз режим на трансфер и таванът все още е 32,4 Gbps, зададен от режим HBR3.

Както споменахме по-рано, GeForce GTX 1080 Founders Edition е оборудван с три Display Port изхода, един HDMI 2.0b конектор и един DVI цифров изход с двойна връзка. Подобно на GTX 980, новостта може да показва изображение на четири независими монитора едновременно. Но в сравнение с резолюция 5120x3200 чрез два кабела DP 1.2, максималната разделителна способност на GTX 1080 е 7680x4320 пиксела при честота на опресняване 60Hz.

SLI вече официално поддържа само два графични процесора

Традиционно графичните карти на Nvidia от висок клас са оборудвани с два конектора за свързване на два, три или дори четири ускорителя в SLI пакет. Като правило, най-доброто мащабиране се постига при двойни GPU конфигурации. Освен това разходите често не се оправдават, тъй като се появяват много капани. Някои ентусиасти обаче все още използват три или четири графични адаптера в преследване на всеки допълнителен кадър и възможността да се покажат пред приятели.

Но ситуацията се промени. Поради проблеми с мащабирането на производителността в по-новите игри, без съмнение свързани с DirectX 12, GeForce GTX 1080 официално поддържа само двойни GPU SLI конфигурации, според Nvidia. Тогава защо картата се нуждае от два конектора? Благодарение на новите SLI мостове, двата конектора могат да се използват едновременно за пренос на данни в двуканален режим. В допълнение към двуканален режим, интерфейсът също има увеличена I / O честота от 400 MHz до 650 MHz. В резултат на това пропускателната способност между процесорите се увеличава повече от два пъти.


Време за изобразяване на рамка в Middle earth: Shadow of Mordor с нов (синя линия на графиката) и стар (черен) SLI мост

Много геймъри обаче няма да изпитат предимствата на по-бърз канал. Това ще бъде от значение преди всичко при високи разделителни способности и честоти на опресняване. Nvidia показа FCAT снимка на две GeForce 1080 GTX, работещи с Middle earth: Shadow of Mordor на три 4K дисплея. Свързването на две карти със стар мост доведе до постоянни скокове във времето на рамката, което води до предвидими проблеми с времето, които се проявяват като заекване. С новия мост броят на скоковете намаля и те станаха по-слабо изразени.

Според Nvidia не само SLI HB мостовете поддържат двуканален режим. Вече познатите LED мостове също могат да предават данни на честота от 650 MHz, когато са свързани към Pascal карти. Гъвкавите или конвенционалните мостове е най-добре да се избягват, ако искате да работите в 4K или по-висока. Подробна информацияотносно съвместимостта можете да намерите в таблицата, предоставена от Nvidia:

1920x1080 при 60Hz 2560x1440 при 120Hz+ 2560x1440 4K 5K Обграждам
стандартен мост х х
LED мост х х х х
Мост с висока скорост на предаване на данни (HB) х х х х х х

Какво причини отхвърлянето на конфигурации с три и четири чипа? В крайна сметка компанията винаги се стреми да продава повече и да постига по-висока производителност. Цинично е да се каже, че Nvidia не иска да поеме отговорност за загубата на предимство при свързване на две или четири карти в SLI, когато съвременният пазар на видеоигри използва все по-фини и сложни подходи за изобразяване. Но компанията настоява, че действа в най-добрия интерес на клиентите, тъй като Microsoft дава повече контрол върху многопроцесорните конфигурации на разработчиците на игри, които от своя страна проучват нови технологии като съвместно изобразяване на единичен кадър вместо текущия кадър по кадър изобразяване (AFR).

Ентусиастите, които се интересуват само от рекордите за скорост и не се интересуват от факторите, описани по-горе, все още могат да свържат три или четири GTX 1080 в SLI, използвайки стария софтуер. Те трябва да генерират уникален "хардуерен" подпис с помощта на програма от Nvidia, която може да поиска ключ за "отключване". Естествено, новите HB SLI мостове няма да работят с повече от две GPU, така че ще трябва да се ограничите до старите LED мостове, за да комбинирате работата на три/четири GP104 на 650 MHz.

Накратко за GPU Boost 3.0

В опит да извлече още повече производителност от своите графични процесори, Nvidia отново подобри своята технология GPU Boost.

В предишното поколение (GPU Boost 2.0) тактовата честота беше зададена чрез преместване на определена стойност на наклонената линия на зависимостта напрежение / честота. Потенциалната височина над тази линия обикновено остава неизползвана.


GPU Boost 3.0 - настройка на увеличаването на честотата на стъпка на увеличаване на напрежението

Сега GPU Boost 3.0 ви позволява да зададете честотното усилване за индивидуални стойности на напрежението, които са ограничени само от температурата. Освен това не е нужно да експериментирате и да проверявате стабилността на картата в целия диапазон от стойности на кривата. Nvidia има вграден алгоритъм за автоматизиране на този процес, създавайки крива напрежение/честота, уникална за вашия GPU.

Преглед на Nvidia GeForce GTX 1080 Pascal | Запознайте се с GP104 GPU

В навечерието на Computex Nvidia реши да представи дългоочакваната си новост - архитектурата Pascal, адаптирана за геймърите. В новите графични карти GeForce GTX 1080 и 1070 производителят инсталира графичен процесор GP104. Днес ще прегледаме по-стария модел, а по-младият трябва да бъде в ръцете ни в началото на юни.

Архитектурата Pascal обещава по-бърза и по-ефективна производителност, повече изчислителни модули, намалена площ на матрицата и по-бърза памет с надграден контролер. Той е по-подходящ за VR, 4K игри и други приложения, изискващи висока производителност.

Както винаги, ще се опитаме да разберем обещанията на производителя и да ги тестваме на практика. Да започваме.

Ще промени ли GeForce GTX 1080 баланса на силите в сегмента от висок клас?

Nvidia GeForce GTX 1080 е най-бързата от двете графични карти за игри, обявени по-рано този месец. И двете използват GPU GP104, който между другото вече е вторият GPU с микроархитектура на Pascal (първият беше GP100, който се появи на GTC през април). Изпълнителният директор на Nvidia Рен-Сун Хуан подразни ентусиастите, когато представи новия продукт пред широката публика, твърдейки, че GeForce GTX 1080 ще надмине две 980s в SLI.

Той също така отбеляза, че GTX 1080, с по-добра производителност, има по-ниска консумация на енергия от серията 900. Той е два пъти по-бърз и три пъти по-ефективен от бившия флагман GeForce Titan X, но ако погледнете придружаващите графики и диаграми, се оказва, че такава впечатляваща разлика се проявява при определени задачи, свързани с виртуалната реалност. Но дори ако тези обещания са само частично потвърдени, все още ни очакват много интересни времена по отношение на развитието на игри от висок клас за компютър.

Виртуалната реалност бавно набира скорост, но високите хардуерни изисквания към графичната подсистема създават значителна бариера пред достъпа до тези технологии. Освен това повечето от наличните днес игри не знаят как да се възползват от мултипроцесорното изобразяване. Тоест обикновено сте ограничени до възможностите на един бърз видео адаптер с един GPU. GTX 1080 е в състояние да надмине две 980s и не би трябвало да се бори с днешните VR игри, елиминирайки необходимостта от многопроцесорни конфигурации в бъдеще.

4K екосистемата напредва също толкова бързо. Интерфейсите с по-голяма честотна лента като HDMI 2.0b и DisplayPort 1.3/1.4 трябва да отворят вратата към 4K монитори с 120Hz панели и поддръжка за динамични честоти на опресняване до края на тази година. Докато предишните поколения графични процесори от най-висок клас на AMD и Nvidia бяха рекламирани като 4K решения за игри, потребителите трябваше да направят компромис с качеството, за да поддържат приемлива скорост на кадрите. GeForce Nvidia GTX 1080 може да бъде първата графична карта, която е достатъчно бърза, за да поддържа висока честота на кадрите при резолюция 3840x2160 с настройки за максимални графични детайли.

Какво е положението с многомониторните конфигурации? Много геймъри са готови да инсталират три монитора с разделителна способност 1920x1080, но при условие, че графичната система може да се справи с натоварването, тъй като в този случай картата трябва да изобрази половин милион пиксела, тъй като разделителната способност е 7680x1440. Има дори ентусиасти, готови да вземат три 4K дисплея с комбинирана резолюция от 11520x2160 пиксела.

Последният вариант е твърде екзотичен дори за нова флагманска графична карта за игри. Процесорът Nvidia GP104 обаче е оборудван с технология, която обещава да подобри изживяването за типичните задачи на новия модел, т.е. 4K и Surround. Но преди да преминем към новите технологии, нека разгледаме по-отблизо процесора GP104 и неговата основна архитектура Pascal.

От какво е направен GP104?

От началото на 2012 г. AMD и Nvidia използват 28nm технологичен процес. С преминаването към него и двете компании направиха значителен скок напред, запознавайки ни с графичните карти Radeon HD 7970 и GeForce GTX 680. През следващите четири години обаче трябваше да избягват много, за да извлекат повече производителност от съществуващата технология . Постиженията на графичните карти Radeon R9 Fury X и GeForce GTX 980 Ti са наистина чудеса предвид тяхната сложност. Първият чип, създаден от Nvidia по 28nm процес, беше GK104, който се състоеше от 3,5 милиарда транзистора. GM200 в GeForce GTX 980 Ti и Titan X вече има осем милиарда транзистора.

Преходът към 16nm TSMC FinFET Plus технология позволи на инженерите на Nvidia да реализират нови идеи. Според техническите данни чиповете 16FF+ са с 65% по-бързи, могат да имат два пъти по-голяма плътност от 28HPM или да консумират 70% по-малко енергия. При създаването на своите графични процесори Nvidia използва оптималната комбинация от тези предимства. TSMC твърди, че се основава на инженеринга на съществуващия 20 nm процес, но използва FinFET транзистори вместо плоски транзистори. Компанията казва, че този подход намалява количеството скрап и увеличава производителността на работните плочи. Твърди се също, че компанията не е разполагала с 20-нанометров технологичен процес с бързи транзистори. Отново, светът на компютърната графика седи върху 28 nm технология за повече от четири години.

Блокова схема на процесора GP104

Наследникът на GM204 се състои от 7,2 милиарда транзистора, разположени на площ от 314 mm2. За сравнение, площта на матрицата GM204 е 398 mm2 с 5,2 милиарда транзистора. В пълната версия един GPU GP104 има четири клъстера за графична обработка (GPC). Всеки GPC включва пет клъстера за обработка на нишки/текстури (TPC) и растеризатор. TPC комбинира един стрийминг мултипроцесор (SM) и PolyMorph двигателя. SM съчетава 128 CUDA ядра с една прецизност, 256KB регистрова памет, 96KB споделена памет, 48KB L1/текстурен кеш и осем текстурни единици. Четвъртото поколение на двигателя PolyMorph включва нов логически блок, който се намира в края на геометричния тръбопровод преди блока за растеризация, той контролира функцията за едновременна мулти-проекция (повече за това по-долу). Общо получаваме 20 SM, 2560 CUDA ядра и 160 единици за обработка на текстури.

Един стрийминг мултипроцесор (SM) в GP104

GPU задната част включва осем 32-битови контролера на паметта (256-битова обща ширина на канала), осем единици за растеризация и 256KB L2 кеш на единица. Завършваме с 64 ROPs и 2MB споделен L2 кеш. Въпреки че блоковата диаграма на процесора Nvidia GM204 показва четири 64-битови контролера и 16 ROP, те са групирани заедно и функционално еквивалентни.

Някои от структурните елементи на GP104 са подобни на тези на GM204, тъй като новият GPU е изграден от "градивните елементи" на своя предшественик. Няма нищо лошо. Ако си спомняте, в архитектурата Maxwell компанията заложи на енергийната ефективност и не разклати блоковете, които бяха силните страни на Kepler. Тук виждаме подобна картина.

Добавянето на четири SM може да не повлияе забележимо на производителността. Въпреки това, GP104 има няколко трика в ръкава си. Първият коз е значително по-високите тактови честоти. Базовата тактова честота на GPU е 1607 MHz. Спецификациите на GM204, за сравнение, показват 1126 MHz. GPU Boost достига максимална честота от 1733MHz, но ние увеличихме нашата извадка до 2100MHz с помощта на помощната програма PrecisionX beta на EVGA. Откъде такъв резерв за овърклок? Според Джон Албин, старши вицепрезидент по GPU инженерството, неговият екип е знаел, че процесът TSMC 16FF+ ще повлияе на архитектурата на чипа, така че те са се фокусирали върху оптимизирането на таймингите на чипа, за да премахнат пречките, които пречат на постигането на по-високи тактови скорости. В резултат на това изчислителната скорост с единична точност на GP104 достигна 8228 GFLOPs (при базов часовник) в сравнение с тавана от 4612 GFLOPs на GeForce GTX 980. Скоростта на запълване на тексел скочи от 155,6 Gtex/s на 980 (с GPU Boost) до 277, 3 Gtex /s.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
SM 20 16
Брой CUDA ядра 2560 2048
Базова честота на GPU, MHz 1607 1126
Честота на GPU в режим Boost, MHz 1733 1216
Скорост на изчисление, GFLOPs (на базовата честота) 8228 4612
Брой текстурни единици 160 128
Скорост на пълнене с Texel, Gtex/s 277,3 155,6
Скорост на трансфер на паметта, Gbps 10 7
Честотна лента на паметта, GB/s 320 224
Брой блокове за растеризация 64 64
Размер на L2 кеша, MB 2 2
Термопакет, W 180 165
Брой транзистори 7,2 милиарда 5,2 милиарда
Площ на кристала, mm2 314 398 мм
Технология на процеса, nm 16 28

Задната част все още включва 64 ROPs и 256-битова шина на паметта, но Nvidia въведе GDDR5X памет, за да увеличи наличната честотна лента. Компанията положи много усилия за популяризирането на новия тип памет, особено на фона на HBM паметта, която се използва в различни графични карти на AMD и HBM2, която Nvidia инсталира в Tesla P100. Изглежда, че в момента има недостиг на HBM2 памет на пазара и компанията не е готова да приеме ограниченията на HBM (четири стека от 1 GB или трудността при прилагането на осем стека от 1 GB). По този начин получихме видео памет GDDR5X, чието предлагане очевидно също е ограничено, тъй като GeForce GTX 1070 вече използва обикновен GDDR5. Но това не покрива предимствата на новото решение. GDDR5 паметта в GeForce GTX 980 имаше скорост на трансфер на данни от 7 Gb/s. Това осигури 224 GB/s честотна лента през 256-битова шина. GDDR5X започва от 10 Gb/s, увеличавайки пропускателната способност до 320 GB/s (~43% увеличение). Според Nvidia увеличението е постигнато чрез надградена I/O схема и без увеличаване на консумацията на енергия.

Архитектурата Maxwell стана по-ефективна при използване на честотната лента чрез оптимизиране на кеша и алгоритмите за компресия, а Pascal следва същия път с нови методи за компресия без загуби за по-икономично използване на наличната честотна лента на подсистемата на паметта. Алгоритъмът за делта компресиране на цветовете се опитва да постигне печалба 2:1 и този режим е подобрен, за да се използва по-често. Има и нов режим 4:1, който се използва в случаите, когато разликите на пиксел са много малки. И накрая, Pascal въвежда друг нов алгоритъм 8:1, който прилага компресия 4:1 към 2x2 блокове, разликата между които се обработва в алгоритъм 2:1.



Разликата не е трудна за онагледяване. Първото изображение показва некомпресирана екранна снимка от Project CARS. Следното изображение показва елементите, които картата Maxwell може да компресира, те са оцветени в лилаво. В третия кадър можете да видите, че Паскал компресира сцената още повече. Според Nvidia тази разлика се превръща в около 20% намаление на количеството информация в байтове, което трябва да бъде извлечено от паметта за всеки кадър.

Според наскоро публикувани анекдотични доказателства семейството на Pascal GPU може да се превърне в една от най-пълните серии на NVIDIA през последните години. Само за няколко месеца компанията представи четири графични процесора, базирани на Pascal, и няма да спре дотук. Според ръководителя на компанията, далеч не всички чипове Pascal, да не говорим за реални продукти, са били представени. Очевидно в близко бъдеще очакваме нови съобщения.

NVIDIA Pascal: осем продукта за четири месеца

От април тази година NVIDIA представи четири чипа, базирани на Pascal: GP100 с 16 GB HBM2 памет, GP102 с поддръжка на GDDR5X, GP104 и GP106. В същото време компанията обяви осем продукта, базирани на тези графични процесори (с изключение на отделни продукти от различни видове специални издания на следните, както и специализирани устройства като DGX-1): GeForce GTX 1080/1070 (GP104), GeForce GTX 1060 (GP106), TITAN X (GP102 + 12GB GDDR5X), Quadro P5000 (GP104GL + 16GB GDDR5X), Quadro P6000 (GP102GL + 24GB GDDR5X), Tesla P100 SXM и Tesla P100 PCIe (и двете базирани на GP100 + 16GB HBM2).

Докато четири графични процесора и осем продукта за четири месеца са забележително постижение, прави впечатление, че компанията не е представила нито едно ново решение за преносим компютър, нито една нова графична карта под $250. Според ръководителя на NVIDIA, компанията подготвя нови графични процесори, базирани на Pascal, те вече съществуват в силиций, но ще излязат на пазара едва след известно време.

NVIDIA: Всички Pascals са готови, но не всички са представени

„Проектирахме, проверихме и започнахме производство на всичкиGPU основана на архитектураПаскал», каза Джен-Хсун Хуанг, главен изпълнителен директор на NVIDIA, по време на конферентен разговор с инвеститори и финансови анализатори. „Ние обаче все още не сме представили всички тези графични процесори.“

Нови конфигурации

Въпреки това, не толкова вътрешните GP107, GP108 и GP102 са от интерес за геймърите и ентусиастите на производителността, а фактът, че всеки Pascal чип ще съществува в поне две основни конфигурации (по отношение на PCIe ID, който драйверът на NVIDIA използва ) . Това отваря възможности за създаване на множество нови продукти, базирани на чиповете GP100, GP102, GP104 и GP106.

И така, GP104 съществува в конфигурациите GP104-A и GP104-B, както и версии с активирано ускорение за професионални приложения - GP104GL-A и GP104GL-B. Не знаем на какво точно отговарят буквите "A" и "B", но можем да предположим, че "A" означава микросхема в максимална конфигурация. Така че GP104-A може да съвпадне с GeForce GTX 1080, а GP104-B може да съвпадне с GeForce GTX 1070.

Като се има предвид, че микросхемите GP102 и GP106 също съществуват в две конфигурации (във всеки случай това е посочено от базата данни AIDA64 и драйверите на NVIDIA), но има само един продукт, базиран на тях (GeForce GTX 1060 и TITAN X), можем да очакваме появата на нови решения, базирани на тях. Дали тези карти ще бъдат по-бързи или по-бавни от съществуващите, времето ще покаже. Във всеки случай GP102 може да мащабира както "нагоре" (до 3840 поточни процесора), така и "надолу". В същото време, разбира се, не може да се изключи хипотетичната възможност за появата на третата версия на GP102-C, в случай че NVIDIA има нужда от нея.

По един или друг начин е очевидно, че NVIDIA планира да разшири семейството на графичните карти, базирани на Pascal. Въпреки че непосредствените планове трябва ясно да включват мобилни и масови графични процесори, много е вероятно в бъдеще да видим нови решения за високопроизводителни компютри за игри.