نقشه های معماری پاسکال خانواده کارت های ویدئویی Nvidia GeForce اطلاعات مرجع. کانال نمایش پاسکال: HDR-Ready

سال 2016 در حال پایان است، اما سهم او در صنعت بازی برای مدت طولانی با ما باقی خواهد ماند. اولاً ، کارت های ویدیویی از اردوگاه قرمز به روز رسانی غیرمنتظره ای موفقیت آمیز در محدوده قیمت متوسط ​​دریافت کردند و ثانیاً ، NVIDIA یک بار دیگر ثابت کرد که بیهوده نیست که 70٪ از بازار را اشغال می کند. مکسول ها خوب بودند، GTX 970 به حق یکی از بهترین کارت ها برای پول در نظر گرفته می شد، اما پاسکال یک موضوع کاملاً متفاوت است.

نسل جدید سخت‌افزار در مواجهه با GTX 1080 و 1070 به معنای واقعی کلمه نتایج سیستم‌های سال گذشته و بازار سخت‌افزار مورد استفاده پرچم‌دار را مدفون کرد، در حالی که خطوط «جوان‌تر» در مواجهه با GTX 1060 و 1050 موفقیت خود را در مقرون‌به‌صرفه‌تر تثبیت کردند. بخش ها صاحبان GTX980Ti و دیگر تایتان‌ها با اشک تمساح گریه می‌کنند: اسلحه‌های اوبر آنها برای هزاران روبل 50 درصد هزینه و 100 درصد خودنمایی را به یکباره از دست دادند. خود انویدیا ادعا می کند که 1080 سریعتر از TitanX سال گذشته است، 1070 به راحتی 980Ti را "هپ" می کند، و 1060 نسبتاً بودجه به صاحبان سایر کارت ها آسیب می رساند.

آیا واقعاً اینجاست که پاهای عملکرد بالا از آنجا رشد می کند و در آستانه تعطیلات و شادی های ناگهانی مالی با آن چه باید کرد و همچنین دقیقاً با چه چیزی راضی بود، می توانید در این طولانی و کمی خسته کننده بدانید مقاله.

شما می توانید انویدیا یا ... را دوست نداشته باشید، اما وجود آن را انکار کنید این لحظهیک رهبر در زمینه مهندسی ویدیو تنها یک هیتمن از یک جهان جایگزین خواهد بود. از آنجایی که Vega از AMD هنوز معرفی نشده است، ما هنوز پرچمدار RX را در Polaris ندیده ایم، و R9 Fury با 4 گیگابایت حافظه آزمایشی خود را نمی توان واقعاً یک کارت امیدوار کننده در نظر گرفت (VR و 4K همچنان می خواهند کمی بیشتر از آنچه او دارد) - ما آنچه را داریم داریم. در حالی که 1080 Ti و RX 490 مشروط، RX Fury و RX 580 فقط شایعه و انتظار هستند، ما زمان داریم تا سری فعلی NVIDIA را بررسی کنیم و ببینیم این شرکت برای چه چیزی به دست آورده است. سال های گذشته.

آشفتگی و تاریخچه پیدایش پاسکال

NVIDIA به طور مرتب دلایلی برای "دوست نداشتن خود" ارائه می دهد. تاریخچه GTX 970 و "حافظه 3.5 گیگابایتی" آن، "NVIDIA، لعنت به شما!" از Linus Torvalds، پورنوگرافی کامل در خطوط گرافیک دسکتاپ، امتناع از کار با سیستم رایگان و بسیار رایج FreeSync به نفع اختصاصی خود ... به طور کلی دلایل کافی وجود دارد. یکی از آزاردهنده ترین چیزها برای من شخصاً اتفاقی است که با دو نسل گذشته کارت گرافیک ها رخ داد. اگر توضیحی تقریبی داشته باشیم، پس پردازنده‌های گرافیکی «مدرن» از روزهای پشتیبانی از DX10 آمده‌اند. و اگر امروز به دنبال "پدربزرگ" سری دهم باشید، آنگاه آغاز معماری مدرن در منطقه چهارصدمین سری شتاب دهنده های ویدئویی و معماری فرمی خواهد بود. در آن بود که ایده طراحی "بلوک" از به اصطلاح. "هسته های CUDA" در اصطلاح NVIDIA.

فرمی

اگر کارت‌های ویدئویی سری‌های 8000، 9000 و 200 اولین گام‌ها در تسلط بر مفهوم، «معماری مدرن» با پردازنده‌های سایه‌زن جهانی (مثل AMD، بله) بودند، پس سری 400 از قبل تا حد امکان شبیه آنچه ما بودیم بود. در برخی از 1070 ببینید. بله، فرمی هنوز یک عصا کوچک Legacy از نسل های قبلی داشت: واحد سایه زن با فرکانس دو برابر هسته مسئول محاسبه هندسه کار می کرد، اما تصویر کلی برخی از GTX 480 با برخی دیگر تفاوت چندانی ندارد. 780، چند پردازنده‌های SM خوشه‌بندی می‌شوند، خوشه‌ها از طریق یک حافظه پنهان مشترک با کنترل‌کننده‌های حافظه ارتباط برقرار می‌کنند و نتایج کار توسط یک بلوک شطرنجی مشترک برای خوشه نمایش داده می‌شود:


بلوک دیاگرام پردازنده GF100 مورد استفاده در GTX 480.

در سری 500، هنوز همان فرمی وجود داشت، کمی بهبود یافته در "داخل" و با ازدواج کمتر، بنابراین راه حل های برتر 512 هسته CUDA به جای 480 برای نسل قبلی دریافت کردند. از نظر بصری، فلوچارت ها معمولاً دوقلو به نظر می رسند:


GF110 قلب GTX 580 است.

در بعضی جاها فرکانس ها را افزایش دادند، طراحی خود تراشه را کمی تغییر دادند، هیچ انقلابی رخ نداد. همه همان فناوری پردازش 40 نانومتری و 1.5 گیگابایت حافظه ویدیویی در یک گذرگاه 384 بیتی.

کپلر

با ظهور معماری کپلر، چیزهای زیادی تغییر کرده است. می توان گفت که این نسل بود که به کارت های ویدئویی NVIDIA بردار توسعه داد که منجر به ظهور مدل های فعلی شد. نه تنها معماری GPU تغییر کرده است، بلکه آشپزخانه برای توسعه سخت افزار جدید در داخل NVIDIA نیز تغییر کرده است. اگر فرمی بر روی یافتن راه حلی متمرکز بود که عملکرد بالایی را ارائه دهد، کپلر روی بهره وری انرژی، استفاده معقول از منابع، فرکانس های بالا و سهولت بهینه سازی موتور بازی برای قابلیت های یک معماری با کارایی بالا شرط بندی می کرد.

تغییرات جدی در طراحی GPU ایجاد شد: نه "گل سرسبد" GF100 / GF110، بلکه "بودجه" GF104 / GF114 که در یکی از محبوب ترین کارت های آن زمان - GTX استفاده می شد. 460.


معماری کلی پردازنده تنها با استفاده از دو بلوک بزرگ با چهار ماژول چندپردازنده سایه زن یکپارچه ساده شده است. چیدمان پرچمداران جدید چیزی شبیه به این بود:


GK104 در GTX 680 نصب شده است.

همانطور که مشاهده می کنید، هر یک از واحدهای محاسباتی نسبت به معماری قبلی وزن قابل توجهی یافته و SMX نامگذاری شده است. ساختار بلوک را با آنچه در بالا در بخش فرمی نشان داده شده است مقایسه کنید.


چند پردازنده SMX GPU GK104

سری ششصدم کارت گرافیک روی یک پردازنده تمام عیار حاوی شش بلوک ماژول های محاسباتی نداشت، گل سرسبد GTX 680 با GK104 نصب شده بود و خنک تر از آن فقط 690 "دو سر" بود که فقط روی آن بود. دو پردازنده با تمام اتصالات و حافظه لازم تولید شدند. یک سال بعد، پرچمدار GTX 680 با تغییرات جزئی به GTX 770 تبدیل شد و تاج تکامل معماری کپلر کارت های ویدیویی مبتنی بر کریستال GK110 بود: GTX Titan و Titan Z، 780Ti و 780 معمولی. همه همان 28 نانومتر، تنها پیشرفت کیفی (که به کارت‌های ویدئویی مصرف‌کننده مبتنی بر GK110 نمی‌رسد) - عملکرد با عملیات‌های با دقت مضاعف.

ماکسول

اولین کارت گرافیک مبتنی بر معماری Maxwell… NVIDIA GTX 750Ti بود. کمی بعد، برش های آن در مقابل GTX 750 و 745 ظاهر شد (فقط به عنوان یک راه حل یکپارچه ارائه می شود) و در زمان ظهور آنها، کارت های رده پایین واقعاً بازار شتاب دهنده های ویدیویی ارزان را تکان دادند. معماری جدید بر روی تراشه GK107 آزمایش شد: قطعه کوچکی از پرچمداران آینده با هیت سینک های بزرگ و قیمتی ترسناک. چیزی شبیه این به نظر می رسید:


بله، فقط یک واحد محاسباتی وجود دارد، اما چقدر پیچیده تر از نسخه قبلی است، خودتان مقایسه کنید:


به جای یک بلوک بزرگ SMX، که به عنوان یک "آجر ساختمانی" اساسی در ایجاد GPU استفاده می شد، از بلوک های SMM جدید و فشرده تر استفاده می شود. واحدهای محاسباتی اولیه کپلر خوب بودند، اما از استفاده ضعیف از ظرفیت رنج می بردند - یک تشنگی پیش پا افتاده برای دستورالعمل: سیستم نمی توانست دستورالعمل ها را روی تعداد زیادی از محرک ها پخش کند. پنتیوم 4 تقریباً همین مشکلات را داشت: برق بیکار بود و خطا در پیش بینی انشعاب بسیار گران بود. در ماکسول، هر ماژول محاسباتی به چهار قسمت تقسیم می‌شد که به هر کدام از آنها بافر دستورالعمل و زمان‌بندی تاب و پیچیدگی خاص خود داده شد - همان نوع عملیات روی گروهی از رشته‌ها. در نتیجه، کارایی افزایش یافته است و خود پردازنده‌های گرافیکی نسبت به پیشینیان خود انعطاف‌پذیرتر شده‌اند و مهم‌تر از همه، به قیمت خون کم و یک کریستال نسبتاً ساده، معماری جدیدی ساخته‌اند. داستان به صورت مارپیچی پیش می رود، هه.

بیش از همه، راه حل های تلفن همراه از نوآوری ها سود برده اند: مساحت کریستال یک چهارم افزایش یافته است و تعداد واحدهای اجرایی چند پردازنده تقریبا دو برابر شده است. از شانس و اقبال، این سری های 700 و 800 بودند که آشفتگی اصلی را در طبقه بندی ایجاد کردند. تنها در داخل 700، کارت های ویدئویی بر اساس معماری کپلر، ماکسول و حتی فرمی وجود داشت! به همین دلیل است که Maxwells رومیزی برای دور شدن از هجوم نسل های قبلی، سری 900 معمولی را دریافت کرد که متعاقباً کارت های موبایل GTX 9xx M از آن جدا شدند.

پاسکال - توسعه منطقی معماری ماکسول

آنچه در Kepler گذاشته شد و در نسل Maxwell ادامه یافت در پاسکال باقی ماند: اولین کارت‌های ویدئویی مصرف‌کننده بر اساس تراشه نه چندان بزرگ GP104 منتشر شدند که از چهار خوشه پردازش گرافیکی تشکیل شده است. GP100 با اندازه کامل و شش کلاستر به یک GPU نیمه حرفه ای گران قیمت با نام تجاری TITAN X رفت. با این حال، حتی 1080 "برش خورده" روشن می شود تا نسل های گذشته احساس بیماری کنند.

ارتقای کارایی

شالوده پایه ها

ماکسول پایه و اساس معماری جدید شد، نمودار پردازنده های قابل مقایسه (GM104 و GP104) تقریباً یکسان به نظر می رسد، تفاوت اصلی در تعداد چند پردازنده های بسته بندی شده در خوشه ها است. کپلر (نسل 700) دارای دو چند پردازنده بزرگ SMX بود که هر کدام در ماکسول به 4 قسمت تقسیم شدند و تسمه لازم را فراهم کردند (تغییر نام به SMM). در پاسکال، دو مورد دیگر به هشت مورد موجود در بلوک اضافه شد، به طوری که 10 مورد از آنها وجود داشت، و مخفف یک بار دیگر قطع شد: اکنون چند پردازنده های منفرد دوباره SM نامیده می شوند.


بقیه یک شباهت کامل بصری است. درست است، تغییرات حتی بیشتر در داخل وجود داشت.

موتور پیشرفت

تغییرات نامناسب زیادی در داخل بلوک چند پردازنده وجود دارد. برای اینکه وارد جزئیات خیلی کسل کننده ی کارهایی که دوباره انجام شده، نحوه بهینه سازی و قبل از آن چگونه بوده، نروم، تغییرات را خیلی مختصر توضیح می دهم، در غیر این صورت برخی در حال خمیازه کشیدن هستند.

اول از همه، پاسکال قسمتی را که مسئول مؤلفه هندسی تصویر است تصحیح کرد. این برای تنظیمات چند مانیتور و کار با کلاه های VR ضروری است: با پشتیبانی مناسب از موتور بازی (و این پشتیبانی به زودی با تلاش NVIDIA ظاهر می شود)، کارت گرافیک می تواند هندسه را یک بار محاسبه کند و چندین پیش بینی هندسه برای هر کدام دریافت کند. از صفحه نمایش ها این به طور قابل توجهی بار را در VR نه تنها در زمینه کار با مثلث ها کاهش می دهد (در اینجا افزایش فقط دو برابر است)، بلکه در کار با جزء پیکسل نیز کاهش می یابد.

980Ti شرطی هندسه را دو بار (برای هر چشم) می خواند و سپس آن را با بافت ها پر می کند و برای هر یک از تصاویر پس پردازش انجام می دهد، در مجموع حدود 4.2 میلیون نقطه را پردازش می کند، که حدود 70٪ آن در واقع استفاده خواهد شد. بقیه قطع می شوند یا به ناحیه ای می افتند که به سادگی برای هر یک از چشم ها نمایش داده نمی شود.

1080 یک بار هندسه را پردازش می کند و پیکسل هایی که در تصویر نهایی قرار نمی گیرند به سادگی محاسبه نمی شوند.


با مولفه پیکسل، در واقع همه چیز حتی سردتر است. از آنجایی که افزایش پهنای باند حافظه تنها از دو جهت قابل انجام است (افزایش فرکانس و پهنای باند در هر ساعت) و هر دو روش هزینه بر است و "گرسنگی" GPU از نظر حافظه در طول سال ها بیشتر و بیشتر نمایان می شود. رشد وضوح و توسعه VR همچنان روش‌های «رایگان» را برای افزایش پهنای باند بهبود می‌بخشد. اگر نمی توانید گذرگاه را گسترش دهید و فرکانس را افزایش دهید - باید داده ها را فشرده کنید. در نسل‌های قبلی فشرده‌سازی سخت‌افزار قبلاً اجرا شده بود، اما در پاسکال به سطح جدیدی منتقل شد. باز هم بدون ریاضیات خسته کننده انجام می دهیم و یک مثال آماده از NVIDIA می گیریم. در سمت چپ - ماکسول، در سمت راست - پاسکال، نقاطی که جزء رنگ آنها تحت فشرده سازی بدون تلفات قرار گرفته است با رنگ صورتی پر شده است.


به جای انتقال کاشی های خاص 8×8، حافظه حاوی رنگ "متوسط" + ماتریس انحراف از آن است، چنین داده هایی از ½ تا ⅛ حجم اصلی را می گیرند. در کارهای واقعی، بار روی زیرسیستم حافظه از 10 به 30 درصد کاهش یافته است، بسته به تعداد گرادیان ها و یکنواختی پر شدن در صحنه های پیچیده روی صفحه نمایش.


این به نظر مهندسان کافی نبود و برای کارت گرافیک پرچمدار (GTX 1080) از حافظه با پهنای باند افزایش یافته استفاده شد: GDDR5X دو برابر بیت داده (نه دستورالعمل) در هر ساعت انتقال می دهد و بیش از 10 گیگابیت بر ثانیه در ساعت تولید می کند. اوج. انتقال داده ها با چنین سرعت دیوانه کننده ای نیاز به یک چیدمان حافظه کاملاً جدید روی برد داشت و در مجموع بازده حافظه نسبت به پرچمداران نسل قبلی 60-70٪ افزایش یافت.

کاهش تأخیر و زمان خرابی

کارت‌های ویدئویی مدت‌هاست که نه تنها در پردازش گرافیکی، بلکه در محاسبات مربوطه نیز مشغول هستند. فیزیک اغلب به فریم های انیمیشن گره خورده است و به طور قابل توجهی موازی است، به این معنی که محاسبه بر روی GPU بسیار کارآمدتر است. اما بزرگترین مولد مشکلات در زمان های اخیر صنعت VR بوده است. بسیاری از موتورهای بازی، متدولوژی‌های توسعه و دسته‌ای از فناوری‌های دیگر که برای کار با گرافیک استفاده می‌شوند، به سادگی برای VR طراحی نشده‌اند، مورد حرکت دوربین یا تغییر موقعیت سر کاربر در حین رندر کردن فریم به سادگی پردازش نشده است. اگر همه چیز را همانطور که هست رها کنید، همگام سازی جریان ویدئو و حرکات شما باعث حملات دریایی می شود و به سادگی با غوطه ور شدن در دنیای بازی تداخل پیدا می کند، به این معنی که فریم های "اشتباه" به سادگی باید پس از رندر دور ریخته شوند و شروع شوند. دوباره کار می کند و اینها تاخیرهای جدیدی در نمایش تصویر روی نمایشگر هستند. تاثیر مثبتی بر عملکرد ندارد.

پاسکال این مشکل را در نظر گرفت و تعادل بار پویا و امکان وقفه‌های ناهمزمان را معرفی کرد: اکنون واحدهای اجرایی می‌توانند برای پردازش کارهای فوری‌تر، وظیفه فعلی را قطع کنند (نتایج کار را در حافظه پنهان ذخیره می‌کنند) یا به سادگی فریم زیر کشیده را بازنشانی می‌کنند. یک مورد جدید را شروع کنید و به طور قابل توجهی تاخیر در شکل گیری تصویر را کاهش دهید. البته ذینفع اصلی در اینجا VR و بازی ها هستند، اما این فناوری همچنین می تواند به محاسبات همه منظوره کمک کند: شبیه سازی برخورد ذرات افزایش عملکرد 10-20٪ را دریافت کرد.

تقویت 3.0

کارت‌های ویدئویی NVIDIA مدت‌ها پیش، در نسل 700 بر اساس معماری کپلر، اورکلاک خودکار دریافت کردند. در ماکسول، اورکلاک بهبود یافته بود، اما هنوز هم، به بیان ملایم، اینطور بود: بله، کارت گرافیک کمی سریعتر کار می کرد، تا زمانی که بسته حرارتی اجازه می داد، 20-30 مگا هرتز اضافی برای هسته و 50 -100 برای حافظه سیمی از کارخانه، افزایش داد، اما کمی. اینطوری کار کرد:


حتی اگر حاشیه ای برای دمای GPU وجود داشته باشد، عملکرد افزایش نمی یابد. با ظهور پاسکال، مهندسان این باتلاق غبارآلود را تکان دادند. Boost 3.0 در سه جنبه کار می کند: تجزیه و تحلیل دما، افزایش سرعت ساعت و افزایش ولتاژ روی تراشه. اکنون تمام آب ها از GPU خارج می شوند: درایورهای استاندارد NVIDIA این کار را انجام نمی دهند، اما نرم افزار فروشندگان به شما امکان می دهد یک منحنی نمایه سازی را با یک کلیک ایجاد کنید، که کیفیت نمونه کارت گرافیکی خاص شما را در نظر می گیرد.

EVGA یکی از اولین ها در این زمینه بود، ابزار Precision XOC آن دارای یک اسکنر تایید شده NVIDIA است که به طور متوالی از کل محدوده دما، فرکانس و ولتاژ عبور می کند و حداکثر کارایی را در همه حالت ها به دست می آورد.

در اینجا یک فناوری فرآیند جدید، حافظه پرسرعت، انواع بهینه‌سازی‌ها و کاهش گرمای تراشه‌ها را اضافه کنید، و نتیجه به سادگی نامناسب خواهد بود. از 1500 مگاهرتز "پایه"، اگر یک کپی خوب پیدا شود، می توان GTX 1060 را بیش از 2000 مگاهرتز فشرده کرد و فروشنده با خنک کننده مشکلی ایجاد نمی کند.

بهبود کیفیت تصویر و درک از دنیای بازی

عملکرد در همه زمینه ها افزایش یافته است، اما تعدادی از نکات وجود دارد که چندین سال است که هیچ تغییر کیفی در آنها ایجاد نشده است: در کیفیت تصویر نمایش داده شده. و این در مورد جلوه های گرافیکی نیست، آنها توسط توسعه دهندگان بازی ارائه می شوند، بلکه در مورد اینکه دقیقاً چه چیزی روی مانیتور می بینیم و چگونه بازی برای کاربر نهایی به نظر می رسد.

همگام سازی عمودی سریع

مهمترین ویژگی پاسکال بافر سه گانه برای خروجی فریم است که به طور همزمان تاخیرهای بسیار کم در رندر را فراهم می کند و همگام سازی عمودی را تضمین می کند. تصویر خروجی در یک بافر ذخیره می‌شود، آخرین فریم رندر شده در دیگری ذخیره می‌شود و تصویر فعلی در بافر سوم ترسیم می‌شود. خداحافظ راه راه های افقی و پارگی، سلام عملکرد بالا. V-Sync کلاسیک در اینجا هیچ تاخیری ندارد (زیرا هیچ کس عملکرد کارت گرافیک را محدود نمی کند و همیشه با بالاترین نرخ فریم ممکن ترسیم می کند) و فقط فریم های کاملاً شکل گرفته به مانیتور ارسال می شوند. فکر می کنم بعد از سال جدید یک پست بزرگ جداگانه در مورد V-Sync، G-Sync، Free-Sync و این الگوریتم جدید همگام سازی سریع از Nvidia بنویسم، جزئیات بیش از حد وجود دارد.

اسکرین شات های معمولی

نه، آن اسکرین شات هایی که الان هستند فقط مایه شرمساری هستند. تقریباً همه بازی‌ها از فناوری زیادی استفاده می‌کنند تا تصویر در حرکت را شگفت‌انگیز و نفس‌گیر کنند و اسکرین‌شات‌ها به یک کابوس واقعی تبدیل شده‌اند: به جای یک تصویر خیره‌کننده واقع‌گرایانه که متشکل از انیمیشن، جلوه‌های ویژه‌ای که از ویژگی‌های بینایی انسان بهره‌برداری می‌کند، برخی را مشاهده می‌کنید. یک جور زاویه ای من نمی فهمم با رنگ های عجیب و غریب و تصویر کاملاً بی روح.

فناوری جدید NVIDIA Ansel مشکل را با اسکرین شات ها حل می کند. بله، اجرای آن مستلزم ادغام کد خاصی از توسعه دهندگان بازی است، اما حداقل دستکاری واقعی وجود دارد، اما سود آن بسیار زیاد است. Ansel می داند که چگونه بازی را متوقف کند، کنترل دوربین را به دستان شما منتقل می کند و سپس فضایی برای خلاقیت دارد. شما فقط می توانید بدون رابط کاربری گرافیکی و زاویه مورد علاقه خود عکس بگیرید.


می‌توانید صحنه‌های موجود را با وضوح فوق‌العاده بالا رندر کنید، پانورامای ۳۶۰ درجه بگیرید، آن‌ها را به یک هواپیما بدوزید، یا آن‌ها را به‌صورت سه بعدی برای مشاهده در کلاه VR بگذارید. با 16 بیت در هر کانال عکس بگیرید، آن را به عنوان یک نوع فایل RAW ذخیره کنید و سپس با نوردهی، تعادل رنگ سفید و سایر تنظیمات بازی کنید تا اسکرین شات ها دوباره جذاب شوند. ما انتظار داریم تعداد زیادی محتوای جالب از طرفداران بازی در یک یا دو سال آینده ارائه شود.

پردازش صدای ویدیویی

کتابخانه های جدید NVIDIA Gameworks ویژگی های زیادی را در اختیار توسعه دهندگان قرار می دهد. آنها عمدتاً VR و سرعت بخشیدن به محاسبات مختلف و همچنین بهبود کیفیت تصویر را هدف قرار می دهند، اما یکی از ویژگی ها جالب ترین و شایسته ذکر است. VRWorks Audio کار با صدا را به سطحی کاملاً جدید می برد، صدا را نه با فرمول های متوسط ​​معمولی بسته به فاصله و ضخامت مانع شمارش می کند، بلکه یک ردیابی سیگنال صوتی کامل را با تمام بازتاب ها از محیط، طنین و جذب صدا در انواع مختلف انجام می دهد. مواد. NVIDIA یک مثال ویدیویی خوب از نحوه عملکرد این فناوری دارد:


با هدفون بهتر تماشا کنید

صرفاً از نظر تئوری، هیچ چیز مانع اجرای چنین شبیه‌سازی در Maxwell نمی‌شود، اما بهینه‌سازی‌ها از نظر اجرای ناهمزمان دستورالعمل‌ها و یک سیستم وقفه جدید تعبیه‌شده در پاسکال به شما این امکان را می‌دهد که محاسبات را بدون تأثیر زیادی بر نرخ فریم انجام دهید.

در کل پاسکال

در واقع، تغییرات حتی بیشتر است، و بسیاری از آنها به قدری عمیق در معماری هستند که می توان در مورد هر یک از آنها مقاله بزرگی نوشت. نوآوری های کلیدی عبارتند از طراحی بهبود یافته خود تراشه ها، بهینه سازی در پایین ترین سطح از نظر هندسه و عملکرد ناهمزمان با مدیریت کامل وقفه، بسیاری از ویژگی های متناسب با وضوح بالا و VR، و البته فرکانس های دیوانه کننده که نسل‌های گذشته کارت‌های ویدئویی نمی‌توانستند رویاپردازی کنند. دو سال پیش، 780 Ti به سختی از آستانه 1 گیگاهرتز عبور کرد، امروز 1080 در برخی موارد روی دو کار می کند: و در اینجا شایستگی تنها در کاهش فرآیند تولید از 28 نانومتر به 16 یا 14 نانومتر نیست: بسیاری از چیزها در بهینه سازی شده اند. پایین ترین سطح، از طراحی ترانزیستورها شروع می شود، به توپولوژی آنها و تسمه در داخل خود تراشه ختم می شود.

برای هر مورد جداگانه

خط کارت‌های گرافیک سری 10 NVIDIA واقعاً متعادل است و کاملاً تمام موارد کاربران بازی را پوشش می‌دهد، از گزینه "بازی استراتژی و دیابلو" تا "من بازی‌های برتر را با کیفیت 4k می‌خواهم". تست‌های بازی بر اساس یک تکنیک ساده انتخاب شدند: پوشش دادن طیف وسیعی از تست‌ها تا حد امکان با کوچک‌ترین مجموعه تست‌های ممکن. BF1 یک نمونه عالی از بهینه سازی خوب است و به شما امکان می دهد عملکرد DX11 را در مقابل DX12 در شرایط یکسان مقایسه کنید. DOOM فقط برای مقایسه OpenGL و Vulkan به همین دلیل انتخاب شد. سومین "Witcher" در اینجا به عنوان یک اسباب‌بازی بسیار بهینه عمل می‌کند، که در آن حداکثر تنظیمات گرافیکی اجازه می‌دهد تا هر پرچم‌داری به سادگی با استفاده از کدهای مزخرف خراب شود. این دستگاه از DX11 کلاسیک استفاده می کند که با زمان تست شده و در درایورها کاملاً کار شده است و برای توسعه دهندگان بازی آشنا است. Overwatch رپ را برای همه بازی های "تورنمنت" که کدهای بهینه سازی شده ای دارند، می گیرد، در واقع جالب است که میانگین FPS در یک بازی که از نظر گرافیکی خیلی سنگین نیست، چقدر بالا است و برای کار در "تیز شده است. پیکربندی متوسط" در سراسر جهان موجود است.

من فوراً نظرات کلی را ارائه خواهم داد: Vulkan از نظر حافظه ویدیویی بسیار حریص است ، زیرا این ویژگی یکی از شاخص های اصلی است و شما این تز را در معیارها مشاهده خواهید کرد. DX12 در کارت های AMD بسیار بهتر از NVIDIA رفتار می کند، اگر "سبز" کاهش متوسط ​​FPS را در API های جدید نشان دهد، برعکس، "قرمز" افزایش نشان می دهد.

بخش نوجوانان

GTX 1050

NVIDIA جوانتر (بدون حروف Ti) به اندازه خواهر شارژ شده خود با حروف Ti جالب نیست. سرنوشت آن یک راه حل بازی برای بازی‌های MOBA، استراتژی‌ها، شوترهای مسابقات و سایر بازی‌ها است که جزئیات و کیفیت تصویر برای کسی جالب نیست، و نرخ فریم ثابت با حداقل پول چیزی است که پزشک دستور داده است.


در تمام تصاویر فرکانس اصلی وجود ندارد، زیرا برای هر نمونه جداگانه است: 1050 بدون اضافی. ممکن است برق در حال تعقیب نباشد و خواهرش با یک کانکتور 6 پین به راحتی فرکانس 1.9 گیگاهرتز مشروط را می گیرد. از نظر قدرت و طول، محبوب ترین گزینه ها نشان داده شده است، همیشه می توانید یک کارت گرافیک با مدار متفاوت یا خنک کننده دیگری پیدا کنید که در "استانداردهای" مشخص شده قرار نمی گیرد.

DOOM 2016 (1080p، ULTRA): OpenGL - 68 FPS، Vulkan - 55 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 38 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 49 FPS، DX12 - 40 FPS.
Overwatch (1080p، ULTRA): DX11 - 93 FPS؛

GTX 1050 دارای یک پردازنده گرافیکی GP107 است که از کارت قدیمی‌تر به ارث رسیده است و بلوک‌های عملکردی کمی بریده شده است. 2 گیگابایت حافظه ویدیویی به شما اجازه نمی دهد وحشی شوید، اما برای رشته های ورزشی الکترونیکی و بازی کردن نوعی تانک، عالی است، زیرا قیمت یک کارت جوان از 9.5 هزار روبل شروع می شود. نیازی به برق اضافی نیست، کارت گرافیک تنها به 75 وات از مادربرد از طریق اسلات PCI-Express نیاز دارد. درسته، در این بخش قیمت، یک AMD Radeon RX460 نیز وجود دارد که با همان حافظه 2 گیگابایتی ارزان تر است و تقریباً از نظر کیفیت پایین نیست و تقریباً با همان پول می توانید یک RX460 تهیه کنید اما در یک 4 گیگابایت نسخه نه اینکه خیلی به او کمک کردند، بلکه نوعی ذخیره برای آینده بود. انتخاب فروشنده چندان مهم نیست، می توانید آنچه را که در دسترس است بردارید و با هزار روبل اضافی جیب خود را بیرون نکشید، که بهتر است برای حروف گرامی Ti خرج کنید.

GTX 1050 Ti

حدود 10 هزار برای 1050 معمولی بد نیست، اما برای نسخه شارژ شده (یا فول، اسمش را همانطور که می خواهید) کمی بیشتر می خواهند (به طور متوسط ​​1-1.5 هزار بیشتر)، اما پر شدن آن بسیار جالب تر است. . به هر حال، کل سری 1050 نه از برش / رد تراشه های "بزرگ" که برای 1060 مناسب نیستند، بلکه به عنوان یک محصول کاملاً مستقل تولید می شود. این دارای یک فرآیند تولید کوچکتر (14 نانومتر)، یک کارخانه متفاوت (کریستال ها توسط کارخانه سامسونگ رشد می کنند)، و نمونه های بسیار جالبی با اضافی وجود دارد. منبع تغذیه: پکیج حرارتی و مصرف پایه هنوز همان 75 وات است، اما پتانسیل اورکلاک و توانایی فراتر از حد مجاز کاملاً متفاوت است.


اگر به بازی با وضوح FullHD (1920x1080) ادامه می‌دهید، برنامه‌ای برای ارتقاء ندارید، و بقیه سخت‌افزار شما در 3 تا 5 سال پیش است - راهی عالی برای افزایش عملکرد در اسباب‌بازی‌ها با ضرر کم. باید روی راه حل های ASUS و MSI با منبع تغذیه 6 پین اضافی تمرکز کنید، گزینه های گیگابایت بد نیستند، اما قیمت آنچنان دلگرم کننده نیست.

DOOM 2016 (1080p، ULTRA): OpenGL - 83 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 44 FPS.
Battlefield 1 (1080p، ULTRA): DX11 - 58 FPS، DX12 - 50 FPS.
Overwatch (1080p، ULTRA): DX11 - 104 FPS.

تقسیم بندی میانی

کارت‌های ویدئویی خط 60 مدت‌هاست که بهترین انتخاب برای کسانی تلقی می‌شوند که نمی‌خواهند پول زیادی خرج کنند و در عین حال در هر چیزی که در چند سال آینده منتشر می‌شود با تنظیمات گرافیکی بالا بازی می‌کنند. از زمان GTX 260 که دو نسخه داشت (ساده تر، 192 پردازنده جریانی و چاق تر، 216 سنگ) شروع شد، در نسل های 400، 500 و 700 ادامه یافت و اکنون NVIDIA دوباره به یک تقریباً عالی سقوط کرد. قیمت و کیفیت ترکیبی دو نسخه «متوسط» دوباره در دسترس هستند: GTX 1060 با 3 و 6 گیگابایت حافظه ویدیویی نه تنها از نظر مقدار RAM موجود، بلکه در عملکرد نیز متفاوت است.

GTX 1060 3 گیگابایت

ملکه ورزش های الکترونیکی قیمت مناسب، عملکرد شگفت‌انگیز برای FullHD (و در ورزش‌های الکترونیکی به ندرت از وضوح بالاتر استفاده می‌کنند: نتایج مهم‌تر از چیزهای زیبا هستند)، حافظه مناسب (3 گیگابایت، برای یک دقیقه، دو سال پیش در GTX 780 پرچم‌دار بود. Ti، که هزینه های غیرقابل شرعی دارد). از نظر عملکرد، 1060 جوان تر به راحتی GTX 970 سال گذشته را با حافظه به یاد ماندنی 3.5 گیگابایتی غلبه می کند و به راحتی سال قبل از پرچمدار فوق العاده 780 Ti را در گوش خود می کشد.


DOOM 2016 (1080p، ULTRA): OpenGL - 117 FPS، Vulkan - 87 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 70 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 92 FPS، DX12 - 85 FPS.
Overwatch (1080p، ULTRA): DX11 - 93 FPS.

در اینجا نسخه مورد علاقه مطلق از نظر قیمت و اگزوز، نسخه MSI است. فرکانس های خوب، سیستم خنک کننده بی صدا و ابعاد معقول. برای او، آنها اصلاً چیزی در حدود 15 هزار روبل نمی خواهند.

GTX 1060 6 گیگابایت

نسخه 6 گیگابایتی بلیت اقتصادی VR و وضوح بالا است. این کارت حافظه کم نخواهد داشت، در همه آزمایش‌ها کمی سریع‌تر است و با اطمینان از GTX 980 که در آن کارت ویدیوی سال گذشته 4 گیگابایت حافظه ویدیویی کافی نخواهد داشت، بهتر عمل خواهد کرد.


DOOM 2016 (1080p، ULTRA): OpenGL - 117 FPS، Vulkan - 121 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 73 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 94 FPS، DX12 - 90 FPS.
Overwatch (1080p، ULTRA): DX11 - 166 FPS.

من می خواهم یک بار دیگر به رفتار کارت های ویدیویی هنگام استفاده از Vulkan API توجه کنم. 1050 با 2 گیگابایت حافظه - کاهش FPS. 1050 Ti با 4 گیگابایت - تقریباً برابر. 1060 3 گیگابایت - کاهش. 1060 6 گیگابایت - رشد نتایج. روند، فکر می‌کنم واضح است: Vulkan به 4+ گیگابایت حافظه ویدیویی نیاز دارد.

مشکل اینجاست که هر دو 1060 کارت گرافیک کوچک نیستند. به نظر می رسد که بسته حرارتی معقول است و برد آنجا واقعاً کوچک است، اما بسیاری از فروشندگان تصمیم گرفتند به سادگی سیستم خنک کننده را بین 1080، 1070 و 1060 یکسان کنند. شخصی کارت گرافیکی با ارتفاع 2 اسلات، اما طول 28+ سانتی متر دارد. آنها کوتاه تر، اما ضخیم تر (2.5 شکاف). با دقت انتخاب کنید.

متأسفانه، 3 گیگابایت حافظه ویدیویی اضافی و یک واحد محاسباتی قفل نشده، 5-6 هزار روبل بیش از قیمت نسخه 3 گیگ برای شما هزینه خواهد داشت. در این صورت پالیت از نظر قیمت و کیفیت جالب ترین گزینه ها را دارد. ایسوس سیستم های خنک کننده هیولایی 28 سانتی متری را منتشر کرده است که روی 1080 و 1070 و 1060 مجسمه سازی شده اند و چنین کارت گرافیکی در هیچ کجا جا نمی شود، نسخه های بدون اورکلاک کارخانه تقریباً یکسان هستند و اگزوز کمتر است و آنها درخواست می کنند. بیشتر برای MSI نسبتا فشرده نسبت به رقبا در همان سطح کیفیت و اورکلاک کارخانه.

لیگ اصلی

بازی با تمام پول در سال 2016 دشوار است. بله، 1080 فوق‌العاده جالب است، اما افراد کمال‌گرا و سخت‌افزار می‌دانند که NVIDIA وجود پرچم‌دار فوق‌العاده 1080 Ti را پنهان می‌کند، که باید فوق‌العاده جالب باشد. اولین مشخصات در حال حاضر به صورت آنلاین درز کرده است، و واضح است که سبزها منتظر هستند تا سرخ و سفیدها وارد عمل شوند: نوعی تفنگ بزرگ که می تواند فوراً توسط پادشاه جدید گرافیک سه بعدی، بزرگ، در جای خود قرار گیرد. و قدرتمند GTX 1080 Ti. خوب، در حال حاضر، آنچه را که داریم داریم.

GTX 1070

ماجراهای سال گذشته مگا محبوب GTX 970 و حافظه نه چندان صادقانه 4 گیگابایتی آن به طور فعال مرتب شده و در سراسر اینترنت جمع شده است. این مانع از تبدیل شدن او به محبوب ترین کارت گرافیک بازی در جهان نشد. پیش از تغییر سال در تقویم، مقام اول را در نظرسنجی سخت افزار و نرم افزار Steam دارد. این قابل درک است: ترکیب قیمت و عملکرد عالی بود. و اگر ارتقاء سال گذشته را از دست دادید و 1060 به اندازه کافی بد به نظر نمی رسد، GTX 1070 انتخاب شماست.

وضوح 2560x1440 و 3840x2160 کارت گرافیک با صدای بلند هضم می شود. سیستم اورکلاک Boost 3.0 سعی می کند با افزایش بار پردازنده گرافیکی هیزم پرتاب کند (یعنی در سخت ترین صحنه ها، زمانی که FPS تحت هجوم جلوه های ویژه کاهش می یابد)، پردازنده کارت گرافیک را به 2100+ اورکلاک می کند. مگاهرتز حافظه به راحتی 15-18 درصد فرکانس موثر بالاتر از مقادیر کارخانه را دریافت می کند. چیز هیولا.


توجه، تمام تست ها در 2.5k (2560x1440) انجام می شود:

DOOM 2016 (1440p، ULTRA): OpenGL - 91 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (1440p، MAX، HairWorks Off): DX11 - 73 FPS؛
Battlefield 1 (1440p، ULTRA): DX11 - 91 FPS، DX12 - 83 FPS.
Overwatch (1440p، ULTRA): DX11 - 142 FPS.

البته، غیرممکن است که تنظیمات فوق‌العاده را در 4k انجام دهید و هرگز با این کارت یا 1080 کمتر از 60 فریم در ثانیه کاهش پیدا نکنید، اما می‌توانید در تنظیمات «بالا» شرطی بازی کنید، و یا کمی کاهنده‌ترین ویژگی‌ها را به طور کامل خاموش کنید. رزولوشن، و از نظر عملکرد واقعی، کارت گرافیک به راحتی حتی 980 Ti سال گذشته را که تقریبا دو برابر قیمت داشت، شکست می دهد. گیگابایت جالب ترین گزینه را دارد: آنها توانستند یک 1070 کامل را در یک کیس استاندارد ITX قرار دهند. به لطف بسته حرارتی متوسط ​​و طراحی کم مصرف. قیمت کارت ها از 29-30 هزار روبل برای گزینه های خوشمزه شروع می شود.

GTX 1080

بله، پرچمدار حروف Ti را ندارد. بله، از بزرگترین GPU موجود از NVIDIA استفاده نمی کند. بله، در اینجا هیچ حافظه جالب HBM 2 وجود ندارد و کارت گرافیک شبیه یک ستاره مرگ یا در حالت شدید، یک رزمناو امپریال کلاس Star Destroyer نیست. و بله، این جالبترین کارت گرافیک بازی موجود در حال حاضر است. یکی یکی DOOM را با رزولوشن 5k3k با سرعت 60 فریم بر ثانیه در تنظیمات فوق العاده اجرا می کند. همه اسباب‌بازی‌های جدید مشمول آن هستند و تا یکی دو سال آینده مشکلی پیش نمی‌آید: تا زمانی که فناوری‌های جدید تعبیه‌شده در پاسکال فراگیر شوند، تا زمانی که موتورهای بازی یاد بگیرند که چگونه منابع موجود را به‌طور مؤثر بارگیری کنند... بله، در چند سال آینده سال‌ها خواهیم گفت: «اینجا، به GTX 1260 نگاه کنید، چند سال پیش برای بازی با این تنظیمات به یک پرچم‌دار نیاز داشتید»، اما در حال حاضر، بهترین کارت‌های گرافیکی قبل از سال جدید با قیمتی بسیار معقول در دسترس هستند. قیمت


توجه، تمام تست ها در 4k (3840x2160) انجام می شود:

DOOM 2016 (2160p، ULTRA): OpenGL - 54 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (2160p، MAX، HairWorks Off): DX11 - 55 FPS.
Battlefield 1 (2160p، ULTRA): DX11 - 65 FPS، DX12 - 59 FPS.
Overwatch (2160p، ULTRA): DX11 - 93 FPS.

تنها تصمیم گیری باقی می ماند: به آن نیاز دارید، یا می توانید پول خود را پس انداز کنید و 1070 بگیرید. تفاوت زیادی بین بازی در تنظیمات "ultra" یا "high" وجود ندارد، زیرا موتورهای مدرن حتی در تنظیمات متوسط ​​​​به خوبی تصویری را با وضوح بالا ترسیم می کنند. : به هر حال، ما می دانیم که شما کنسول های صابونی نیستید که نمی توانید عملکرد کافی برای 4k صادقانه و 60 فریم بر ثانیه پایدار ارائه دهید.

اگر ارزان ترین گزینه ها را کنار بگذاریم، Palit دوباره بهترین ترکیب قیمت و کیفیت را در نسخه GameRock خواهد داشت (حدود 43-45 هزار روبل): بله، سیستم خنک کننده "ضخیم" است، 2.5 اسلات، اما کارت گرافیک کوتاه تر از رقبا است و یک جفت 1080 به ندرت نصب می شود. SLI به آرامی در حال مرگ است و حتی تزریق حیات بخش پل های پرسرعت نیز کمک چندانی به آن نمی کند. گزینه ASUS ROG بد نیست اگر امکانات اضافی نصب شده باشد. شما نمی خواهید شکاف های اضافی را بپوشانید: کارت گرافیک آنها دقیقاً 2 اسلات ضخامت دارد، اما به 29 سانتی متر فضای خالی از دیوار پشتی تا سبد هارد دیسک نیاز دارد. نمی دانم آیا گیگابایت می تواند این هیولا را با فرمت ITX منتشر کند؟

نتایج

کارت‌های ویدئویی جدید NVIDIA بازار سخت‌افزار استفاده شده را به خاک سپرده‌اند. فقط GTX 970 روی آن زنده می ماند که می توان آن را 10-12 هزار روبل ربود. خریداران بالقوه 7970 و R9 280 کارکرده اغلب جایی برای قرار دادن آن ندارند و به سادگی آن را تغذیه نمی کنند، و بسیاری از گزینه های بازار ثانویه به سادگی امیدبخش نیستند و به عنوان یک ارتقاء ارزان قیمت برای چند سال آینده خوب نیستند: چیز کمی وجود دارد. حافظه، فن آوری های جدید پشتیبانی نمی شوند. زیبایی نسل جدید کارت‌های ویدئویی این است که حتی بازی‌هایی که برای آن‌ها بهینه نشده‌اند، بسیار شادتر از نمودارهای قدیمی GPU سال‌های گذشته اجرا می‌شوند، و تصور اینکه در یک سال، زمانی که موتورهای بازی یاد بگیرند که از کامل استفاده کنند چه اتفاقی می‌افتد، سخت است. قدرت فناوری های جدید

GTX 1050 و 1050Ti

افسوس، من نمی توانم خرید ارزان ترین پاسکال را توصیه کنم. RX 460 معمولاً با هزار یا دو قیمت کمتر فروخته می شود، و اگر بودجه شما آنقدر محدود است که یک کارت گرافیک را «برای آخرین» می گیرید، پس Radeon سرمایه گذاری جالب تری است. از طرفی 1050 کمی سریعتر است و اگر قیمت های شهر شما برای این دو کارت گرافیک تقریباً یکسان است، آن را بگیرید.

1050Ti به نوبه خود گزینه ای عالی برای کسانی است که به داستان و گیم پلی بیشتر از زنگ و سوت و موهای واقعی بینی اهمیت می دهند. گلوگاهی در قالب 2 گیگابایت حافظه ویدیویی ندارد، پس از یک سال "پایین" نمی رود. می توانید روی آن پول بگذارید - این کار را انجام دهید. Witcher در تنظیمات بالا، GTA V، DOOM، BF 1 - بدون مشکل. بله، شما باید از تعدادی از پیشرفت‌ها، مانند سایه‌های بسیار طولانی، ساختار پیچیده یا محاسبه «گران قیمت» مدل‌های خودسایه‌دار با ردیابی پرتوی محدود چشم‌پوشی کنید، اما در گرماگرم نبرد، این زیبایی‌ها را فراموش خواهید کرد. پس از 10 دقیقه بازی، و 50-60 فریم در ثانیه پایدار، جلوه بسیار فراگیرتری نسبت به پرش های عصبی از 25 به 40 می دهد، اما با تنظیمات روی "حداکثر".

اگر کارت گرافیک Radeon 7850، GTX 760 یا جوان‌تر، با 2 گیگابایت حافظه ویدیویی یا کمتر دارید، می‌توانید با خیال راحت آن را تغییر دهید.

GTX 1060

1060 جوان‌تر، کسانی را که نرخ فریم 100 فریم بر ثانیه برایشان مهم‌تر از زنگ‌ها و سوت‌های گرافیکی است، خوشحال می‌کند. در عین حال به شما این امکان را می دهد که تمامی بازی های منتشر شده را با رزولوشن FullHD با تنظیمات بالا یا حداکثر و 60 فریم بر ثانیه پایدار به راحتی بازی کنید و قیمت آن با هر چیزی که بعد از آن عرضه می شود بسیار متفاوت است. 1060 قدیمی تر با 6 گیگابایت حافظه یک راه حل سازش ناپذیر برای FullHD با حاشیه عملکرد برای یک یا دو سال، آشنایی با واقعیت مجازی و یک کاندید کاملا قابل قبول برای بازی با وضوح بالا در تنظیمات متوسط ​​است.

تغییر GTX 970 به GTX 1060 منطقی نیست، یک سال دیگر طول می کشد. اما واحدهای آزاردهنده 960، 770، 780، R9 280X و قدیمی‌تر را می‌توان با خیال راحت به 1060 به‌روزرسانی کرد.

بخش برتر: GTX 1070 و 1080

بعید است که 1070 به اندازه GTX 970 محبوب شود (با این وجود، اکثر کاربران یک چرخه به روز رسانی آهنی هر دو سال یک بار دارند)، اما از نظر قیمت و کیفیت، مطمئناً ادامه دهنده خط 70 است. فقط بازی‌ها را با کیفیت 1080p می‌چرخاند، به راحتی با رزولوشن 2560x1440 کنترل می‌کند، در برابر سختی‌های بهینه‌نشده 21 تا 9 مقاومت می‌کند، و کاملاً قادر به نمایش 4k است، البته نه در حداکثر تنظیمات.


بله، SLI نیز می تواند چنین باشد.

ما با هر 780 Ti، R9 390X و سایر 980 های سال گذشته خداحافظی می کنیم، به خصوص اگر بخواهیم با وضوح بالا بازی کنیم. و بله، این بهترین گزینه برای کسانی است که دوست دارند جعبه جهنمی را با فرمت Mini-ITX بسازند و مهمانان را با بازی های 4k روی یک تلویزیون 60-70 اینچی که روی رایانه ای به اندازه یک قهوه ساز اجرا می شود بترسانند.
تاریخچه کارت گرافیک gtx 1050 برچسب اضافه کنید

NVIDIA در حال آماده سازی برای عرضه سری جدیدی از کارت های گرافیک بازی است که توسط GeForce GTX 1080 افتتاح می شود. این مدل اولین محصول کلاس بازی مبتنی بر معماری پاسکال خواهد بود. GeForce GTX 1080 تعدادی از نوآوری های تکنولوژیکی را به همراه خواهد داشت که در این مقاله به آنها خواهیم پرداخت. این ماده ماهیت نظری خواهد داشت، ویژگی‌های معماری و ویژگی‌های جدید GeForce GTX 1080 را مورد بحث قرار می‌دهد. تست و مقایسه با سایر کارت‌های ویدیویی بعداً ظاهر می‌شود.

پیشرفت سریع در کوچک سازی تراشه های سیلیکونی در سال های اخیر کند شده است. اینتل حتی استراتژی تیک تاک را که شامل انتقال منظم به فناوری فرآیند نازک‌تر بود، کنار گذاشت. چندین نسل از محصولات NVIDIA و AMD در بازار شتاب دهنده های گرافیکی در چارچوب یک فناوری فرآیند 28 نانومتری تغییر کرده اند. این امر تا حدی سودمند بود و سازندگان را وادار کرد تا توجه بیشتری به توسعه معماری داشته باشند. این انتقال کیفی در زمان تغییر از کپلر به معماری ماکسول به وضوح قابل مشاهده بود، زمانی که معلوم شد نسل جدید بدون افزایش تعداد ترانزیستورها یا حتی کاهش اندازه کریستال‌ها مولدتر و کارآمدتر از انرژی است. به عنوان مثال، GeForce GTX 980 مبتنی بر یک تراشه جمع‌وجورتر GM204 است که مانع از نمایش عملکرد بالاتر کارت گرافیک در مقایسه با GeForce GTX 780 Ti با تراشه پیچیده‌تر GK110 نمی‌شود.

نسل جدید GeForce هم معماری جدید و هم فناوری فرآیند نازک تری دریافت خواهد کرد. و GeForce GTX 1080 از بسیاری جهات پیشرو است. این اولین پردازنده گرافیکی معماری پاسکال با پردازنده گرافیکی GP104 بر اساس فناوری پردازش 16 نانومتری FinFET است. در میان نوآوری های مهم، NVIDIA به حافظه سریع GDDR5X اشاره می کند. ویژگی‌های جدید فن‌آوری به شما امکان می‌دهد فرکانس‌ها را تا سطح رکورد بالا ببرید و سطح جدیدی از "تسلط" را تعریف کنید. و فناوری های جدید بازی قابلیت های GeForce را به ویژه در زمینه کار با محتوای VR گسترش می دهد. اینها پنج ویژگی اصلی هستند که سازنده در یک محصول جدید برجسته می کند.

شایان ذکر است که در ابتدا شتاب دهنده محاسباتی تخصصی تسلا P100 پیشگام معماری پاسکال شد. این پردازنده مبتنی بر پردازنده GP100 است. اما از آنجایی که این محصول بر روی یک حوزه کاربردی کاملا متفاوت متمرکز شده است، این GeForce GTX 1080 است که در میان شتاب دهنده های گرافیکی دسکتاپ پیشگام است.

GPU GP104 وارث GM204 است، بنابراین هنگام مطالعه GeForce GTX 1080، می توانید بر روی GeForce GTX 980 بسازید، هرچند که جدیداً سریعتر از GeForce GTX 980 Ti و GeForce GTX Titan X است. پردازنده های پاسکال از ساختار خوشه ای مشابه استفاده می کنند. پیشینیان آنها، جایی که خوشه GPC (خوشه پردازش گرافیکی) اساساً یک واحد محاسباتی مستقل است. GP100 مبتنی بر شش کلاستر است، GP104 دارای چهار کلاستر است و تراشه بعدی GP106 باید دو کلاستر دریافت کند. چهار پردازنده گرافیکی GP104 جدید را تا حد امکان به GM204 نزدیک می کنند. و بلوک دیاگرام این تراشه نیز شبیه یک پردازنده قدیمی است.

تفاوت در ساختار با بررسی دقیق تر آشکار می شود. در نسل گذشته، این خوشه شامل چهار واحد SMM چند پردازنده ای بزرگ بود. در GP104، واحدهای اجرایی پایین تر به پنج واحد چند پردازنده SM گروه بندی می شوند. هر یک از این واحدهای پردازش داده بزرگ با واحد پردازش هندسه Polymorph Engine خود همراه است که اکنون به جای 16 مورد برای GM204، 20 عدد وجود دارد.

یک SM به چهار آرایه پردازش داده با منطق کنترل خود تقسیم می شود و این نیز شبیه ساختار GPU های قدیمی است. و در هر دو مورد، چند پردازنده با 128 هسته جریان (هسته CUDA) کار می کند. SM دارای 96 کیلوبایت حافظه پنهان مشترک، یک کش بافت جداگانه و هشت واحد بافت است. در نتیجه، ما یک پیکربندی از 2560 پردازنده جریان و 160 واحد بافت داریم. پردازنده جدید دارای 64 ROP و 2 مگابایت حافظه نهان L2 است - هیچ تفاوتی با GM204 وجود ندارد.

کنترلرهای حافظه بیشتری وجود دارد، پاسکال کل زیر سیستم حافظه را تغییر داده است. به جای چهار کنترلر 64 بیتی، هشت کنترلر 32 بیتی پیاده سازی شده است که عرض گذرگاه حافظه 256 بیتی را فراهم می کند. پس از GeForce GTX 980 موفق، چنین گذرگاه حافظه در یک محصول برتر دیگر تعجب آور نیست. در عین حال، بازده گذرگاه GeForce GTX 1080 به دلیل الگوریتم های جدید فشرده سازی داده ها بالاتر است. همچنین رشد توان توسط میکرو مدارهای استاندارد جدید GDDR5X که در آن ارزش تبادل داده موثر معادل فرکانس 10 گیگاهرتز است، فراهم می شود. حافظه معمولی GDDR5 به فرکانس‌هایی تا 7 گیگاهرتز محدود می‌شد. بافر ویدیو به 8 گیگابایت افزایش یافته است.

به لطف فناوری فرآیند جدید، GP104 فشرده تر از GM204 با واحدهای محاسباتی بیشتر است. در عین حال، پردازنده جدید فرصت های بیشتری برای افزایش فرکانس دارد. در ابتدا، مقدار پایه 1607 مگاهرتز با متوسط ​​ساعت تقویتی 1733 مگاهرتز تنظیم شد. مقادیر اوج فرکانس حتی بالاتر است. با چنین فرکانس‌های رکوردی، GeForce GTX 1080 با TDP 180 W قرار می‌گیرد که کمی بالاتر از GeForce GTX 980 است. اما نسخه جدید سریع‌تر از نسخه برتر Ti است که TDP به‌طور قابل‌توجهی بالاتری دارد.

برای مقایسه بصری، اجازه دهید ویژگی های GeForce GTX 1080 و کارت گرافیک های برتر نسل های قبلی را در یک جدول خلاصه کنیم.

آداپتور ویدیو GeForce GTX 1080 GeForce GTX Titan X GeForce GTX 980 Ti GeForce GTX 980 GeForce GTX 780 Ti
هسته GP104 GM200 GM200 GM204 GK110
تعداد ترانزیستور، میلیون قطعه 7200 8000 8000 5200 7100
فناوری فرآیند، نانومتر 16 28 28 28 28
مساحت هسته، مربع میلی متر 314 601 601 398 561
تعداد پردازنده های جریانی 2560 3072 2816 2048 2880
تعداد بلوک های بافت 160 192 176 128 240
تعداد واحدهای رندر 64 96 96 64 48
فرکانس هسته، مگاهرتز 1607-1733 1000-1075 1000-1075 1126-1216 875-926
اتوبوس حافظه، بیت 256 386 386 256 384
نوع حافظه GDDR5X GDDR5 GDDR5 GDDR5 GDDR5
فرکانس حافظه، مگاهرتز 10010 7010 7010 7010 7010
حجم حافظه، مگابایت 8192 12288 6144 4096 3072
نسخه پشتیبانی شده DirectX 12.1 12.1 12.1 12.1 12.0
رابط PCI-E3.0 PCI-E3.0 PCI-E3.0 PCI-E3.0 PCI-E3.0
پاور، دبلیو 180 250 250 165 250

کارت‌های گرافیک میان‌رده و رده بالا NVIDIA مدت‌هاست که از فناوری GPU Boost بهره می‌بردند که فرکانس GPU را تا زمانی که از حد دما یا قدرت فراتر رود، افزایش می‌دهد. حداقل مقدار برای حالت 3D فرکانس پایه است، اما اغلب تحت بار بازی معمولی، فرکانس ها همیشه بالاتر هستند. GeForce جدید فناوری بهبود یافته GPU Boost 3.0 را با الگوریتم انعطاف‌پذیرتر برای تغییر فرکانس بسته به ولتاژ تغذیه در حالت شتاب فرکانس دریافت کرد. GPU Boost 2.0 تفاوت ثابتی بین مقدار پایه و فرکانس توربو دارد. GPU Boost 3.0 به شما امکان می دهد از جابجایی فرکانس های مختلف استفاده کنید که پتانسیل GPU را بهتر نشان می دهد. از نظر تئوری، هنگامی که پارامترها به طور خودکار در حالت Boost با افزایش یا کاهش ولتاژ تغییر می کنند، فرکانس به صورت غیر خطی تغییر می کند، در برخی نقاط ممکن است دلتای Boost بیشتر از GPU Boost باشد. نسخه قدیمی. گزینه های جدید تنظیم Boost انعطاف پذیر در دسترس کاربران خواهد بود. آخرین نسخه ابزار EVGA Precision قبلاً از GeForce GTX 1080 پشتیبانی می کند، از جمله ویژگی های آن یک اسکنر خودکار با تست پایداری است که می تواند یک منحنی فرکانس Boost غیرخطی برای ولتاژهای مختلف ایجاد کند. انتقال به یک فناوری فرآیند جدید و بهینه سازی ساختار هسته، دستیابی به چنین شتاب فرکانس قابل توجهی را امکان پذیر کرد که حداکثر Boost نسبت به مقادیر اعلام شده را می توان به 2 گیگاهرتز افزایش داد.

از زمان ظهور GDDR5، NVIDIA روی نسل بعدی حافظه های پرسرعت کار می کند. نتیجه تعامل با توسعه دهندگان حافظه ظاهر GDDR5X با سرعت انتقال داده 10 گیگابیت بر ثانیه بود. کار با چنین حافظه سریعی الزامات جدیدی را برای سیم کشی مدارهای الکتریکی ایجاد می کند. بنابراین، خطوط انتقال داده بین GPU و تراشه های حافظه دوباره طراحی شد، ساختار خود تراشه تغییر کرد. همه اینها به شما اجازه می دهد تا به طور موثر با یک بافر ویدیویی فوق سریع کار کنید. از جمله مزایای GDDR5X ولتاژ کاری کمتر 1.35 ولت است.

با فرکانس حافظه موثر 10000 مگاهرتز، افزایش پهنای باند نسبت به 7012 مگاهرتز معمول برای نسل فعلی تقریباً 43 درصد است. اما مزایای پاسکال به همین جا ختم نمی شود. GeForce از الگوریتم‌های ویژه‌ای برای فشرده‌سازی داده‌ها در حافظه پشتیبانی می‌کند، که امکان استفاده کارآمدتر از حافظه پنهان و انتقال داده‌های بیشتری را برای همان پهنای باند فراهم می‌کند. چندین تکنیک پشتیبانی می شود، بسته به نوع داده، الگوریتم فشرده سازی متفاوتی انتخاب می شود. نقش مهمی را الگوریتم فشرده سازی رنگ دلتا ایفا می کند. با تشکر از او، نه رنگ هر پیکسل منفرد، بلکه تفاوت بین پیکسل ها در طول انتقال داده سریال کدگذاری می شود. مقداری میانگین رنگ کاشی و داده های افست رنگ برای هر پیکسل از این کاشی محاسبه می شود.

این فشرده سازی مکسول را بسیار بازده می کند، اما پاسکال حتی کارآمدتر است. GP104 GPU علاوه بر این از الگوریتم‌های جدید با فشرده‌سازی بیشتر برای مواردی که تفاوت بین رنگ‌ها حداقل است، پشتیبانی می‌کند.

به عنوان مثال، NVIDIA به دو اسلاید از بازی Project CARS اشاره می کند. کاشی‌هایی که فشرده‌سازی داده‌ها در آن‌ها اعمال شده است، روی آن‌ها به رنگ صورتی رنگ می‌شوند. اسلاید بالایی کار فشرده سازی را روی ماکسول و اسلاید پایینی روی پاسکال نشان می دهد.

همانطور که می بینید، فشرده سازی پاسکال در مناطقی که در Maxwell انجام نمی شود نیز اعمال می شود. در نتیجه تقریباً کل قاب فشرده شد. البته کارایی چنین الگوریتم هایی به هر صحنه خاص بستگی دارد. به گفته انویدیا، تفاوت در این بازده بین GeForce GTX 1080 و GeForce GTX 980 بین 11 تا 28 درصد است. اگر 20٪ را به عنوان یک مقدار متوسط ​​در نظر بگیریم، با در نظر گرفتن افزایش فرکانس های حافظه، افزایش در نتیجه حدود 70٪ است.

نسل بعدی GeForce از Async Compute با استفاده از محاسبات بهبودیافته پشتیبانی می‌کند انواع متفاوتوظایف در بازی‌های مدرن، پردازنده‌های گرافیکی می‌توانند همزمان با رندر کردن تصاویر، وظایف دیگری را نیز انجام دهند. این می تواند محاسبه فیزیک بدن، پس پردازش تصویر و یک تکنیک ویژه اعوجاج زمان ناهمزمان (Asynchronous Time Warp) برای حالت واقعیت مجازی باشد. هنگام انجام وظایف مختلف، همه واحدهای محاسباتی همیشه درگیر نیستند و اجرای هر کار ممکن است زمان های متفاوتی را ببرد. به عنوان مثال، اگر محاسبات غیر گرافیکی بیشتر از محاسبات گرافیکی طول بکشد، همچنان منتظر می ماند تا هر فرآیند تکمیل شود تا به وظایف جدید سوئیچ کند. در عین حال، بخشی از منابع GPU بیکار است. پاسکال تعادل بار پویا را معرفی کرد. اگر یک کار زودتر تکمیل شده باشد، منابع آزاد شده به اجرای یک کار دیگر متصل می شوند.

بنابراین، می توان با یک بار ترکیبی روی GPU از خرابی جلوگیری کرد و عملکرد کلی را افزایش داد. با چنین باری، سرعت جابجایی بین وظایف نیز نقش مهمی ایفا می کند. پاسکال از وقفه کار در سطوح مختلف برای سریعترین سوئیچینگ ممکن پشتیبانی می کند. هنگامی که یک فرمان جدید دریافت می شود، پردازنده وظایف را در سطوح پردازش پیکسل و رشته قطع می کند و وضعیت آنها را برای تکمیل بیشتر ذخیره می کند و واحدهای محاسباتی برای یک کار جدید تحویل می گیرند. پاسکال از وقفه ها در سطح دستورالعمل پشتیبانی می کند، ماکسول و کپلر فقط در سطح رشته.

وقفه در سطوح مختلف به شما امکان می دهد تا لحظه تعویض کار را با دقت بیشتری تعیین کنید. این برای تکنیک ناهمزمان زمان تاب مهم است، که تصویری را که از قبل تشکیل شده است، قبل از خروجی آن برای تصحیح با توجه به موقعیت سر تغییر شکل می دهد. با زمان ناهمگام، شما نیاز به یک لید سریع دارید تا قبل از نمایش قاب، کاملاً تغییر دهید، در غیر این صورت، مصنوعات به شکل "جوت" تصویر امکان پذیر است. پاسکال به بهترین شکل از عهده این کار بر می آید.

پاسکال پشتیبانی سخت افزاری را برای فناوری چند پروژکتوری معرفی کرد که به شما امکان می دهد به طور همزمان با پیش بینی های مختلف تصویر کار کنید. بلوک ویژهچند پروجکشن همزمان در داخل موتور PolyMorph مسئول تشکیل برجستگی های مختلف در هنگام پردازش یک جریان هندسی است. این بلوک هندسه را به طور همزمان برای 16 پیش بینی با یک یا دو مرکز پرسپکتیو پردازش می کند. این نیازی به پردازش مجدد هندسی ندارد و اجازه می دهد تا داده ها تا 32 بار تکرار شوند (16 پیش بینی در دو نقطه).

به لطف این فناوری، می‌توانید تصویر صحیح را در تنظیمات چند مانیتور دریافت کنید. هنگام استفاده از سه مانیتور، تصویر برای یک طرح نمایش داده می شود. اگر مانیتورهای لبه با زاویه کمی چرخانده شوند تا جلوه ای از محیط ایجاد کنند، هندسه نادرست در نواحی جانبی خواهید داشت. پروژکشن چندگانه تصویر درستی را ایجاد می کند و مطابق با زاویه مانیتور، طرح ریزی صحیح را تشکیل می دهد. تنها شرط این حالت این است که خود برنامه از FOV گسترده پشتیبانی کند.

این تکنیک تصویربرداری کارآمدترین استفاده از پانل‌های منحنی را امکان‌پذیر می‌کند و همچنین فرصت‌هایی را برای رندر صحیح در سایر دستگاه‌های نمایشگر، حتی روی صفحه‌نمایش کروی، باز می‌کند.

این فناوری قابلیت‌های پاسکال را در ایجاد یک تصویر استریو و در سیستم‌های واقعیت مجازی (VR) گسترش می‌دهد. در حالت استریو، دو تصویر از یک صحنه برای هر چشم تولید می شود. پشتیبانی سخت‌افزاری همزمان چند پروژکتوری به شما این امکان را می‌دهد تا با استفاده از فناوری Single Pass Stereo، هر تصویر را با یک پردازش هندسی برای چشم خود ایجاد کنید. و سرعت کار را در این حالت به میزان قابل توجهی افزایش می دهد.

در سیستم های واقعیت مجازی، کاربر از عینک هایی با لنزهای مخصوص استفاده می کند که اعوجاج های خاصی را ایجاد می کند. برای جبران، تصویر در لبه ها کمی تغییر شکل می دهد و کاربر در نهایت تصویر تصحیح شده توسط لنز را مشاهده می کند. اما در ابتدا، کارت گرافیک تصویر را در طرح معمولی مسطح ترسیم می کند و سپس بخشی از تصویر محیطی ناپدید می شود.

فناوری Lens Matched Shading می تواند یک تصویر را به چهار ربع تقسیم کند و سپس پیکسل ها را نمونه برداری کند. یعنی تصویر در ابتدا بر روی چندین صفحه نمایش داده می شود که شکل منحنی لنز را شبیه سازی می کند.

تصویر نهایی با وضوح کمتر ارائه می شود، مناطق غیر ضروری قطع می شوند. در ابتدا، تصویر Oculus Rift 1.1 مگاپیکسل در هر چشم است، اما طرح ریزی مسطح اصلی با وضوح 2.1 مگاپیکسل ارائه می شود. به لطف Lens Matched Shading، تصویر اولیه 1.4 مگاپیکسلی خواهد بود. این به شما امکان می دهد عملکرد را در حالت VR به میزان قابل توجهی افزایش دهید.

واقعیت مجازی یک جهت امیدوارکننده است که تجربه تعامل با محیط مجازی را گسترش می‌دهد و احساسات جدیدی را به بازیکنان القا می‌کند. NVIDIA فعالانه از توسعه VR پشتیبانی می کند. یکی از عوامل محدود کننده برای محبوبیت سیستم های واقعیت مجازی، الزامات عملکرد بالای شتاب دهنده گرافیکی است. فن آوری های خاص و بهینه سازی سخت افزار به افزایش کیفی عملکرد در این جهت کمک می کند. این شرکت مجموعه ای جامع از VRWorks را از APIهای ویژه، کتابخانه ها و موتورهای نرم افزاری منتشر کرده است. این شامل ابزارهایی برای کار با Single Pass Stereo و Lens Matched Shading است. همچنین شامل فناوری MultiRes Shading است که به شما امکان می‌دهد رزولوشن را در مناطق جانبی در حین رندر VR تغییر دهید تا بار را کاهش دهید.

تأثیر حضور نه تنها با احساسات بصری، بلکه با سایر حواس نیز مرتبط است. صدا نیز نقش مهمی دارد. به همین دلیل NVIDIA فناوری VRWorks Audio را برای بازسازی صدای واقعی بر اساس موقعیت منبع توسعه داد. امواج صوتیو بازتاب از سطوح این فناوری از موتور OptiX استفاده می کند که در ابتدا برای رندر کردن نور با استفاده از روش ردیابی پرتو استفاده می شد. مسیر "پرتوهای" صدا را از منبع به سطوح بازتابنده و عقب ردیابی می کند. این روش پیشرو به شما این امکان را می دهد که با در نظر گرفتن ویژگی های آکوستیک یک اتاق مجازی و با تحمیل صداهای منعکس شده، صدای واقعی را بازسازی کنید. در این ویدیو درباره NVIDIA VRWorks Audio بیشتر بدانید:

با تعامل با محیط مجازی می توانید جلوه غوطه وری را افزایش دهید. اکنون تعامل از طریق ردیابی موقعیتی و ردیابی کنترلرهای دستی اجرا می شود. بر اساس PhysX، مکانیزمی ایجاد شده است که تعیین می کند آیا در طول تماس مجازی با یک یا آن شیء تعاملی وجود خواهد داشت یا خیر. همچنین با PhysX، می‌توانید افکت‌های قابل اطمینان فیزیکی را هنگام قرار گرفتن در یک محیط مجازی پیاده‌سازی کنید.

نسل جدید کارت گرافیک ها از VR SLI پشتیبانی می کنند. این حالت فراهم می کند که یک GPU جداگانه تصویر را برای هر چشم در حالت VR پردازش می کند. این روش تاخیر در عملکرد SLI را از بین می برد و عملکرد بهتری را ارائه می دهد. پشتیبانی از VR SLI در Unreal Engine 4 و Unity پیاده‌سازی می‌شود که به ما امکان می‌دهد با افزایش دسترسی به سیستم‌های واقعیت مجازی، به محبوبیت بیشتر این فناوری امیدوار باشیم.

فناوری SLI ساده نیز به روز شده است. کارت‌های گرافیک قدیمی GeForce همیشه دو کانکتور برای پل‌های SLI داشتند. این پل ها برای جابجایی همه کارت های ویدئویی با یکدیگر در حالت های 3-Way و 4-Way SLI مورد نیاز هستند. اکنون در SLI ساده، دو کارت گرافیک می توانند از دو رابط ارتباطی به طور همزمان استفاده کنند و توان عملیاتی کلی را افزایش دهند.

روش سوئیچینگ جدید به پل های دوگانه SLI HB جدید نیاز دارد. پشتیبانی از حالت اشتراکی در صورت اتصال از طریق یک پل ساده حفظ می شود. پل دوگانه برای وضوح بالا - 4K، 5K و سیستم های چند مانیتور توصیه می شود. پل زدن سرعت نیز در 2K با مانیتور 120 هرتز یا سریعتر توصیه می شود. در حالت‌های ساده‌تر، می‌توانید با یک پل به سبک قدیمی کنار بیایید.

GeForce GTX 1080 سرعت خود رابط را افزایش داده است - از 400 مگاهرتز به 650 مگاهرتز. می توان آن را با پل های جدید و برخی از نسخه های قالب قدیمی پیاده سازی کرد. افزایش نرخ داده در SLI باعث می شود تغییرات فریم نرم تر و مقداری افزایش عملکرد در حالت های سنگین انجام شود.

قابلیت های رندر چند GPU در DirectX 12 افزایش یافته است. دو نوع اصلی کار با چنین پیکربندی‌هایی پشتیبانی می‌شوند: آداپتور چند نمایشگر (MDA) و آداپتور نمایش پیوندی (LDA). اولین مورد به شما امکان می دهد با GPU های مختلف، از جمله ترکیب پتانسیل گرافیک های یکپارچه و خارجی، با یکدیگر کار کنید. LDA برای به اشتراک گذاشتن راه حل های مشابه طراحی شده است. LDA ضمنی اساساً در SLI استفاده می شود که سازگاری گسترده ای با برنامه های کاربردی در سطح نرم افزار فراهم می کند. LDA و MDA صریح گزینه های بیشتری را در اختیار توسعه دهندگان قرار می دهند، اما اطمینان از این حالت در هر برنامه به عهده آنهاست.

همچنین شایان ذکر است که پشتیبانی از SLI به طور رسمی فقط در پیکربندی دو GeForce GTX 1080 اعلام شده است. تنظیمات پیچیده تر از نظر تئوری در حالت های Explicit LDA و MDA امکان پذیر است. جالب اینجاست که در همان زمان، NVIDIA برای علاقه مندان پیشنهاد می کند که حالت های 3-Way و 4-Way را با استفاده از یک کد ویژه باز کند. برای انجام این کار، باید یک درخواست ویژه در وب سایت شرکت برای شناسه GPU خود ارائه دهید.

پشتیبانی از Fast Sync به پردازنده گرافیکی GP104 اضافه شده است. این فناوری جایگزینی برای روشن یا خاموش کردن V-sync است. در بازی های سریع (مخصوصا بازی های چند نفره)، نرخ فریم بالا، حداکثر پاسخگویی به اقدامات کاربر را تضمین می کند. اما اگر از نرخ تازه سازی مانیتور فراتر رود، مصنوعات به شکل شکستن تصویر امکان پذیر است. این همگام سازی عمودی را خنثی می کند، که باعث ایجاد تاخیر در مسیر می شود. Fast Sync به شما امکان می دهد حداکثر تعداد فریم را بدون شکاف های احتمالی نمایش دهید. این توسط تغییرات سخت افزاری در خط لوله خروجی تصویر ارائه می شود. یک بافر سه گانه به جای بافر دوگانه سنتی استفاده می شود و فقط فریم کاملاً رندر شده خروجی می شود.

با Fast Sync، می‌توانید روی یک نمایشگر معمولی با سرعت ۱۰۰ تا ۲۰۰ فریم در ثانیه بدون آثار بصری و با کمترین تأخیر، مانند حالت عادی با غیرفعال بودن VSync، بازی کنید. در زیر نتایج بررسی تاخیر در نمایش تصویر در حالت های مختلفدر بازی Counter-Strike: Global Offensive.

همانطور که می بینید، تفاوت کمی بین Fast Sync و VSync غیرفعال وجود دارد، اما نمی توان آن را با تاخیرهای خروجی فریم با VSync فعال مقایسه کرد.

اگر ما در مورد حداکثر پاسخگویی صحبت نمی کنیم، بلکه در مورد حداکثر صافی تصویر صحبت می کنیم، آنگاه توسط فناوری G-Sync ارائه شده است که در ارتباط با مانیتورهای ویژه اجرا می شود. G-Sync همگام سازی سخت افزاری کامل فریم های نمایش داده شده با نرخ تازه سازی صفحه را فراهم می کند.

GeForce GTX 1080 می تواند از طریق DVI، HDMI و DisplayPort خروجی داشته باشد. DisplayPort 1.2 و HDMI 2.0b با HDCP 2.2 پشتیبانی می شود، اما کارت گرافیک نیز DisplayPort 1.3/1.4 آماده است. هنگام استفاده از دومی، 4K در 120 هرتز یا 8K (7680x4320) در 60 هرتز را می توان از طریق دو کابل DisplayPort 1.3 خروجی داد. برای مقایسه، لازم به ذکر است که GeForce GTX 980 تنها زمانی که از طریق دو کابل DisplayPort سوئیچ شود، می تواند خروجی 5120x3200 داشته باشد.

نسخه استاندارد GeForce GTX 1080 به سه درگاه DisplayPort، یک HDMI و یک Dual-Link DVI مجهز شده است.

پردازنده GP104 با پشتیبانی از استاندارد PlayReady 3.0 (SL3000) و رمزگشایی سخت افزاری HEVC با پشتیبانی از ویدیوهای 4K / 8K با کیفیت بالا، بلوک رمزگشایی / رمزگذاری ویدیویی بهبود یافته را دریافت کرد. قابلیت های کامل GeForce GTX 1080 در مقابل GeForce GTX 980 در جدول زیر نشان داده شده است.

در لیست نوآوری‌ها، GeForce GTX 1080 از محتوا و نمایشگرهای HDR پشتیبانی می‌کند. این استاندارد یک پیشرفت بزرگ در فناوری است که به جای 33 درصد برای RGB در عمق رنگ 10/12 بیت، پوشش فضای رنگی قابل مشاهده 75٪ را فراهم می کند. چنین نمایشگرهایی رنگ های بیشتری را نشان می دهند، روشنایی بالاتر و کنتراست عمیق تری دارند که به شما امکان می دهد تفاوت های ظریف رنگی را مشاهده کنید. در حال حاضر، تلویزیون های مجهز به HDR در حال حاضر عرضه می شوند، انتظار می رود سال آینده مانیتورها عرضه شوند.

علاوه بر رمزگشایی HDR، رمزگذاری سخت افزاری نیز پشتیبانی می شود که به شما امکان ضبط ویدیو از این استاندارد را می دهد. و قابلیت پخش HDR برای کنسول بازی Shield به زودی اضافه خواهد شد.

NVIDIA با توسعه دهندگان کار می کند تا HDR را به بازی های رایانه شخصی بیاورد. در نتیجه Rise of the Tomb Raide، Tom Clancy's The Division، The Talos Principle، Paragon، قسمت دوم Shadow Warrior و سایر بازی ها از HDR پشتیبانی خواهند کرد.

بازی های مدرن در حال تغییر هستند، بازیکنان علاقه مندی های جدید و تمایل به نگاه کردن به بازی مورد علاقه خود را از زاویه ای جدید نشان می دهند. گاهی اوقات یک اسکرین شات معمولی به چیزی بیش از یک فریم ساده از بازی تبدیل می شود. و با NVIDIA Ansel، هر اسکرین شات می تواند خارق العاده باشد. این یک فناوری جدید برای ثبت تصاویر با مجموعه ای از ویژگی های خاص است. Ansel به شما امکان می دهد فیلترها را اعمال کنید، تصویر را بهبود بخشید، از یک دوربین رایگان استفاده کنید و پانوراما ایجاد کنید. پشتیبانی برنامه برای عملکرد کامل مورد نیاز است. برای انجام این کار، Ansel یک ادغام ساده را ارائه می دهد. به عنوان مثال، برای ادغام Ansel در The Witcher 3، توسعه دهندگان تنها 150 خط کد اضافه کردند و بازی منطقی Witness به 40 خط کد نیاز داشت.

Ansel بازی را در حالت مکث قرار می دهد و سپس به شما اجازه می دهد تا عملیات مختلفی را انجام دهید. به عنوان مثال، می توانید دوربین را تغییر دهید و هر زاویه ای را انتخاب کنید. برخی از محدودیت ها تنها در صورتی امکان پذیر است که توسعه دهندگان عمدا حرکت دوربین رایگان را محدود کنند.

شما می توانید وضوح تصویر نهایی را افزایش دهید و سطح LOD را برای دستیابی به حداکثر وضوح در تمام جزئیات افزایش دهید. برای داشتن بهترین اثر، پوسته‌سازی با ضد آلیاسینگ اضافی ترکیب شده است.

علاوه بر این، Ansel به شما اجازه می دهد تا تصاویر غول پیکر تا 4.5 گیگاپیکسل ایجاد کنید. چنین تصاویری از قطعات جداگانه دوخته می شوند که در سطح سخت افزار انجام می شود. همچنین می توان افکت های مختلفی را روی تصویر نهایی اعمال کرد. تصویر را می توان در فرمت RAW یا EXR با کدگذاری رنگی 16 بیتی ذخیره کرد. این فرصت های زیادی را برای کار بعدی با او فراهم می کند.

می‌توانید پانورامای استریو و عکس‌های 360 درجه ایجاد کنید، که سپس می‌توان آن‌ها را در عینک‌های واقعیت مجازی مشاهده کرد.

افکت‌های بسیار متنوعی وجود دارد که می‌توان روی تصویر گرفته شده اعمال کرد - Grain، Bloom، Sepia، Lens Effects و بسیاری دیگر، تا ایجاد یک تصویر با جلوه چشم ماهی. امکانات گسترده Ansel شگفت انگیز است. بازیکن فرصت هایی را به دست می آورد که قبلاً وجود نداشتند.

پس از مطالعه معماری و فناوری های جدید، باید نگاهی به خود کارت گرافیک GeForce GTX 1080 بیندازیم.نسخه مرجع با طراحی کمی به روز و خطوط واضح تر، شبیه مدل های قبلی به نظر می رسد.

طرف عقب توسط دو صفحه محافظت می شود که شبیه "رزرو" GeForce GTX 980 است.

طراحی کلی خنک کننده بدون تغییر باقی ماند. کولر بر اساس اصل یک توربین کار می کند. یک پایه بزرگ، یک هیت سینک آجدار برای خنک کردن GPU و یک هیت سینک اضافی در نزدیکی گره برق برای خنک کردن بهتر عناصر قدرت وجود دارد.

ما تمام تفاوت های ظریف دیگر را در یک مقاله جداگانه در نظر خواهیم گرفت، جایی که در همان زمان آزمایش مقایسه ای انجام خواهیم داد. اگر در مورد تخمین های اولیه سازنده صحبت کنیم، NVIDIA محصول جدید را با GeForce GTX 980 مقایسه می کند و از مزیت حدود 70 درصدی در بازی های ساده و فاصله بیش از 2.5 برابری در حالت VR صحبت می کند. تفاوت با GeForce GTX 980 Ti کوچکتر خواهد بود، اما می توانیم پس از آزمایش های عملی در مورد برخی از مقادیر خاص صحبت کنیم.

نتیجه گیری

زمان آن رسیده است که آشنایی تئوری خود را با GeForce GTX 1080 جمع بندی کنیم. این کارت گرافیک در حال حاضر پیشرفته ترین محصول از نظر فناوری در میان شتاب دهنده های گرافیکی است. GeForce GTX 1080 دارای پردازنده 16 نانومتری پاسکال و حافظه جدید GDDR5X برای اولین بار است. این معماری خود توسعه‌ای از Maxwell با بهینه‌سازی‌ها و ویژگی‌های جدید برای DirectX 12 است. پیشرفت‌های معماری با افزایش قابل توجه فرکانس‌های GPU و حافظه به میزان زیادی افزایش می‌یابد. پیشرفت بسیار چشمگیری در زمینه رندر VR به دلیل فناوری های جدید که سرعت کار در این حالت را افزایش می دهد. یک نوآوری پیشرو پشتیبانی از نمایشگرهای HDR و محتوای مرتبط است. به لطف واحد پردازش ویدیوی جدید، حتی امکان بیشتری برای پخش و ضبط ویدیوهای با کیفیت بالا از جمله کار با فرمت HDR وجود دارد. طرفداران بازی های چند نفره فوق پویا از فناوری Fast Sync قدردانی خواهند کرد. خبره های زیبایی مجازی از امکانات آنسل راضی خواهند بود. با خرید GeForce GTX 1080، نه تنها سریع‌ترین شتاب‌دهنده ویدیو در حال حاضر، بلکه کاربردی‌ترین شتاب‌دهنده را نیز خواهید داشت.

این مدل به طور رسمی پس از 27 می در دسترس مشتریان قرار خواهد گرفت. نسخه های طراحی مرجع Founders Edition ابتدا به فروش می رسد. آنها برچسب قیمت بالاتری خواهند داشت. کمی بعد گزینه های غیر استاندارد منتشر می شوند که هزینه آنها 100 دلار کمتر است. خوب، تا زمانی که GeForce GTX 1080 در بازار داخلی ظاهر شود، ما سعی خواهیم کرد، به عنوان بخشی از یک آزمایش بزرگ، به طور کامل پتانسیل آنها را در مقایسه با کارت‌های ویدئویی سطح بالا آشکار کنیم.

نقد و بررسی Nvidia GeForce GTX 1080 Pascal | با GP104 GPU آشنا شوید

در آستانه Computex، Nvidia تصمیم گرفت تا تازگی مورد انتظار خود را ارائه دهد - معماری Pascal که برای گیمرها اقتباس شده است. در کارت های گرافیک جدید GeForce GTX 1080 و 1070، سازنده پردازنده گرافیکی GP104 را نصب می کند. امروز مدل قدیمی تر را بررسی می کنیم و مدل جوانتر باید در اوایل خرداد در دستان ما باشد.

معماری پاسکال سریعتر و بیشتر را نوید می دهد کار کارآمد، ماژول های محاسباتی بیشتر، کاهش سطح قالب و حافظه سریعتر با یک کنترلر ارتقا یافته. این برای بازی های VR، 4K و سایر برنامه های کاربردی بسیار مناسب است.

مانند همیشه، ما سعی خواهیم کرد وعده های سازنده را درک کرده و آنها را در عمل آزمایش کنیم. بیا شروع کنیم.

آیا GeForce GTX 1080 تعادل قدرت را در بخش رده بالا تغییر خواهد داد؟

کارت گرافیک Nvidia GeForce GTX 1080 سریع‌ترین کارت گرافیک در میان دو کارت گرافیک بازی است که در اوایل ماه جاری معرفی شد. هر دو از پردازنده گرافیکی GP104 استفاده می کنند، که به هر حال، قبلاً دومین پردازنده گرافیکی ریزمعماری پاسکال است (اولین GP100 بود که در ماه آوریل در GTC ظاهر شد). رن سان هوان، مدیرعامل انویدیا، هنگام رونمایی از محصول جدید برای عموم علاقه مندان را مسخره کرد و مدعی شد که GeForce GTX 1080 از دو مدل 980 در SLI بهتر عمل می کند.

وی همچنین خاطرنشان کرد که GTX 1080 با عملکرد بیشتر، مصرف انرژی کمتری نسبت به سری 900 دارد. این دو برابر سریعتر و سه برابر کارآمدتر از پرچمدار سابق GeForce Titan X است، اما اگر به نمودارها و نمودارهای همراه نگاه کنید، مشخص می شود که چنین تفاوت چشمگیری در برخی وظایف مربوط به واقعیت مجازی ظاهر می شود. اما حتی اگر این وعده‌ها فقط تا حدی تایید شوند، هنوز در زمان‌های بسیار جالبی از نظر توسعه بازی‌های رده بالای رایانه‌های شخصی هستیم.

واقعیت مجازی به آرامی در حال افزایش است، اما نیازهای سخت افزاری بالا برای زیرسیستم گرافیکی مانع قابل توجهی برای دسترسی به این فناوری ها ایجاد می کند. علاوه بر این، بیشتر بازی‌های موجود امروزی نمی‌دانند چگونه از رندر چند پردازنده‌ای استفاده کنند. یعنی شما معمولاً محدود به قابلیت های یک آداپتور ویدیویی سریع با یک GPU هستید. GTX 1080 قادر به عملکرد بهتر از دو 980 است و نباید با بازی های واقعیت مجازی امروزی دست و پنجه نرم کند و نیازی به تنظیمات چند پردازنده در آینده را از بین ببرد.

اکوسیستم 4K به همان سرعت در حال پیشرفت است. رابط‌های پهنای باند بالاتر مانند HDMI 2.0b و DisplayPort 1.3/1.4 باید تا پایان سال جاری در را به روی مانیتورهای 4K با پنل‌های 120 هرتز و پشتیبانی از نرخ‌های تازه‌سازی پویا باز کنند. در حالی که نسل‌های قبلی پردازنده‌های گرافیکی پیشرفته AMD و Nvidia به عنوان راه‌حل‌هایی برای بازی‌های 4K قرار داشتند، کاربران مجبور بودند برای حفظ نرخ فریم قابل قبول، کیفیت را به خطر بیندازند. GeForce Nvidia GTX 1080 می تواند اولین کارت گرافیکی باشد که به اندازه کافی سریع است تا نرخ فریم بالایی را در رزولوشن 3840x2160 با حداکثر تنظیمات جزئیات گرافیکی حفظ کند.

وضعیت تنظیمات چند مانیتور چگونه است؟ بسیاری از گیمرها مایل به نصب سه مانیتور با وضوح 1920x1080 هستند، اما به شرطی که سیستم گرافیکی بتواند بار را تحمل کند، زیرا در این حالت کارت باید نیم میلیون پیکسل را رندر کند، زیرا وضوح تصویر 7680x1440 است. حتی علاقه مندانی هستند که مایل به استفاده از سه نمایشگر 4K با وضوح ترکیبی 11520x2160 پیکسل هستند.

گزینه دوم حتی برای یک کارت گرافیک پرچمدار جدید بازی بسیار عجیب و غریب است. با این حال، پردازنده Nvidia GP104 مجهز به فناوری است که نوید بهبود تجربه را برای کارهای معمولی مدل جدید، یعنی 4K و Surround می دهد. اما قبل از اینکه به سراغ فناوری‌های جدید برویم، بیایید نگاهی دقیق‌تر به پردازنده GP104 و معماری پاسکال زیربنایی آن بیندازیم.

GP104 از چه چیزی ساخته شده است؟

از ابتدای سال 2012، AMD و Nvidia از فناوری پردازش 28 نانومتری استفاده کردند. با تغییر به آن، هر دو شرکت جهشی قابل توجه به جلو انجام دادند و کارت‌های گرافیک Radeon HD 7970 و GeForce GTX 680 را به ما معرفی کردند. با این حال، در چهار سال آینده، آنها مجبور شدند برای کاهش عملکرد بیشتر از فناوری موجود، طفره بروند. دستاوردهای کارت های گرافیک Radeon R9 Fury X و GeForce GTX 980 Ti با توجه به پیچیدگی آنها واقعاً شگفت انگیز است. اولین تراشه ای که توسط انویدیا بر روی فرآیند 28 نانومتری ساخته شد GK104 بود که از 3.5 میلیارد ترانزیستور تشکیل شده بود. GM200 موجود در GeForce GTX 980 Ti و Titan X در حال حاضر دارای هشت میلیارد ترانزیستور است.

انتقال به فناوری ۱۶ نانومتری TSMC FinFET Plus به مهندسان انویدیا اجازه داد تا ایده های جدیدی را پیاده سازی کنند. طبق اطلاعات فنی، تراشه‌های 16FF+ 65 درصد سریع‌تر هستند، می‌توانند دو برابر تراکم 28HPM داشته باشند یا 70 درصد انرژی کمتری مصرف کنند. انویدیا هنگام ایجاد پردازنده‌های گرافیکی خود از ترکیب بهینه این مزایا استفاده می‌کند. TSMC ادعا می کند که بر اساس مهندسی فرآیند 20 نانومتری موجود بوده است، اما از ترانزیستورهای FinFET به جای ترانزیستورهای تخت استفاده کرده است. این شرکت می‌گوید که این رویکرد میزان ضایعات را کاهش می‌دهد و خروجی صفحات کار را افزایش می‌دهد. همچنین ادعا می شود که این شرکت از فناوری فرآیند 20 نانومتری با ترانزیستورهای سریع برخوردار نبوده است. باز هم، دنیای گرافیک کامپیوتری بیش از چهار سال است که بر روی فناوری فرآیند 28 نانومتری نشسته است.


نمودار بلوک پردازنده GP104

جانشین GM204 متشکل از 7.2 میلیارد ترانزیستور است که در مساحت 314 میلی متر مربع قرار گرفته اند. برای مقایسه، مساحت قالب GM204 398 میلی متر مربع با 5.2 میلیارد ترانزیستور است. در نسخه کامل، یک GPU GP104 دارای چهار خوشه پردازش گرافیکی (GPC) است. هر GPC شامل پنج خوشه پردازش نخ/بافت (TPC) و یک شطرنجگر است. TPC ترکیبی از یک چند پردازنده جریانی (SM) و موتور PolyMorph است. SM 128 هسته CUDA دقیق، 256 کیلوبایت حافظه ثبت، 96 کیلوبایت حافظه مشترک، 48 کیلوبایت حافظه کش L1/بافت و هشت واحد بافت را ترکیب می کند. نسل چهارم موتور PolyMorph شامل یک بلوک منطقی جدید است که در انتهای خط لوله هندسی قبل از بلوک شطرنجی قرار دارد، عملکرد همزمان چند طرح ریزی را کنترل می کند (در ادامه در مورد آن بیشتر توضیح می دهیم). در مجموع، ما 20 اس ام اس، 2560 هسته CUDA و 160 واحد پردازش بافت داریم.


یک چند پردازنده جریانی (SM) در GP104

بک‌اند GPU شامل هشت کنترلر حافظه 32 بیتی (عرض کانال 256 بیتی)، هشت واحد شطرنجی و 256 کیلوبایت حافظه نهان L2 در هر واحد است. ما در نهایت با 64 ROP و 2 مگابایت حافظه پنهان L2 مشترک مواجه می شویم. اگرچه بلوک دیاگرام پردازنده Nvidia GM204 چهار کنترلر 64 بیتی و 16 ROP را نشان می داد، اما آنها با هم گروه بندی شدند و از نظر عملکردی معادل بودند.

برخی از عناصر ساختاری GP104 شبیه به عناصر GM204 هستند، زیرا GPU جدید از "بلوک های ساختمانی" نسل قبلی خود ساخته شده است. عیبی ندارد. اگر به خاطر داشته باشید، در معماری ماکسول، این شرکت بر بهره وری انرژی تکیه می کرد و بلوک های موجود را تکان نمی داد. نقطه قوتکپلر. تصویر مشابهی را در اینجا می بینیم.

افزودن چهار اس ام اس ممکن است تاثیر قابل توجهی بر عملکرد نداشته باشد. با این حال، GP104 چند ترفند در آستین خود دارد. اولین برگ برنده فرکانس ساعت به طور قابل توجهی بالاتر است. سرعت کلاک پایه پردازنده گرافیکی 1607 مگاهرتز است. مشخصات GM204 برای مقایسه، 1126 مگاهرتز را نشان می دهد. حداکثر فرکانس GPU Boost 1733 مگاهرتز است، اما ما با استفاده از ابزار بتا PrecisionX EVGA، نمونه خود را به 2100 مگاهرتز رساندیم. چنین ذخیره ای برای اورکلاک از کجا می آید؟ به گفته جان آلبین، معاون ارشد مهندسی GPU، تیم او می‌دانست که فرآیند TSMC 16FF+ بر معماری تراشه تأثیر می‌گذارد، بنابراین آنها بر روی بهینه‌سازی زمان‌بندی تراشه تمرکز کردند تا گلوگاه‌هایی را که از دستیابی به سرعت کلاک بالاتر جلوگیری می‌کنند، حذف کنند. در نتیجه، سرعت محاسبات تک دقیق GP104 در مقایسه با سقف 4612 GFLOP در GeForce GTX 980 به 8228 GFLOP (در ساعت پایه) رسید. 277، 3 Gtex /s.

پردازنده گرافیکی GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
اس ام 20 16
تعداد هسته های CUDA 2560 2048
فرکانس پایه GPU، مگاهرتز 1607 1126
فرکانس GPU در حالت Boost، مگاهرتز 1733 1216
سرعت محاسبه، GFLOP (در فرکانس پایه) 8228 4612
تعداد واحدهای بافت 160 128
سرعت پر کردن تکل، Gtex/s 277,3 155,6
سرعت انتقال حافظه، گیگابیت بر ثانیه 10 7
پهنای باند حافظه، گیگابایت بر ثانیه 320 224
تعداد بلوک های شطرنجی سازی 64 64
اندازه حافظه نهان L2، مگابایت 2 2
پکیج حرارتی، W 180 165
تعداد ترانزیستور 7.2 میلیارد 5.2 میلیارد
مساحت کریستال، mm2 314 398 میلی متر
فناوری فرآیند، نانومتر 16 28

بخش پشتی همچنان شامل 64 ROP و یک گذرگاه حافظه 256 بیتی است، اما Nvidia حافظه GDDR5X را برای افزایش پهنای باند موجود معرفی کرده است. این شرکت تلاش زیادی برای ارتقای نوع جدید حافظه انجام داده است، به خصوص در زمینه حافظه HBM که در کارت های گرافیکی مختلف AMD و HBM2 که انویدیا در تسلا P100 نصب می کند استفاده می شود. به نظر می رسد در حال حاضر کمبود حافظه HBM2 در بازار وجود دارد و این شرکت آمادگی پذیرش محدودیت های HBM (چهار پشته 1 گیگابایتی یا دشواری اجرای هشت پشته 1 گیگابایتی) را ندارد. بنابراین، ما حافظه ویدیویی GDDR5X را دریافت کردیم، که ظاهراً عرضه آن نیز محدود است، زیرا GeForce GTX 1070 قبلاً از GDDR5 معمولی استفاده می کند. اما این مزیت های راه حل جدید را پوشش نمی دهد. حافظه GDDR5 در GeForce GTX 980 دارای سرعت انتقال داده 7 گیگابیت بر ثانیه بود. این 224 گیگابایت بر ثانیه پهنای باند را از طریق یک گذرگاه 256 بیتی فراهم می کرد. GDDR5X با سرعت 10 گیگابیت بر ثانیه شروع می شود و توان عملیاتی را به 320 گیگابایت بر ثانیه افزایش می دهد (43 درصد افزایش). به گفته انویدیا، این افزایش از طریق یک طرح I/O ارتقا یافته و بدون افزایش مصرف انرژی حاصل می شود.

معماری ماکسول با بهینه سازی کش و الگوریتم های فشرده سازی در استفاده از پهنای باند کارآمدتر شده است و پاسکال نیز همین مسیر را با روش های جدید فشرده سازی بدون تلفات دنبال می کند تا از پهنای باند موجود زیرسیستم حافظه به صورت اقتصادی تر استفاده کند. الگوریتم فشرده‌سازی رنگ دلتا تلاش می‌کند به افزایش ۲:۱ دست یابد و این حالت برای استفاده بیشتر بهبود یافته است. حالت جدید 4:1 نیز وجود دارد که در مواردی که تفاوت در هر پیکسل بسیار کم است استفاده می شود. در نهایت، پاسکال یک الگوریتم جدید 8:1 را معرفی می کند که فشرده سازی 4:1 را بر روی بلوک های 2x2 اعمال می کند، که تفاوت بین آنها در الگوریتم 2:1 پردازش می شود.



نشان دادن تفاوت کار دشواری نیست. تصویر اول یک اسکرین شات فشرده نشده از Project CARS را نشان می دهد. تصویر زیر عناصری را نشان می دهد که کارت Maxwell می تواند فشرده کند، آنها به رنگ بنفش سایه زده شده اند. در نما سوم می بینید که پاسکال صحنه را بیشتر فشرده می کند. به گفته انویدیا، این تفاوت به کاهش 20 درصدی در میزان اطلاعات بر حسب بایت تبدیل می شود که برای هر فریم باید از حافظه برداشت شود.

نقد و بررسی Nvidia GeForce GTX 1080 Pascal | طراحی کارت مرجع

Nvidia رویکرد خود را به طراحی کارت تغییر داده است. او به جای "مرجع"، نسخه خود نقشه را Founders Edition (نسخه سازندگان) می نامد. غیرممکن است که متوجه نشوید که ظاهر GeForce GTX 1080 زاویه دارتر شده است، با این حال، در سیستم خنک کننده از همان مکانیسم اثبات شده قدیمی برای خارج کردن هوای گرم از طریق نوار کناری استفاده می شود.

وزن این کارت 1020 گرم و طول 27 سانتی متر است. لمس آن کاملاً خوشایند است، زیرا بدنه کولر نه تنها شبیه فلز است، بلکه در واقع از فلز و به عبارت دقیق تر، آلومینیوم ساخته شده است. قطعات نقره ای مات لاکی هستند و در صورت عدم رسیدگی به کارت به سرعت دچار خراش می شوند.

صفحه پشتی به دو قسمت تقسیم می شود. این فقط به عنوان یک تزئین عمل می کند و عملکرد خنک کننده ای ندارد. بعداً خواهیم فهمید که آیا این تصمیم درست است یا خیر. انویدیا توصیه می‌کند هنگام استفاده از SLI، این صفحه را بردارید تا جریان هوای بهتری بین کارت‌هایی که نزدیک به هم نصب شده‌اند، حاصل شود.

هیچ چیز جالبی در پایین وجود ندارد، اگرچه ما متوجه شدیم که قسمت هایی از پوشش مشکی می تواند با عناصر مادربرد واقع در زیر آن مانند خنک کننده چیپ ست و درگاه های SATA تماس پیدا کند.

در بالای کارت، یک کانکتور برق هشت پین کمکی را می بینیم. با توجه به مشخصات رسمی کارت گرافیک و همچنین توان 60 واتی که از اسلات مادربرد گرفته می شود، یک کانکتور برای TDP اسمی 180 وات کافی است. به طور طبیعی، ما بررسی خواهیم کرد که این کارت واقعاً چقدر برق مصرف می کند و آیا خطوط برق را بیش از حد بارگذاری می کند.

همچنین دو کانکتور SLI وجود دارد. در کنار کارت‌های گرافیک جدید پاسکال، انویدیا پل‌های پهنای باند جدیدی را معرفی کرد. بعداً آنها را با جزئیات بیشتری بررسی خواهیم کرد. به طور خلاصه، پیکربندی‌های SLI تنها از دو کارت گرافیک تاکنون به طور رسمی پشتیبانی می‌شوند و هر دو کانکتور برای عملکرد رابط دو کاناله بین GPU استفاده می‌شوند.

سه کانکتور DisplayPort کامل در پنل I/O موجود است. مشخصات DisplayPort 1.2 را فهرست می کند اما انتظار می رود با DisplayPort 1.3/1.4 سازگار باشد (حداقل کنترل کننده نمایشگر می تواند با استانداردهای جدید کار کند). همچنین خروجی HDMI 2.0 و DVI-D دو لینک وجود دارد. شما نمی توانید به دنبال اتصال دهنده های آنالوگ باشید.

در سمت دیگر کارت، یک شیار بزرگ برای جذب هوا و سه سوراخ پیچ برای تثبیت اضافی کارت در کیس وجود دارد.

طراحی و قدرت کولر

پس از مطالعه دقیق ظاهر، وقت آن است که به مواد مخفی زیر پوشش آلومینیومی نگاه کنید. این کار دشوارتر از آن چیزی بود که در نگاه اول به نظر می رسید. بعد از جداسازی، 51 قسمت روی میز شامل پیچ ها را شمردیم. اگر فن ها را حذف کنید، 12 فن دیگر اضافه می شود.

بالاخره انویدیا به استفاده از محفظه بخار واقعی بازگشت. با چهار پیچ در بالای GPU به برد متصل می شود.

فن سانتریفیوژ باید برای شما آشنا باشد. حذف مستقیم حرارت به معنای گرفتن هوا در یک مکان، عبور دادن آن از پره های رادیاتور و خارج کردن آن از کیس است. روکش خنک کننده، که به عنوان یک قاب نیز عمل می کند، نه تنها کارت را تثبیت می کند، بلکه به خنک شدن مبدل های ولتاژ و ماژول های حافظه نیز کمک می کند.

پس از حذف تمام اجزای خارجی، ما به تخته مدار چاپی. برخلاف راه حل های قبلی، انویدیا از منبع تغذیه شش فاز استفاده می کند. پنج فاز به GPU خدمت می کنند و فاز باقیمانده حافظه GDDR5X را تامین می کند.

روی تابلو می توانید جایی برای فاز دیگر ببینید که خالی است.

پردازنده گرافیکی GP104 مساحتی معادل 314 میلی متر مربع را پوشش می دهد که بسیار کوچکتر از نسل قبلی خود است. در اطراف پردازنده، خطوطی از لایه های دیگر برد قابل مشاهده است. برای دستیابی به فرکانس های کلاک بالا، هادی ها باید تا حد امکان کوتاه باشند. به دلیل الزامات سختگیرانه، شرکای انویدیا احتمالاً به زمان بیشتری برای راه اندازی و اجرای تولید نیاز دارند.

حافظه GDDR5X توسط تراشه های Micron 6HA77 نشان داده می شود. آنها اخیراً به تولید انبوه رسیده اند، زیرا در تصاویری که قبلاً از کارت گرافیک جدید انویدیا فاش شده بود، شاهد تراشه های 6GA77 بودیم.

در مجموع هشت ماژول حافظه از طریق کنترلرهای 32 بیتی به گذرگاه حافظه 256 بیتی متصل می شوند. در فرکانس 1251 مگاهرتز، پهنای باند به 320 گیگابایت در ثانیه می رسد.

ماژول های GDDR5X Micron از یک بسته 170 پین به جای 190 پین GDDR5 استفاده می کنند. علاوه بر این، آنها کمی کوچکتر هستند: 14x10 میلی متر به جای 14x12 میلی متر. یعنی چگالی بالاتری دارند و نیاز به خنک کنندگی بهتری دارند.

با برگرداندن کارت، فضای خالی برای کانکتور برق دوم پیدا کردیم. بنابراین، شرکای انویدیا می توانند یک کانکتور کمکی دوم را برای اضافه کردن برق یا انتقال کانکتور موجود به موقعیت دیگری نصب کنند.

این برد همچنین دارای یک شیار است که به شما امکان می دهد کانکتور برق را 180 درجه بچرخانید.

خازن ها مستقیماً در زیر پردازنده گرافیکی قرار دارند تا نوسانات احتمالی را هموار کنند. همچنین در این سمت برد PWM قرار دارد (قبلاً در قسمت جلو قرار داشت). این راه حل به شرکای انویدیا امکان نصب سایر کنترلرهای PWM را می دهد.

اما به کنترل کننده تنظیم کننده ولتاژ PWM برگردیم. فناوری GPU Boost 3.0 Nvidia مجموعه جدیدی از الزامات تنظیم ولتاژ را دریافت کرده است که منجر به تغییرات قابل توجهی شده است. انتظار داشتیم یک کنترل‌کننده نوع IR3536A از International Rectifier را با طراحی فاز 5+1 ببینیم، اما Nvidia از µP9511P استفاده کرد. این بهترین خبر برای اورکلاکرها نیست، زیرا کارت از رابط و پروتکل ابزارهایی مانند MSI Afterburner و Gigabyte OC Guru پشتیبانی نمی کند. انتقال به یک کنترلر جدید، که هنوز به خوبی توضیح داده نشده است، به احتمال زیاد به دلیل ویژگی های فنی است.

از آنجایی که کنترل‌کننده PWM نمی‌تواند مستقیماً فازهای جداگانه مبدل ولتاژ را هدایت کند، انویدیا از درایورهای قدرتمند ماسفت با تراشه‌های 53603A برای راه‌اندازی گیت ماسفت‌ها استفاده می‌کند. اما در مقایسه با برخی از گزینه های دیگر، طرح مدار مرتب و مرتب به نظر می رسد.

در اینجا انواع مختلفی از ماسفت ها وجود دارد. 4C85N یک ماسفت تبدیل ولتاژ دو کاناله نسبتاً انعطاف پذیر است. هر شش فاز منبع تغذیه را تامین می کند و دارای ذخایر الکتریکی و حرارتی کافی برای تحمل بارهای طراحی مرجع است.


من تعجب می کنم که فناوری GPU Boost 3.0 انویدیا و مدار تنظیم کننده ولتاژ اصلاح شده چگونه بر مصرف انرژی تأثیر می گذارد. ما حتما آن را بررسی خواهیم کرد.

نقد و بررسی Nvidia GeForce GTX 1080 Pascal | فناوری محاسبات چند پروژکتوری و همزمان

موتور چند پروژکتوری همزمان

افزایش تعداد هسته، سرعت کلاک هسته و عملکرد حافظه 10 گیگابیت بر ثانیه GDDR5X هر بازی را که آزمایش کرده‌ایم سرعت می‌بخشد. با این حال، معماری پاسکال شامل چندین ویژگی است که تنها در بازی‌های آینده می‌توانیم از آنها قدردانی کنیم.

یکی از ویژگی‌های جدید انویدیا موتور چند پروژکتوری همزمان یا موتور چند پروژکتوری نامیده می‌شود که توسط یک بلوک سخت‌افزاری اضافه شده به موتورهای PolyMorph نشان داده می‌شود. موتور جدید می تواند تا 16 پیش بینی داده هندسی را از یک دیدگاه ایجاد کند. یا می‌تواند دیدگاه را برای ایجاد یک تصویر استریوسکوپی با 32 بار تکرار هندسه در سخت‌افزار تغییر دهد، بدون اینکه اگر می‌خواهید به این افکت بدون SMP دست یابید، ضربه عملکردی را تجربه می‌کنید.


طرح یک هواپیما

بیایید سعی کنیم مزایای این فناوری را درک کنیم. به عنوان مثال، ما سه مانیتور در یک پیکربندی Surround داریم. آنها کمی به سمت داخل چرخانده می شوند تا کاربر را "پیچیدن" کنند، بنابراین بازی و کار راحت تر است. اما بازی ها از این موضوع اطلاعی ندارند و تصویر را در یک صفحه نمایش می دهند، بنابراین به نظر می رسد که در محل اتصال فریم های مانیتور منحنی است و به طور کلی تصویر مخدوش به نظر می رسد. برای چنین پیکربندی، درست تر است که یک طرح را مستقیماً به جلو، تصویر دوم را به سمت چپ، مانند کابین خلبان پانوراما یک هواپیما، و طرح سوم را به سمت راست ارائه دهیم. به این ترتیب، پانورامای منحنی قبلی نرم‌تر به نظر می‌رسد و کاربر زاویه دید بسیار وسیع‌تری خواهد داشت. کل صحنه هنوز باید شطرنجی و رنگ آمیزی شود، اما GPU مجبور نیست صحنه را سه بار رندر کند، که سربار را حذف می کند.


پرسپکتیو نادرست در نمایشگرهای زاویه دار



دیدگاه تصحیح شده SMP

با این حال، برنامه باید از تنظیمات زاویه دید گسترده پشتیبانی کند و از تماس های SMP API استفاده کند. این بدان معناست که قبل از اینکه بتوانید از این ویژگی استفاده کنید، توسعه دهندگان بازی باید به آن تسلط داشته باشند. ما مطمئن نیستیم که آنها مایلند برای تعداد انگشت شماری از کاربران Surround چند مانیتور چقدر تلاش کنند. اما اپلیکیشن های دیگری نیز وجود دارند که پیاده سازی این قابلیت در اسرع وقت برای آنها منطقی است.


با استفاده از رندر استریو تک گذر، SMP برای هر چشم یک طرح ایجاد می کند

بیایید واقعیت مجازی را به عنوان مثال در نظر بگیریم. این در حال حاضر نیاز به یک طرح ریزی فردی برای هر چشم دارد. بازی‌های امروزی به سادگی تصاویر را در دو صفحه نمایش جداگانه با تمام معایب و کاهش کارایی مرتبط ارائه می‌کنند. اما از آنجایی که SMP از دو مرکز نمایش پشتیبانی می‌کند، می‌توان صحنه را با استفاده از ویژگی Single Pass Stereo انویدیا در یک پاس رندر کرد. هندسه یک بار پردازش می شود و SMP طرح خود را برای چشم چپ و راست ایجاد می کند. علاوه بر این، SMP می‌تواند پیش‌بینی‌های اضافی را برای ویژگی‌ای به نام Lens Matched Shading اعمال کند.


تصاویر پس از اولین پاس با ویژگی های Lens Matched Shading



صحنه پایانی که به هدست ارسال می شود

به طور خلاصه، Lens Matched Shading تلاش می‌کند تا رندر VR را با پرهیز از کار سنگینی که رندر طرح‌ریزی مسطح سنتی انجام می‌دهد تا هندسه را برای تطبیق با اعوجاج لنزهای هدست انجام دهد کارآمدتر کند (بنابراین پیکسل‌ها در جایی که وجود دارد تلف می‌شوند. بیشترین انحنا). این اثر را می توان با استفاده از SMP برای تقسیم منطقه به ربع نزدیک کرد. بنابراین به جای رندر و کار با یک طرح ریزی مربعی، GPU تصاویری را ایجاد می کند که با فیلتر اعوجاج لنز مطابقت دارند. این روش از تولید پیکسل های اضافی جلوگیری می کند. تا زمانی که توسعه دهندگان میزان نمونه برداری چشمی در HMD را داشته باشند یا از آن فراتر بروند، تفاوتی در کیفیت مشاهده نخواهید کرد.

به گفته انویدیا، ترکیب Single Pass Stereo و Lens Matched Shading می تواند تا 2 برابر عملکرد VR را در مقایسه با GPU های غیر SMP ارائه دهد. بخشی از آن به رندر پیکسلی مربوط می شود. با استفاده از Lens Matched Shading برای جلوگیری از پردازش پیکسل‌هایی که نباید رندر شوند، نرخ رندر در صحنه‌ای با تنظیمات پیش‌تنظیم متعادل انویدیا از 4.2 مگاپیکسل در ثانیه (Oculus Rift) به 2.8 مگاپیکسل در ثانیه کاهش یافت، بنابراین بار سایه‌زن در GPU یک کاهش یافت و نیم بار فناوری Single Pass Stereo که هندسه را فقط یک بار رندر می کند (به جای رندر مجدد برای چشم دوم) به طور موثر نیمی از پردازش هندسی را که امروز باید انجام شود حذف می کند. اکنون مشخص است که رن سان وقتی ادعا می کند "افزایش دو برابری در عملکرد و افزایش سه برابری کارایی در مقایسه با تیتان ایکس" چه بوده است.

محاسبات ناهمزمان

معماری پاسکال همچنین شامل تغییراتی در مورد محاسبات ناهمزمان است که به دلایلی به مزیت معماری DirectX 12، VR و AMD مربوط می شود.

انویدیا از زمان معماری Maxwell از به اشتراک گذاری منابع GPU ایستا برای گرافیک و بارهای کاری محاسباتی پشتیبانی کرده است. در تئوری، این رویکرد زمانی خوب است که هر دو بلوک به طور همزمان فعال باشند. اما بیایید بگوییم که 75 درصد از منابع پردازنده به گرافیک اختصاص داده شده است و بخشی از وظیفه خود را سریعتر انجام می دهد. سپس این بلوک بیکار خواهد بود و منتظر می ماند تا بلوک محاسباتی بخشی از کار خود را کامل کند. بنابراین، تمام مزایای ممکن اجرای همزمان این وظایف از بین می رود. پاسکال این نقص را با تعادل بار پویا برطرف می کند. اگر درایور تصمیم بگیرد که یکی از پارتیشن‌ها کمتر استفاده می‌شود، می‌تواند منابع خود را برای کمک به دیگری تغییر دهد و از بیکاری که بر عملکرد تأثیر منفی می‌گذارد جلوگیری کند.

انویدیا همچنین قابلیت های وقفه پاسکال را بهبود بخشید، یعنی توانایی متوقف کردن کار فعلی را به منظور حل یک "فوری" تر با زمان اجرای بسیار کوتاه. همانطور که می‌دانید، GPUها ماشین‌های موازی بسیار با بافرهای بزرگ هستند که برای مشغول نگه داشتن منابع مشابه در کنار یکدیگر طراحی شده‌اند. سایه زن بیکار بی فایده است، بنابراین باید به هر طریقی در جریان کار قرار گیرد.


بهتر است VR درخواست‌های وقفه را تا حد امکان دیر ارسال کند تا آخرین داده‌های ردیابی را بگیرد

یک مثال عالی ویژگی Asynchronous Time Warp (ATW) است که Oculus با Rift معرفی کرد. در مواردی که کارت گرافیک نتواند هر 11 میلی ثانیه یک فریم جدید روی یک صفحه نمایش 90 هرتزی تولید کند، ATW یک فریم میانی را با استفاده از آخرین فریم با تنظیم موقعیت سر ایجاد می کند. اما باید زمان کافی برای ایجاد چنین فریمی وجود داشته باشد و متاسفانه وقفه گرافیکی چندان دقیق نیست. در واقع، معماری‌های فرمی، کپلر و ماکسول از وقفه در سطح ترسیم پشتیبانی می‌کنند، به این معنی که فریم‌ها را می‌توان در یک فراخوانی تغییر داد و به طور بالقوه مانع از تکنیک ATW می‌شود.

پاسکال یک وقفه در سطح پیکسل را برای گرافیک پیاده‌سازی می‌کند، بنابراین GP104 می‌تواند عملیات فعلی در سطح پیکسل را متوقف کند، وضعیت آن را ذخیره کند و به یک زمینه دیگر تغییر مکان دهد. به جای وقفه میلی‌ثانیه‌ای که Oculus در مورد آن نوشت، Nvidia ادعا می‌کند کمتر از 100 میکروثانیه است.

در معماری ماکسول، معادل یک وقفه در سطح پیکسل در یک واحد محاسباتی از طریق یک وقفه در سطح رشته اجرا شد. پاسکال همچنین این تکنیک را حفظ کرد، اما از وقفه‌های سطح دستورالعمل در وظایف محاسباتی CUDA پشتیبانی کرد. در حال حاضر درایورهای انویدیا این ویژگی را ندارند، اما به زودی همراه با وقفه در سطح پیکسل در دسترس خواهد بود.

نقد و بررسی Nvidia GeForce GTX 1080 Pascal | خط لوله خروجی، SLI و GPU Boost 3.0

کانال نمایش پاسکال: HDR-Ready

سال گذشته، ما با AMD در Sonoma، کالیفرنیا ملاقات کردیم، جایی که آنها برخی از جزئیات معماری جدید Polaris خود را به اشتراک گذاشتند، مانند خط لوله تصویری که از محتوای محدوده دینامیکی بالا و نمایشگرهای مرتبط پشتیبانی می کند.

جای تعجب نیست که معماری پاسکال انویدیا مملو از ویژگی هایی مانند این است که برخی از آنها حتی در ماکسول نیز موجود بودند. برای مثال، کنترل‌کننده نمایشگر در GP104 از رنگ‌های 12 بیتی، طیف رنگی گسترده BT.2020، انتقال الکترواپتیکال SMPTE 2084 و HDMI 2.0b با HDCP 2.2 پشتیبانی می‌کند.

به این لیست، پاسکال رمزگشایی HEVC 4K60p با رنگ 10/12 بیتی را از طریق یک بلوک سخت‌افزاری اختصاصی اضافه می‌کند که ادعا می‌کند از استاندارد HEVC نسخه 2 پشتیبانی می‌کند. پیش از این، انویدیا از یک رویکرد ترکیبی با استفاده از منابع نرم‌افزاری استفاده می‌کرد. علاوه بر این، رمزگذاری به هشت بیت اطلاعات رنگ در هر پیکسل محدود شد. اما ما معتقدیم که برای پشتیبانی از مشخصات بحث برانگیز، Microsoft PlayReady 3.0 به راه حل سریعتر و کارآمدتری نیاز دارد.

این معماری همچنین از رمزگذاری HEVC با رنگ 10 بیتی در 4K60p برای ضبط یا پخش جریانی در HDR پشتیبانی می کند، انویدیا حتی یک برنامه اختصاصی برای آن دارد. با استفاده از رمزگذاری پردازنده GP104 و نرم افزار GameStream HDR که به زودی منتشر می شود، می توانید بازی های با دامنه دینامیکی بالا را در دستگاه های Shield متصل به تلویزیون سازگار با HDR پخش کنید. Shield به رمزگشای HEVC خود با پشتیبانی از رنگ 10 بیتی در هر پیکسل مجهز شده است که خط لوله خروجی تصویر را بارگذاری می کند.

GeForce GTX 1080 GeForce GTX 980
رمزگذاری H.264 بله (2x 4K60p) آره
رمزگذاری HEVC بله (2x 4K60p) آره
رمزگذاری HEVC 10 بیتی آره نه
رمزگشایی H.264 بله (4K120p تا 240Mbps) آره
رمزگشایی HEVC بله (4K120p/8K30p تا 320 مگابیت بر ثانیه) نه
رمزگشایی VP9 بله (4K120p تا 320Mbps) نه
رمزگشایی HEVC 10/12 بیتی آره نه

علاوه بر پشتیبانی از HDMI 2.0b، GeForce GTX 1080 دارای گواهی DisplayPort 1.2 و سازگار با DP 1.3/1.4 است. از این نظر، در حال حاضر از Polaris که هنوز منتشر نشده است، پیشی گرفته است، که کنترل کننده نمایشگر آن تاکنون تنها از DP 1.3 پشتیبانی می کند. خوشبختانه برای AMD، مشخصات نسخه 1.4 شامل حالت انتقال سریعتر نمی شود و سقف هنوز 32.4 گیگابیت بر ثانیه توسط حالت HBR3 تنظیم شده است.

همانطور که قبلا ذکر شد، GeForce GTX 1080 Founders Edition مجهز به سه خروجی Display Port، یک کانکتور HDMI 2.0b و یک خروجی دیجیتال دوگانه DVI است. مانند GTX 980، این محصول جدید قادر است تصویری را روی چهار نمایشگر مستقل به طور همزمان نمایش دهد. اما در مقایسه با رزولوشن 5120x3200 از طریق دو کابل DP 1.2، حداکثر وضوح GTX 1080 برابر با 7680x4320 پیکسل با نرخ تجدید 60 هرتز است.

SLI اکنون تنها به طور رسمی از دو پردازنده گرافیکی پشتیبانی می کند

به طور سنتی، کارت‌های گرافیک پیشرفته Nvidia مجهز به دو کانکتور برای اتصال دو، سه یا حتی چهار شتاب‌دهنده در یک بسته SLI هستند. به عنوان یک قاعده، بهترین مقیاس‌بندی در پیکربندی‌های GPU دوگانه به دست می‌آید. علاوه بر این، هزینه ها اغلب خود را توجیه نمی کنند، زیرا دام های زیادی ظاهر می شوند. با این حال، برخی از علاقه مندان هنوز از سه و چهار آداپتور گرافیکی برای دنبال کردن هر فریم اضافی و فرصتی برای خودنمایی به دوستان استفاده می کنند.

اما وضعیت تغییر کرده است. به گفته انویدیا، به دلیل مشکلات مقیاس‌بندی عملکرد در بازی‌های جدید، بدون شک مربوط به DirectX 12، GeForce GTX 1080 تنها به‌طور رسمی از پیکربندی‌های SLI دو GPU پشتیبانی می‌کند. پس چرا کارت به دو کانکتور نیاز دارد؟ به لطف پل های SLI جدید، می توان از هر دو کانکتور به طور همزمان برای انتقال داده در حالت دو کاناله استفاده کرد. علاوه بر حالت دو کاناله، این رابط همچنین دارای فرکانس I/O افزایش یافته از 400 مگاهرتز به 650 مگاهرتز است. در نتیجه، توان عملیاتی بین پردازنده ها بیش از دو برابر می شود.


زمان رندر فریم در Middle Earth: Shadow of Mordor با پل جدید (خط آبی روی نمودار) و قدیمی (سیاه) SLI

با این حال، بسیاری از گیمرها مزایای یک کانال سریعتر را تجربه نخواهند کرد. اول از همه، با وضوح بالا و نرخ تازه سازی مرتبط خواهد بود. انویدیا یک عکس FCAT از دو GeForce 1080 GTX نشان داده است که Middle Earth: Shadow of Mordor را روی سه نمایشگر 4K اجرا می کنند. اتصال دو کارت با یک پل قدیمی منجر به پرش‌های ثابت زمان فریم می‌شود که منجر به مشکلات زمان‌بندی قابل پیش‌بینی می‌شود که به صورت لکنت ظاهر می‌شود. با پل جدید تعداد پرش ها کمتر شده و کمتر دیده می شود.

به گفته انویدیا، نه تنها پل های SLI HB از حالت دو کاناله پشتیبانی می کنند. پل های LED از قبل آشنا نیز می توانند داده ها را با فرکانس 650 مگاهرتز هنگام اتصال به کارت پاسکال انتقال دهند. اگر می خواهید با کیفیت 4K یا بالاتر کار کنید بهتر است از پل های انعطاف پذیر یا معمولی خودداری کنید. اطلاعات دقیقدر مورد سازگاری را می توان در جدول ارائه شده توسط Nvidia یافت:

1920x1080@60Hz 2560x1440 @ 120Hz+ 2560x1440 4K 5K احاطه
پل استاندارد ایکس ایکس
پل ال ای دی ایکس ایکس ایکس ایکس
پل با سرعت داده بالا (HB) ایکس ایکس ایکس ایکس ایکس ایکس

چه چیزی باعث رد تنظیمات سه و چهار تراشه شد؟ از این گذشته، این شرکت همیشه در تلاش است تا فروش بیشتری داشته باشد و به بهره وری بالاتری دست یابد. بدبینانه است که بگوییم انویدیا نمی‌خواهد هنگام پیوند دو یا چهار کارت در SLI مسئولیت از دست دادن مزیت را بپذیرد، در حالی که بازار مدرن بازی‌های ویدیویی از رویکردهای پیچیده و ظریف‌تر برای رندر استفاده می‌کند. اما این شرکت اصرار دارد که به نفع مشتریان است زیرا مایکروسافت کنترل بیشتری بر پیکربندی‌های چند پردازنده‌ای به توسعه‌دهندگان بازی می‌دهد، آنها نیز به نوبه خود در حال بررسی فناوری‌های جدید مانند رندر تک فریم به جای رندر فریم به فریم فعلی هستند. (AFR).

علاقه مندانی که فقط به رکوردهای سرعت اهمیت می دهند و علاقه ای به فاکتورهای شرح داده شده در بالا ندارند، همچنان می توانند با استفاده از نرم افزار قدیمی سه یا چهار GTX 1080 را در SLI پیوند دهند. آنها باید با استفاده از برنامه ای از Nvidia که می تواند یک کلید "باز کردن قفل" درخواست کند، یک امضای "سخت افزاری" منحصر به فرد تولید کنند. به طور طبیعی، پل های HB SLI جدید با بیش از دو پردازنده گرافیکی کار نمی کنند، بنابراین باید خود را به پل های LED قدیمی محدود کنید تا کار سه/چهار GP104 را در 650 مگاهرتز ترکیب کنید.

مختصری در مورد GPU Boost 3.0

انویدیا در تلاش برای به دست آوردن عملکرد بیشتر از پردازنده‌های گرافیکی خود، دوباره فناوری GPU Boost خود را بهبود بخشیده است.

در نسل قبلی (GPU Boost 2.0)، سرعت ساعت با جابجایی مقدار مشخصی از خط شیب دار وابستگی ولتاژ / فرکانس تنظیم می شد. فضای سر بالقوه بالای این خط معمولاً بدون استفاده رها می شد.


GPU Boost 3.0 - تنظیم افزایش فرکانس در هر مرحله افزایش ولتاژ

اکنون GPU Boost 3.0 به شما امکان می دهد افزایش فرکانس را برای مقادیر جداگانه ولتاژ تنظیم کنید، که فقط توسط دما محدود می شود. علاوه بر این، شما نیازی به آزمایش و بررسی پایداری نقشه در کل محدوده مقادیر روی منحنی ندارید. انویدیا یک الگوریتم داخلی برای خودکارسازی این فرآیند دارد و یک منحنی ولتاژ/فرکانس منحصر به فرد برای GPU شما ایجاد می کند.

نقد و بررسی Nvidia GeForce GTX 1080 Pascal | با GP104 GPU آشنا شوید

در آستانه Computex، Nvidia تصمیم گرفت تا تازگی مورد انتظار خود را ارائه دهد - معماری Pascal که برای گیمرها اقتباس شده است. در کارت های گرافیک جدید GeForce GTX 1080 و 1070، سازنده پردازنده گرافیکی GP104 را نصب می کند. امروز مدل قدیمی تر را بررسی می کنیم و مدل جوانتر باید در اوایل خرداد در دستان ما باشد.

معماری پاسکال نوید عملکرد سریع‌تر و کارآمدتر، ماژول‌های محاسباتی بیشتر، کاهش سطح قالب و حافظه سریع‌تر با یک کنترل‌کننده ارتقا یافته را می‌دهد. این برای بازی های VR، 4K و سایر برنامه های کاربردی بسیار مناسب است.

مانند همیشه، ما سعی خواهیم کرد وعده های سازنده را درک کرده و آنها را در عمل آزمایش کنیم. بیا شروع کنیم.

آیا GeForce GTX 1080 تعادل قدرت را در بخش رده بالا تغییر خواهد داد؟

کارت گرافیک Nvidia GeForce GTX 1080 سریع‌ترین کارت گرافیک در میان دو کارت گرافیک بازی است که در اوایل ماه جاری معرفی شد. هر دو از پردازنده گرافیکی GP104 استفاده می کنند، که به هر حال، قبلاً دومین پردازنده گرافیکی ریزمعماری پاسکال است (اولین GP100 بود که در ماه آوریل در GTC ظاهر شد). رن سان هوان، مدیرعامل انویدیا، هنگام رونمایی از محصول جدید برای عموم علاقه مندان را مسخره کرد و مدعی شد که GeForce GTX 1080 از دو مدل 980 در SLI بهتر عمل می کند.

وی همچنین خاطرنشان کرد که GTX 1080 با عملکرد بیشتر، مصرف انرژی کمتری نسبت به سری 900 دارد. این دو برابر سریعتر و سه برابر کارآمدتر از پرچمدار سابق GeForce Titan X است، اما اگر به نمودارها و نمودارهای همراه نگاه کنید، مشخص می شود که چنین تفاوت چشمگیری در برخی وظایف مربوط به واقعیت مجازی ظاهر می شود. اما حتی اگر این وعده‌ها فقط تا حدی تایید شوند، هنوز در زمان‌های بسیار جالبی از نظر توسعه بازی‌های رده بالای رایانه‌های شخصی هستیم.

واقعیت مجازی به آرامی در حال افزایش است، اما نیازهای سخت افزاری بالا برای زیرسیستم گرافیکی مانع قابل توجهی برای دسترسی به این فناوری ها ایجاد می کند. علاوه بر این، بیشتر بازی‌های موجود امروزی نمی‌دانند چگونه از رندر چند پردازنده‌ای استفاده کنند. یعنی شما معمولاً محدود به قابلیت های یک آداپتور ویدیویی سریع با یک GPU هستید. GTX 1080 قادر به عملکرد بهتر از دو 980 است و نباید با بازی های واقعیت مجازی امروزی دست و پنجه نرم کند و نیازی به تنظیمات چند پردازنده در آینده را از بین ببرد.

اکوسیستم 4K به همان سرعت در حال پیشرفت است. رابط‌های پهنای باند بالاتر مانند HDMI 2.0b و DisplayPort 1.3/1.4 باید تا پایان سال جاری در را به روی مانیتورهای 4K با پنل‌های 120 هرتز و پشتیبانی از نرخ‌های تازه‌سازی پویا باز کنند. در حالی که نسل‌های قبلی پردازنده‌های گرافیکی پیشرفته AMD و Nvidia به عنوان راه‌حل‌هایی برای بازی‌های 4K قرار داشتند، کاربران مجبور بودند برای حفظ نرخ فریم قابل قبول، کیفیت را به خطر بیندازند. GeForce Nvidia GTX 1080 می تواند اولین کارت گرافیکی باشد که به اندازه کافی سریع است تا نرخ فریم بالایی را در رزولوشن 3840x2160 با حداکثر تنظیمات جزئیات گرافیکی حفظ کند.

وضعیت تنظیمات چند مانیتور چگونه است؟ بسیاری از گیمرها مایل به نصب سه مانیتور با وضوح 1920x1080 هستند، اما به شرطی که سیستم گرافیکی بتواند بار را تحمل کند، زیرا در این حالت کارت باید نیم میلیون پیکسل را رندر کند، زیرا وضوح تصویر 7680x1440 است. حتی علاقه مندانی هستند که مایل به استفاده از سه نمایشگر 4K با وضوح ترکیبی 11520x2160 پیکسل هستند.

گزینه دوم حتی برای یک کارت گرافیک پرچمدار جدید بازی بسیار عجیب و غریب است. با این حال، پردازنده Nvidia GP104 مجهز به فناوری است که نوید بهبود تجربه را برای کارهای معمولی مدل جدید، یعنی 4K و Surround می دهد. اما قبل از اینکه به سراغ فناوری‌های جدید برویم، بیایید نگاهی دقیق‌تر به پردازنده GP104 و معماری پاسکال زیربنایی آن بیندازیم.

GP104 از چه چیزی ساخته شده است؟

از ابتدای سال 2012، AMD و Nvidia از فناوری پردازش 28 نانومتری استفاده کردند. با تغییر به آن، هر دو شرکت جهشی قابل توجه به جلو انجام دادند و کارت‌های گرافیک Radeon HD 7970 و GeForce GTX 680 را به ما معرفی کردند. با این حال، در چهار سال آینده، آنها مجبور شدند برای کاهش عملکرد بیشتر از فناوری موجود، طفره بروند. دستاوردهای کارت های گرافیک Radeon R9 Fury X و GeForce GTX 980 Ti با توجه به پیچیدگی آنها واقعاً شگفت انگیز است. اولین تراشه ای که توسط انویدیا بر روی فرآیند 28 نانومتری ساخته شد GK104 بود که از 3.5 میلیارد ترانزیستور تشکیل شده بود. GM200 موجود در GeForce GTX 980 Ti و Titan X در حال حاضر دارای هشت میلیارد ترانزیستور است.

انتقال به فناوری ۱۶ نانومتری TSMC FinFET Plus به مهندسان انویدیا اجازه داد تا ایده های جدیدی را پیاده سازی کنند. طبق اطلاعات فنی، تراشه‌های 16FF+ 65 درصد سریع‌تر هستند، می‌توانند دو برابر تراکم 28HPM داشته باشند یا 70 درصد انرژی کمتری مصرف کنند. انویدیا هنگام ایجاد پردازنده‌های گرافیکی خود از ترکیب بهینه این مزایا استفاده می‌کند. TSMC ادعا می کند که بر اساس مهندسی فرآیند 20 نانومتری موجود بوده است، اما از ترانزیستورهای FinFET به جای ترانزیستورهای تخت استفاده کرده است. این شرکت می‌گوید که این رویکرد میزان ضایعات را کاهش می‌دهد و خروجی صفحات کار را افزایش می‌دهد. همچنین ادعا می شود که این شرکت از فناوری فرآیند 20 نانومتری با ترانزیستورهای سریع برخوردار نبوده است. باز هم، دنیای گرافیک کامپیوتری بیش از چهار سال است که بر روی فناوری فرآیند 28 نانومتری نشسته است.

نمودار بلوک پردازنده GP104

جانشین GM204 متشکل از 7.2 میلیارد ترانزیستور است که در مساحت 314 میلی متر مربع قرار گرفته اند. برای مقایسه، مساحت قالب GM204 398 میلی متر مربع با 5.2 میلیارد ترانزیستور است. در نسخه کامل، یک GPU GP104 دارای چهار خوشه پردازش گرافیکی (GPC) است. هر GPC شامل پنج خوشه پردازش نخ/بافت (TPC) و یک شطرنجگر است. TPC ترکیبی از یک چند پردازنده جریانی (SM) و موتور PolyMorph است. SM 128 هسته CUDA دقیق، 256 کیلوبایت حافظه ثبت، 96 کیلوبایت حافظه مشترک، 48 کیلوبایت حافظه کش L1/بافت و هشت واحد بافت را ترکیب می کند. نسل چهارم موتور PolyMorph شامل یک بلوک منطقی جدید است که در انتهای خط لوله هندسی قبل از بلوک شطرنجی قرار دارد، عملکرد همزمان چند طرح ریزی را کنترل می کند (در ادامه در مورد آن بیشتر توضیح می دهیم). در مجموع، ما 20 اس ام اس، 2560 هسته CUDA و 160 واحد پردازش بافت داریم.

یک چند پردازنده جریانی (SM) در GP104

بک‌اند GPU شامل هشت کنترلر حافظه 32 بیتی (عرض کانال 256 بیتی)، هشت واحد شطرنجی و 256 کیلوبایت حافظه نهان L2 در هر واحد است. ما در نهایت با 64 ROP و 2 مگابایت حافظه پنهان L2 مشترک مواجه می شویم. اگرچه بلوک دیاگرام پردازنده Nvidia GM204 چهار کنترلر 64 بیتی و 16 ROP را نشان می داد، اما آنها با هم گروه بندی شدند و از نظر عملکردی معادل بودند.

برخی از عناصر ساختاری GP104 شبیه به عناصر GM204 هستند، زیرا GPU جدید از "بلوک های ساختمانی" نسل قبلی خود ساخته شده است. عیبی ندارد. اگر به خاطر داشته باشید، در معماری ماکسول، این شرکت بر بهره وری انرژی متکی بود و بلوک ها را که نقاط قوت کپلر بودند، تکان نداد. تصویر مشابهی را در اینجا می بینیم.

افزودن چهار اس ام اس ممکن است تاثیر قابل توجهی بر عملکرد نداشته باشد. با این حال، GP104 چند ترفند در آستین خود دارد. اولین برگ برنده فرکانس ساعت به طور قابل توجهی بالاتر است. سرعت کلاک پایه پردازنده گرافیکی 1607 مگاهرتز است. مشخصات GM204 برای مقایسه، 1126 مگاهرتز را نشان می دهد. حداکثر فرکانس GPU Boost 1733 مگاهرتز است، اما ما با استفاده از ابزار بتا PrecisionX EVGA، نمونه خود را به 2100 مگاهرتز رساندیم. چنین ذخیره ای برای اورکلاک از کجا می آید؟ به گفته جان آلبین، معاون ارشد مهندسی GPU، تیم او می‌دانست که فرآیند TSMC 16FF+ بر معماری تراشه تأثیر می‌گذارد، بنابراین آنها بر روی بهینه‌سازی زمان‌بندی تراشه تمرکز کردند تا گلوگاه‌هایی را که از دستیابی به سرعت کلاک بالاتر جلوگیری می‌کنند، حذف کنند. در نتیجه، سرعت محاسبات تک دقیق GP104 در مقایسه با سقف 4612 GFLOP در GeForce GTX 980 به 8228 GFLOP (در ساعت پایه) رسید. 277، 3 Gtex /s.

پردازنده گرافیکی GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
اس ام 20 16
تعداد هسته های CUDA 2560 2048
فرکانس پایه GPU، مگاهرتز 1607 1126
فرکانس GPU در حالت Boost، مگاهرتز 1733 1216
سرعت محاسبه، GFLOP (در فرکانس پایه) 8228 4612
تعداد واحدهای بافت 160 128
سرعت پر کردن تکل، Gtex/s 277,3 155,6
سرعت انتقال حافظه، گیگابیت بر ثانیه 10 7
پهنای باند حافظه، گیگابایت بر ثانیه 320 224
تعداد بلوک های شطرنجی سازی 64 64
اندازه حافظه نهان L2، مگابایت 2 2
پکیج حرارتی، W 180 165
تعداد ترانزیستور 7.2 میلیارد 5.2 میلیارد
مساحت کریستال، mm2 314 398 میلی متر
فناوری فرآیند، نانومتر 16 28

بخش پشتی همچنان شامل 64 ROP و یک گذرگاه حافظه 256 بیتی است، اما Nvidia حافظه GDDR5X را برای افزایش پهنای باند موجود معرفی کرده است. این شرکت تلاش زیادی برای ارتقای نوع جدید حافظه انجام داده است، به خصوص در زمینه حافظه HBM که در کارت های گرافیکی مختلف AMD و HBM2 که انویدیا در تسلا P100 نصب می کند استفاده می شود. به نظر می رسد در حال حاضر کمبود حافظه HBM2 در بازار وجود دارد و این شرکت آمادگی پذیرش محدودیت های HBM (چهار پشته 1 گیگابایتی یا دشواری اجرای هشت پشته 1 گیگابایتی) را ندارد. بنابراین، ما حافظه ویدیویی GDDR5X را دریافت کردیم، که ظاهراً عرضه آن نیز محدود است، زیرا GeForce GTX 1070 قبلاً از GDDR5 معمولی استفاده می کند. اما این مزیت های راه حل جدید را پوشش نمی دهد. حافظه GDDR5 در GeForce GTX 980 دارای سرعت انتقال داده 7 گیگابیت بر ثانیه بود. این 224 گیگابایت بر ثانیه پهنای باند را از طریق یک گذرگاه 256 بیتی فراهم می کرد. GDDR5X با سرعت 10 گیگابیت بر ثانیه شروع می شود و توان عملیاتی را به 320 گیگابایت بر ثانیه افزایش می دهد (43 درصد افزایش). به گفته انویدیا، این افزایش از طریق یک طرح I/O ارتقا یافته و بدون افزایش مصرف انرژی حاصل می شود.

معماری ماکسول با بهینه سازی کش و الگوریتم های فشرده سازی در استفاده از پهنای باند کارآمدتر شده است و پاسکال نیز همین مسیر را با روش های جدید فشرده سازی بدون تلفات دنبال می کند تا از پهنای باند موجود زیرسیستم حافظه به صورت اقتصادی تر استفاده کند. الگوریتم فشرده‌سازی رنگ دلتا تلاش می‌کند به افزایش ۲:۱ دست یابد و این حالت برای استفاده بیشتر بهبود یافته است. حالت جدید 4:1 نیز وجود دارد که در مواردی که تفاوت در هر پیکسل بسیار کم است استفاده می شود. در نهایت، پاسکال یک الگوریتم جدید 8:1 را معرفی می کند که فشرده سازی 4:1 را بر روی بلوک های 2x2 اعمال می کند، که تفاوت بین آنها در الگوریتم 2:1 پردازش می شود.



نشان دادن تفاوت کار دشواری نیست. تصویر اول یک اسکرین شات فشرده نشده از Project CARS را نشان می دهد. تصویر زیر عناصری را نشان می دهد که کارت Maxwell می تواند فشرده کند، آنها به رنگ بنفش سایه زده شده اند. در نما سوم می بینید که پاسکال صحنه را بیشتر فشرده می کند. به گفته انویدیا، این تفاوت به کاهش 20 درصدی در میزان اطلاعات بر حسب بایت تبدیل می شود که برای هر فریم باید از حافظه برداشت شود.

طبق شواهد حکایتی اخیراً منتشر شده، خانواده GPU مبتنی بر پاسکال می‌تواند به یکی از کامل‌ترین مجموعه‌های NVIDIA در سال‌های اخیر تبدیل شود. تنها در عرض چند ماه، این شرکت چهار پردازنده گرافیکی مبتنی بر پاسکال را معرفی کرده است و قرار نیست به همین جا بسنده کند. به گفته رئیس این شرکت، به دور از تمام تراشه های پاسکال، بدون ذکر محصولات واقعی، ارائه شده است. ظاهراً در آینده نزدیک منتظر اطلاعیه های جدید هستیم.

NVIDIA Pascal: هشت محصول در چهار ماه

از آوریل سال جاری، انویدیا چهار تراشه مبتنی بر پاسکال را معرفی کرده است: GP100 با 16 گیگابایت حافظه HBM2، GP102 با پشتیبانی از GDDR5X، GP104 و GP106. در همان زمان، این شرکت هشت محصول مبتنی بر این پردازنده‌های گرافیکی (به استثنای محصولات تکی انواع مختلف نسخه‌های ویژه زیر و همچنین دستگاه‌های تخصصی مانند DGX-1) را اعلام کرد: GeForce GTX 1080/1070 (GP104)، GeForce. GTX 1060 (GP106)، TITAN X (GP102 + 12 گیگابایت GDDR5X)، Quadro P5000 (GP104GL + 16 گیگابایت GDDR5X)، Quadro P6000 (GP102GL + 24 گیگابایت GDDR5X)، Tesla P10GBM1 و Tesla P10P10.

در حالی که چهار پردازنده گرافیکی و هشت محصول در چهار ماه یک دستاورد قابل توجه است، قابل توجه است که این شرکت نه یک راه حل جدید نوت بوک و نه یک کارت گرافیک جدید زیر 250 دلار معرفی کرده است. به گفته رئیس NVIDIA، این شرکت در حال آماده سازی پردازنده های گرافیکی جدید مبتنی بر پاسکال است، آنها قبلاً در سیلیکون وجود دارند، اما تنها پس از مدتی وارد بازار خواهند شد.

NVIDIA: همه پاسکال ها آماده هستند، اما همه ارائه نشده اند

ما همه را طراحی، تأیید و شروع به تولید کردیمپردازنده گرافیکی مبتنی بر معماریپاسکال», جن هسون هوانگ، مدیر اجرایی انویدیا، طی یک کنفرانس تلفنی با سرمایه گذاران و تحلیلگران مالی گفت. با این حال، ما هنوز همه این پردازنده‌های گرافیکی را معرفی نکرده‌ایم.»

تنظیمات جدید

با این حال، نه تنها GP107، GP108 و GP102 که مورد توجه گیمرها و علاقه مندان به عملکرد هستند، بلکه این واقعیت است که هر تراشه پاسکال حداقل در دو پیکربندی اصلی (از نظر شناسه PCIe که درایور NVIDIA استفاده می کند) وجود خواهد داشت. ) . این فرصت را برای ایجاد مجموعه ای از محصولات جدید بر اساس تراشه های GP100، GP102، GP104 و GP106 باز می کند.

بنابراین، GP104 در پیکربندی های GP104-A و GP104-B و همچنین نسخه هایی با شتاب فعال برای برنامه های حرفه ای - GP104GL-A و GP104GL-B وجود دارد. ما نمی دانیم که حروف "A" و "B" دقیقاً با چه چیزی مطابقت دارند، اما می توانیم فرض کنیم که "A" نشان دهنده یک ریزمدار در حداکثر پیکربندی است. بنابراین GP104-A می تواند با GeForce GTX 1080 و GP104-B می تواند با GeForce GTX 1070 مطابقت داشته باشد.

با توجه به اینکه ریز مدارهای GP102 و GP106 نیز در دو پیکربندی وجود دارند (در هر صورت، این مورد توسط پایگاه داده AIDA64 و درایورهای NVIDIA نشان داده شده است)، اما در عین حال تنها یک محصول بر اساس آنها وجود دارد (GeForce GTX 1060 و TITAN X) ، به خوبی می توان انتظار ظهور راه حل های جدید بر اساس آنها را داشت. این که آیا این کارت ها سریعتر یا کندتر از کارت های موجود خواهند بود، زمان نشان خواهد داد. در هر صورت، GP102 می تواند هم «بالا» (تا 3840 پردازنده جریانی) و هم «پایین» را مقیاس کند. در عین حال، البته نمی توان احتمال فرضی ظاهر شدن نسخه سوم GP102-C را در صورت نیاز NVIDIA رد کرد.

بدیهی است که انویدیا قصد دارد خانواده کارت‌های گرافیکی مبتنی بر پاسکال را گسترش دهد. اگرچه برنامه‌های فوری باید به وضوح شامل پردازنده‌های گرافیکی موبایل و جریان اصلی باشد، اما به احتمال زیاد در آینده راه‌حل‌های جدیدی برای رایانه‌های شخصی بازی با کارایی بالا خواهیم داشت.