نقشه های معماری پاسکال خانواده کارت های ویدئویی Nvidia GeForce اطلاعات مرجع. کانال نمایش پاسکال: HDR-Ready
سال 2016 در حال پایان است، اما سهم او در صنعت بازی برای مدت طولانی با ما باقی خواهد ماند. اولاً ، کارت های ویدیویی از اردوگاه قرمز به روز رسانی غیرمنتظره ای موفقیت آمیز در محدوده قیمت متوسط دریافت کردند و ثانیاً ، NVIDIA یک بار دیگر ثابت کرد که بیهوده نیست که 70٪ از بازار را اشغال می کند. مکسول ها خوب بودند، GTX 970 به حق یکی از بهترین کارت ها برای پول در نظر گرفته می شد، اما پاسکال یک موضوع کاملاً متفاوت است.
نسل جدید سختافزار در مواجهه با GTX 1080 و 1070 به معنای واقعی کلمه نتایج سیستمهای سال گذشته و بازار سختافزار مورد استفاده پرچمدار را مدفون کرد، در حالی که خطوط «جوانتر» در مواجهه با GTX 1060 و 1050 موفقیت خود را در مقرونبهصرفهتر تثبیت کردند. بخش ها صاحبان GTX980Ti و دیگر تایتانها با اشک تمساح گریه میکنند: اسلحههای اوبر آنها برای هزاران روبل 50 درصد هزینه و 100 درصد خودنمایی را به یکباره از دست دادند. خود انویدیا ادعا می کند که 1080 سریعتر از TitanX سال گذشته است، 1070 به راحتی 980Ti را "هپ" می کند، و 1060 نسبتاً بودجه به صاحبان سایر کارت ها آسیب می رساند.
آیا واقعاً اینجاست که پاهای عملکرد بالا از آنجا رشد می کند و در آستانه تعطیلات و شادی های ناگهانی مالی با آن چه باید کرد و همچنین دقیقاً با چه چیزی راضی بود، می توانید در این طولانی و کمی خسته کننده بدانید مقاله.
شما می توانید انویدیا یا ... را دوست نداشته باشید، اما وجود آن را انکار کنید این لحظهیک رهبر در زمینه مهندسی ویدیو تنها یک هیتمن از یک جهان جایگزین خواهد بود. از آنجایی که Vega از AMD هنوز معرفی نشده است، ما هنوز پرچمدار RX را در Polaris ندیده ایم، و R9 Fury با 4 گیگابایت حافظه آزمایشی خود را نمی توان واقعاً یک کارت امیدوار کننده در نظر گرفت (VR و 4K همچنان می خواهند کمی بیشتر از آنچه او دارد) - ما آنچه را داریم داریم. در حالی که 1080 Ti و RX 490 مشروط، RX Fury و RX 580 فقط شایعه و انتظار هستند، ما زمان داریم تا سری فعلی NVIDIA را بررسی کنیم و ببینیم این شرکت برای چه چیزی به دست آورده است. سال های گذشته.
آشفتگی و تاریخچه پیدایش پاسکال
NVIDIA به طور مرتب دلایلی برای "دوست نداشتن خود" ارائه می دهد. تاریخچه GTX 970 و "حافظه 3.5 گیگابایتی" آن، "NVIDIA، لعنت به شما!" از Linus Torvalds، پورنوگرافی کامل در خطوط گرافیک دسکتاپ، امتناع از کار با سیستم رایگان و بسیار رایج FreeSync به نفع اختصاصی خود ... به طور کلی دلایل کافی وجود دارد. یکی از آزاردهنده ترین چیزها برای من شخصاً اتفاقی است که با دو نسل گذشته کارت گرافیک ها رخ داد. اگر توضیحی تقریبی داشته باشیم، پس پردازندههای گرافیکی «مدرن» از روزهای پشتیبانی از DX10 آمدهاند. و اگر امروز به دنبال "پدربزرگ" سری دهم باشید، آنگاه آغاز معماری مدرن در منطقه چهارصدمین سری شتاب دهنده های ویدئویی و معماری فرمی خواهد بود. در آن بود که ایده طراحی "بلوک" از به اصطلاح. "هسته های CUDA" در اصطلاح NVIDIA.فرمی
اگر کارتهای ویدئویی سریهای 8000، 9000 و 200 اولین گامها در تسلط بر مفهوم، «معماری مدرن» با پردازندههای سایهزن جهانی (مثل AMD، بله) بودند، پس سری 400 از قبل تا حد امکان شبیه آنچه ما بودیم بود. در برخی از 1070 ببینید. بله، فرمی هنوز یک عصا کوچک Legacy از نسل های قبلی داشت: واحد سایه زن با فرکانس دو برابر هسته مسئول محاسبه هندسه کار می کرد، اما تصویر کلی برخی از GTX 480 با برخی دیگر تفاوت چندانی ندارد. 780، چند پردازندههای SM خوشهبندی میشوند، خوشهها از طریق یک حافظه پنهان مشترک با کنترلکنندههای حافظه ارتباط برقرار میکنند و نتایج کار توسط یک بلوک شطرنجی مشترک برای خوشه نمایش داده میشود:بلوک دیاگرام پردازنده GF100 مورد استفاده در GTX 480.
در سری 500، هنوز همان فرمی وجود داشت، کمی بهبود یافته در "داخل" و با ازدواج کمتر، بنابراین راه حل های برتر 512 هسته CUDA به جای 480 برای نسل قبلی دریافت کردند. از نظر بصری، فلوچارت ها معمولاً دوقلو به نظر می رسند:
GF110 قلب GTX 580 است.
در بعضی جاها فرکانس ها را افزایش دادند، طراحی خود تراشه را کمی تغییر دادند، هیچ انقلابی رخ نداد. همه همان فناوری پردازش 40 نانومتری و 1.5 گیگابایت حافظه ویدیویی در یک گذرگاه 384 بیتی.
کپلر
با ظهور معماری کپلر، چیزهای زیادی تغییر کرده است. می توان گفت که این نسل بود که به کارت های ویدئویی NVIDIA بردار توسعه داد که منجر به ظهور مدل های فعلی شد. نه تنها معماری GPU تغییر کرده است، بلکه آشپزخانه برای توسعه سخت افزار جدید در داخل NVIDIA نیز تغییر کرده است. اگر فرمی بر روی یافتن راه حلی متمرکز بود که عملکرد بالایی را ارائه دهد، کپلر روی بهره وری انرژی، استفاده معقول از منابع، فرکانس های بالا و سهولت بهینه سازی موتور بازی برای قابلیت های یک معماری با کارایی بالا شرط بندی می کرد.تغییرات جدی در طراحی GPU ایجاد شد: نه "گل سرسبد" GF100 / GF110، بلکه "بودجه" GF104 / GF114 که در یکی از محبوب ترین کارت های آن زمان - GTX استفاده می شد. 460.
معماری کلی پردازنده تنها با استفاده از دو بلوک بزرگ با چهار ماژول چندپردازنده سایه زن یکپارچه ساده شده است. چیدمان پرچمداران جدید چیزی شبیه به این بود:
GK104 در GTX 680 نصب شده است.
همانطور که مشاهده می کنید، هر یک از واحدهای محاسباتی نسبت به معماری قبلی وزن قابل توجهی یافته و SMX نامگذاری شده است. ساختار بلوک را با آنچه در بالا در بخش فرمی نشان داده شده است مقایسه کنید.
چند پردازنده SMX GPU GK104
سری ششصدم کارت گرافیک روی یک پردازنده تمام عیار حاوی شش بلوک ماژول های محاسباتی نداشت، گل سرسبد GTX 680 با GK104 نصب شده بود و خنک تر از آن فقط 690 "دو سر" بود که فقط روی آن بود. دو پردازنده با تمام اتصالات و حافظه لازم تولید شدند. یک سال بعد، پرچمدار GTX 680 با تغییرات جزئی به GTX 770 تبدیل شد و تاج تکامل معماری کپلر کارت های ویدیویی مبتنی بر کریستال GK110 بود: GTX Titan و Titan Z، 780Ti و 780 معمولی. همه همان 28 نانومتر، تنها پیشرفت کیفی (که به کارتهای ویدئویی مصرفکننده مبتنی بر GK110 نمیرسد) - عملکرد با عملیاتهای با دقت مضاعف.
ماکسول
اولین کارت گرافیک مبتنی بر معماری Maxwell… NVIDIA GTX 750Ti بود. کمی بعد، برش های آن در مقابل GTX 750 و 745 ظاهر شد (فقط به عنوان یک راه حل یکپارچه ارائه می شود) و در زمان ظهور آنها، کارت های رده پایین واقعاً بازار شتاب دهنده های ویدیویی ارزان را تکان دادند. معماری جدید بر روی تراشه GK107 آزمایش شد: قطعه کوچکی از پرچمداران آینده با هیت سینک های بزرگ و قیمتی ترسناک. چیزی شبیه این به نظر می رسید:بله، فقط یک واحد محاسباتی وجود دارد، اما چقدر پیچیده تر از نسخه قبلی است، خودتان مقایسه کنید:
به جای یک بلوک بزرگ SMX، که به عنوان یک "آجر ساختمانی" اساسی در ایجاد GPU استفاده می شد، از بلوک های SMM جدید و فشرده تر استفاده می شود. واحدهای محاسباتی اولیه کپلر خوب بودند، اما از استفاده ضعیف از ظرفیت رنج می بردند - یک تشنگی پیش پا افتاده برای دستورالعمل: سیستم نمی توانست دستورالعمل ها را روی تعداد زیادی از محرک ها پخش کند. پنتیوم 4 تقریباً همین مشکلات را داشت: برق بیکار بود و خطا در پیش بینی انشعاب بسیار گران بود. در ماکسول، هر ماژول محاسباتی به چهار قسمت تقسیم میشد که به هر کدام از آنها بافر دستورالعمل و زمانبندی تاب و پیچیدگی خاص خود داده شد - همان نوع عملیات روی گروهی از رشتهها. در نتیجه، کارایی افزایش یافته است و خود پردازندههای گرافیکی نسبت به پیشینیان خود انعطافپذیرتر شدهاند و مهمتر از همه، به قیمت خون کم و یک کریستال نسبتاً ساده، معماری جدیدی ساختهاند. داستان به صورت مارپیچی پیش می رود، هه.
بیش از همه، راه حل های تلفن همراه از نوآوری ها سود برده اند: مساحت کریستال یک چهارم افزایش یافته است و تعداد واحدهای اجرایی چند پردازنده تقریبا دو برابر شده است. از شانس و اقبال، این سری های 700 و 800 بودند که آشفتگی اصلی را در طبقه بندی ایجاد کردند. تنها در داخل 700، کارت های ویدئویی بر اساس معماری کپلر، ماکسول و حتی فرمی وجود داشت! به همین دلیل است که Maxwells رومیزی برای دور شدن از هجوم نسل های قبلی، سری 900 معمولی را دریافت کرد که متعاقباً کارت های موبایل GTX 9xx M از آن جدا شدند.
پاسکال - توسعه منطقی معماری ماکسول
آنچه در Kepler گذاشته شد و در نسل Maxwell ادامه یافت در پاسکال باقی ماند: اولین کارتهای ویدئویی مصرفکننده بر اساس تراشه نه چندان بزرگ GP104 منتشر شدند که از چهار خوشه پردازش گرافیکی تشکیل شده است. GP100 با اندازه کامل و شش کلاستر به یک GPU نیمه حرفه ای گران قیمت با نام تجاری TITAN X رفت. با این حال، حتی 1080 "برش خورده" روشن می شود تا نسل های گذشته احساس بیماری کنند.ارتقای کارایی
شالوده پایه ها
ماکسول پایه و اساس معماری جدید شد، نمودار پردازنده های قابل مقایسه (GM104 و GP104) تقریباً یکسان به نظر می رسد، تفاوت اصلی در تعداد چند پردازنده های بسته بندی شده در خوشه ها است. کپلر (نسل 700) دارای دو چند پردازنده بزرگ SMX بود که هر کدام در ماکسول به 4 قسمت تقسیم شدند و تسمه لازم را فراهم کردند (تغییر نام به SMM). در پاسکال، دو مورد دیگر به هشت مورد موجود در بلوک اضافه شد، به طوری که 10 مورد از آنها وجود داشت، و مخفف یک بار دیگر قطع شد: اکنون چند پردازنده های منفرد دوباره SM نامیده می شوند.بقیه یک شباهت کامل بصری است. درست است، تغییرات حتی بیشتر در داخل وجود داشت.
موتور پیشرفت
تغییرات نامناسب زیادی در داخل بلوک چند پردازنده وجود دارد. برای اینکه وارد جزئیات خیلی کسل کننده ی کارهایی که دوباره انجام شده، نحوه بهینه سازی و قبل از آن چگونه بوده، نروم، تغییرات را خیلی مختصر توضیح می دهم، در غیر این صورت برخی در حال خمیازه کشیدن هستند.اول از همه، پاسکال قسمتی را که مسئول مؤلفه هندسی تصویر است تصحیح کرد. این برای تنظیمات چند مانیتور و کار با کلاه های VR ضروری است: با پشتیبانی مناسب از موتور بازی (و این پشتیبانی به زودی با تلاش NVIDIA ظاهر می شود)، کارت گرافیک می تواند هندسه را یک بار محاسبه کند و چندین پیش بینی هندسه برای هر کدام دریافت کند. از صفحه نمایش ها این به طور قابل توجهی بار را در VR نه تنها در زمینه کار با مثلث ها کاهش می دهد (در اینجا افزایش فقط دو برابر است)، بلکه در کار با جزء پیکسل نیز کاهش می یابد.
980Ti شرطی هندسه را دو بار (برای هر چشم) می خواند و سپس آن را با بافت ها پر می کند و برای هر یک از تصاویر پس پردازش انجام می دهد، در مجموع حدود 4.2 میلیون نقطه را پردازش می کند، که حدود 70٪ آن در واقع استفاده خواهد شد. بقیه قطع می شوند یا به ناحیه ای می افتند که به سادگی برای هر یک از چشم ها نمایش داده نمی شود.1080 یک بار هندسه را پردازش می کند و پیکسل هایی که در تصویر نهایی قرار نمی گیرند به سادگی محاسبه نمی شوند.
با مولفه پیکسل، در واقع همه چیز حتی سردتر است. از آنجایی که افزایش پهنای باند حافظه تنها از دو جهت قابل انجام است (افزایش فرکانس و پهنای باند در هر ساعت) و هر دو روش هزینه بر است و "گرسنگی" GPU از نظر حافظه در طول سال ها بیشتر و بیشتر نمایان می شود. رشد وضوح و توسعه VR همچنان روشهای «رایگان» را برای افزایش پهنای باند بهبود میبخشد. اگر نمی توانید گذرگاه را گسترش دهید و فرکانس را افزایش دهید - باید داده ها را فشرده کنید. در نسلهای قبلی فشردهسازی سختافزار قبلاً اجرا شده بود، اما در پاسکال به سطح جدیدی منتقل شد. باز هم بدون ریاضیات خسته کننده انجام می دهیم و یک مثال آماده از NVIDIA می گیریم. در سمت چپ - ماکسول، در سمت راست - پاسکال، نقاطی که جزء رنگ آنها تحت فشرده سازی بدون تلفات قرار گرفته است با رنگ صورتی پر شده است.
به جای انتقال کاشی های خاص 8×8، حافظه حاوی رنگ "متوسط" + ماتریس انحراف از آن است، چنین داده هایی از ½ تا ⅛ حجم اصلی را می گیرند. در کارهای واقعی، بار روی زیرسیستم حافظه از 10 به 30 درصد کاهش یافته است، بسته به تعداد گرادیان ها و یکنواختی پر شدن در صحنه های پیچیده روی صفحه نمایش.
این به نظر مهندسان کافی نبود و برای کارت گرافیک پرچمدار (GTX 1080) از حافظه با پهنای باند افزایش یافته استفاده شد: GDDR5X دو برابر بیت داده (نه دستورالعمل) در هر ساعت انتقال می دهد و بیش از 10 گیگابیت بر ثانیه در ساعت تولید می کند. اوج. انتقال داده ها با چنین سرعت دیوانه کننده ای نیاز به یک چیدمان حافظه کاملاً جدید روی برد داشت و در مجموع بازده حافظه نسبت به پرچمداران نسل قبلی 60-70٪ افزایش یافت.
کاهش تأخیر و زمان خرابی
کارتهای ویدئویی مدتهاست که نه تنها در پردازش گرافیکی، بلکه در محاسبات مربوطه نیز مشغول هستند. فیزیک اغلب به فریم های انیمیشن گره خورده است و به طور قابل توجهی موازی است، به این معنی که محاسبه بر روی GPU بسیار کارآمدتر است. اما بزرگترین مولد مشکلات در زمان های اخیر صنعت VR بوده است. بسیاری از موتورهای بازی، متدولوژیهای توسعه و دستهای از فناوریهای دیگر که برای کار با گرافیک استفاده میشوند، به سادگی برای VR طراحی نشدهاند، مورد حرکت دوربین یا تغییر موقعیت سر کاربر در حین رندر کردن فریم به سادگی پردازش نشده است. اگر همه چیز را همانطور که هست رها کنید، همگام سازی جریان ویدئو و حرکات شما باعث حملات دریایی می شود و به سادگی با غوطه ور شدن در دنیای بازی تداخل پیدا می کند، به این معنی که فریم های "اشتباه" به سادگی باید پس از رندر دور ریخته شوند و شروع شوند. دوباره کار می کند و اینها تاخیرهای جدیدی در نمایش تصویر روی نمایشگر هستند. تاثیر مثبتی بر عملکرد ندارد.پاسکال این مشکل را در نظر گرفت و تعادل بار پویا و امکان وقفههای ناهمزمان را معرفی کرد: اکنون واحدهای اجرایی میتوانند برای پردازش کارهای فوریتر، وظیفه فعلی را قطع کنند (نتایج کار را در حافظه پنهان ذخیره میکنند) یا به سادگی فریم زیر کشیده را بازنشانی میکنند. یک مورد جدید را شروع کنید و به طور قابل توجهی تاخیر در شکل گیری تصویر را کاهش دهید. البته ذینفع اصلی در اینجا VR و بازی ها هستند، اما این فناوری همچنین می تواند به محاسبات همه منظوره کمک کند: شبیه سازی برخورد ذرات افزایش عملکرد 10-20٪ را دریافت کرد.
تقویت 3.0
کارتهای ویدئویی NVIDIA مدتها پیش، در نسل 700 بر اساس معماری کپلر، اورکلاک خودکار دریافت کردند. در ماکسول، اورکلاک بهبود یافته بود، اما هنوز هم، به بیان ملایم، اینطور بود: بله، کارت گرافیک کمی سریعتر کار می کرد، تا زمانی که بسته حرارتی اجازه می داد، 20-30 مگا هرتز اضافی برای هسته و 50 -100 برای حافظه سیمی از کارخانه، افزایش داد، اما کمی. اینطوری کار کرد:حتی اگر حاشیه ای برای دمای GPU وجود داشته باشد، عملکرد افزایش نمی یابد. با ظهور پاسکال، مهندسان این باتلاق غبارآلود را تکان دادند. Boost 3.0 در سه جنبه کار می کند: تجزیه و تحلیل دما، افزایش سرعت ساعت و افزایش ولتاژ روی تراشه. اکنون تمام آب ها از GPU خارج می شوند: درایورهای استاندارد NVIDIA این کار را انجام نمی دهند، اما نرم افزار فروشندگان به شما امکان می دهد یک منحنی نمایه سازی را با یک کلیک ایجاد کنید، که کیفیت نمونه کارت گرافیکی خاص شما را در نظر می گیرد.
EVGA یکی از اولین ها در این زمینه بود، ابزار Precision XOC آن دارای یک اسکنر تایید شده NVIDIA است که به طور متوالی از کل محدوده دما، فرکانس و ولتاژ عبور می کند و حداکثر کارایی را در همه حالت ها به دست می آورد.
در اینجا یک فناوری فرآیند جدید، حافظه پرسرعت، انواع بهینهسازیها و کاهش گرمای تراشهها را اضافه کنید، و نتیجه به سادگی نامناسب خواهد بود. از 1500 مگاهرتز "پایه"، اگر یک کپی خوب پیدا شود، می توان GTX 1060 را بیش از 2000 مگاهرتز فشرده کرد و فروشنده با خنک کننده مشکلی ایجاد نمی کند.
بهبود کیفیت تصویر و درک از دنیای بازی
عملکرد در همه زمینه ها افزایش یافته است، اما تعدادی از نکات وجود دارد که چندین سال است که هیچ تغییر کیفی در آنها ایجاد نشده است: در کیفیت تصویر نمایش داده شده. و این در مورد جلوه های گرافیکی نیست، آنها توسط توسعه دهندگان بازی ارائه می شوند، بلکه در مورد اینکه دقیقاً چه چیزی روی مانیتور می بینیم و چگونه بازی برای کاربر نهایی به نظر می رسد.همگام سازی عمودی سریع
مهمترین ویژگی پاسکال بافر سه گانه برای خروجی فریم است که به طور همزمان تاخیرهای بسیار کم در رندر را فراهم می کند و همگام سازی عمودی را تضمین می کند. تصویر خروجی در یک بافر ذخیره میشود، آخرین فریم رندر شده در دیگری ذخیره میشود و تصویر فعلی در بافر سوم ترسیم میشود. خداحافظ راه راه های افقی و پارگی، سلام عملکرد بالا. V-Sync کلاسیک در اینجا هیچ تاخیری ندارد (زیرا هیچ کس عملکرد کارت گرافیک را محدود نمی کند و همیشه با بالاترین نرخ فریم ممکن ترسیم می کند) و فقط فریم های کاملاً شکل گرفته به مانیتور ارسال می شوند. فکر می کنم بعد از سال جدید یک پست بزرگ جداگانه در مورد V-Sync، G-Sync، Free-Sync و این الگوریتم جدید همگام سازی سریع از Nvidia بنویسم، جزئیات بیش از حد وجود دارد.اسکرین شات های معمولی
نه، آن اسکرین شات هایی که الان هستند فقط مایه شرمساری هستند. تقریباً همه بازیها از فناوری زیادی استفاده میکنند تا تصویر در حرکت را شگفتانگیز و نفسگیر کنند و اسکرینشاتها به یک کابوس واقعی تبدیل شدهاند: به جای یک تصویر خیرهکننده واقعگرایانه که متشکل از انیمیشن، جلوههای ویژهای که از ویژگیهای بینایی انسان بهرهبرداری میکند، برخی را مشاهده میکنید. یک جور زاویه ای من نمی فهمم با رنگ های عجیب و غریب و تصویر کاملاً بی روح.فناوری جدید NVIDIA Ansel مشکل را با اسکرین شات ها حل می کند. بله، اجرای آن مستلزم ادغام کد خاصی از توسعه دهندگان بازی است، اما حداقل دستکاری واقعی وجود دارد، اما سود آن بسیار زیاد است. Ansel می داند که چگونه بازی را متوقف کند، کنترل دوربین را به دستان شما منتقل می کند و سپس فضایی برای خلاقیت دارد. شما فقط می توانید بدون رابط کاربری گرافیکی و زاویه مورد علاقه خود عکس بگیرید.
میتوانید صحنههای موجود را با وضوح فوقالعاده بالا رندر کنید، پانورامای ۳۶۰ درجه بگیرید، آنها را به یک هواپیما بدوزید، یا آنها را بهصورت سه بعدی برای مشاهده در کلاه VR بگذارید. با 16 بیت در هر کانال عکس بگیرید، آن را به عنوان یک نوع فایل RAW ذخیره کنید و سپس با نوردهی، تعادل رنگ سفید و سایر تنظیمات بازی کنید تا اسکرین شات ها دوباره جذاب شوند. ما انتظار داریم تعداد زیادی محتوای جالب از طرفداران بازی در یک یا دو سال آینده ارائه شود.
پردازش صدای ویدیویی
کتابخانه های جدید NVIDIA Gameworks ویژگی های زیادی را در اختیار توسعه دهندگان قرار می دهد. آنها عمدتاً VR و سرعت بخشیدن به محاسبات مختلف و همچنین بهبود کیفیت تصویر را هدف قرار می دهند، اما یکی از ویژگی ها جالب ترین و شایسته ذکر است. VRWorks Audio کار با صدا را به سطحی کاملاً جدید می برد، صدا را نه با فرمول های متوسط معمولی بسته به فاصله و ضخامت مانع شمارش می کند، بلکه یک ردیابی سیگنال صوتی کامل را با تمام بازتاب ها از محیط، طنین و جذب صدا در انواع مختلف انجام می دهد. مواد. NVIDIA یک مثال ویدیویی خوب از نحوه عملکرد این فناوری دارد:با هدفون بهتر تماشا کنید
صرفاً از نظر تئوری، هیچ چیز مانع اجرای چنین شبیهسازی در Maxwell نمیشود، اما بهینهسازیها از نظر اجرای ناهمزمان دستورالعملها و یک سیستم وقفه جدید تعبیهشده در پاسکال به شما این امکان را میدهد که محاسبات را بدون تأثیر زیادی بر نرخ فریم انجام دهید.
در کل پاسکال
در واقع، تغییرات حتی بیشتر است، و بسیاری از آنها به قدری عمیق در معماری هستند که می توان در مورد هر یک از آنها مقاله بزرگی نوشت. نوآوری های کلیدی عبارتند از طراحی بهبود یافته خود تراشه ها، بهینه سازی در پایین ترین سطح از نظر هندسه و عملکرد ناهمزمان با مدیریت کامل وقفه، بسیاری از ویژگی های متناسب با وضوح بالا و VR، و البته فرکانس های دیوانه کننده که نسلهای گذشته کارتهای ویدئویی نمیتوانستند رویاپردازی کنند. دو سال پیش، 780 Ti به سختی از آستانه 1 گیگاهرتز عبور کرد، امروز 1080 در برخی موارد روی دو کار می کند: و در اینجا شایستگی تنها در کاهش فرآیند تولید از 28 نانومتر به 16 یا 14 نانومتر نیست: بسیاری از چیزها در بهینه سازی شده اند. پایین ترین سطح، از طراحی ترانزیستورها شروع می شود، به توپولوژی آنها و تسمه در داخل خود تراشه ختم می شود.برای هر مورد جداگانه
خط کارتهای گرافیک سری 10 NVIDIA واقعاً متعادل است و کاملاً تمام موارد کاربران بازی را پوشش میدهد، از گزینه "بازی استراتژی و دیابلو" تا "من بازیهای برتر را با کیفیت 4k میخواهم". تستهای بازی بر اساس یک تکنیک ساده انتخاب شدند: پوشش دادن طیف وسیعی از تستها تا حد امکان با کوچکترین مجموعه تستهای ممکن. BF1 یک نمونه عالی از بهینه سازی خوب است و به شما امکان می دهد عملکرد DX11 را در مقابل DX12 در شرایط یکسان مقایسه کنید. DOOM فقط برای مقایسه OpenGL و Vulkan به همین دلیل انتخاب شد. سومین "Witcher" در اینجا به عنوان یک اسباببازی بسیار بهینه عمل میکند، که در آن حداکثر تنظیمات گرافیکی اجازه میدهد تا هر پرچمداری به سادگی با استفاده از کدهای مزخرف خراب شود. این دستگاه از DX11 کلاسیک استفاده می کند که با زمان تست شده و در درایورها کاملاً کار شده است و برای توسعه دهندگان بازی آشنا است. Overwatch رپ را برای همه بازی های "تورنمنت" که کدهای بهینه سازی شده ای دارند، می گیرد، در واقع جالب است که میانگین FPS در یک بازی که از نظر گرافیکی خیلی سنگین نیست، چقدر بالا است و برای کار در "تیز شده است. پیکربندی متوسط" در سراسر جهان موجود است.من فوراً نظرات کلی را ارائه خواهم داد: Vulkan از نظر حافظه ویدیویی بسیار حریص است ، زیرا این ویژگی یکی از شاخص های اصلی است و شما این تز را در معیارها مشاهده خواهید کرد. DX12 در کارت های AMD بسیار بهتر از NVIDIA رفتار می کند، اگر "سبز" کاهش متوسط FPS را در API های جدید نشان دهد، برعکس، "قرمز" افزایش نشان می دهد.
بخش نوجوانان
GTX 1050
NVIDIA جوانتر (بدون حروف Ti) به اندازه خواهر شارژ شده خود با حروف Ti جالب نیست. سرنوشت آن یک راه حل بازی برای بازیهای MOBA، استراتژیها، شوترهای مسابقات و سایر بازیها است که جزئیات و کیفیت تصویر برای کسی جالب نیست، و نرخ فریم ثابت با حداقل پول چیزی است که پزشک دستور داده است.در تمام تصاویر فرکانس اصلی وجود ندارد، زیرا برای هر نمونه جداگانه است: 1050 بدون اضافی. ممکن است برق در حال تعقیب نباشد و خواهرش با یک کانکتور 6 پین به راحتی فرکانس 1.9 گیگاهرتز مشروط را می گیرد. از نظر قدرت و طول، محبوب ترین گزینه ها نشان داده شده است، همیشه می توانید یک کارت گرافیک با مدار متفاوت یا خنک کننده دیگری پیدا کنید که در "استانداردهای" مشخص شده قرار نمی گیرد.
DOOM 2016 (1080p، ULTRA): OpenGL - 68 FPS، Vulkan - 55 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 38 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 49 FPS، DX12 - 40 FPS.
Overwatch (1080p، ULTRA): DX11 - 93 FPS؛
GTX 1050 دارای یک پردازنده گرافیکی GP107 است که از کارت قدیمیتر به ارث رسیده است و بلوکهای عملکردی کمی بریده شده است. 2 گیگابایت حافظه ویدیویی به شما اجازه نمی دهد وحشی شوید، اما برای رشته های ورزشی الکترونیکی و بازی کردن نوعی تانک، عالی است، زیرا قیمت یک کارت جوان از 9.5 هزار روبل شروع می شود. نیازی به برق اضافی نیست، کارت گرافیک تنها به 75 وات از مادربرد از طریق اسلات PCI-Express نیاز دارد. درسته، در این بخش قیمت، یک AMD Radeon RX460 نیز وجود دارد که با همان حافظه 2 گیگابایتی ارزان تر است و تقریباً از نظر کیفیت پایین نیست و تقریباً با همان پول می توانید یک RX460 تهیه کنید اما در یک 4 گیگابایت نسخه نه اینکه خیلی به او کمک کردند، بلکه نوعی ذخیره برای آینده بود. انتخاب فروشنده چندان مهم نیست، می توانید آنچه را که در دسترس است بردارید و با هزار روبل اضافی جیب خود را بیرون نکشید، که بهتر است برای حروف گرامی Ti خرج کنید.
GTX 1050 Ti
حدود 10 هزار برای 1050 معمولی بد نیست، اما برای نسخه شارژ شده (یا فول، اسمش را همانطور که می خواهید) کمی بیشتر می خواهند (به طور متوسط 1-1.5 هزار بیشتر)، اما پر شدن آن بسیار جالب تر است. . به هر حال، کل سری 1050 نه از برش / رد تراشه های "بزرگ" که برای 1060 مناسب نیستند، بلکه به عنوان یک محصول کاملاً مستقل تولید می شود. این دارای یک فرآیند تولید کوچکتر (14 نانومتر)، یک کارخانه متفاوت (کریستال ها توسط کارخانه سامسونگ رشد می کنند)، و نمونه های بسیار جالبی با اضافی وجود دارد. منبع تغذیه: پکیج حرارتی و مصرف پایه هنوز همان 75 وات است، اما پتانسیل اورکلاک و توانایی فراتر از حد مجاز کاملاً متفاوت است.اگر به بازی با وضوح FullHD (1920x1080) ادامه میدهید، برنامهای برای ارتقاء ندارید، و بقیه سختافزار شما در 3 تا 5 سال پیش است - راهی عالی برای افزایش عملکرد در اسباببازیها با ضرر کم. باید روی راه حل های ASUS و MSI با منبع تغذیه 6 پین اضافی تمرکز کنید، گزینه های گیگابایت بد نیستند، اما قیمت آنچنان دلگرم کننده نیست.
DOOM 2016 (1080p، ULTRA): OpenGL - 83 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 44 FPS.
Battlefield 1 (1080p، ULTRA): DX11 - 58 FPS، DX12 - 50 FPS.
Overwatch (1080p، ULTRA): DX11 - 104 FPS.
تقسیم بندی میانی
کارتهای ویدئویی خط 60 مدتهاست که بهترین انتخاب برای کسانی تلقی میشوند که نمیخواهند پول زیادی خرج کنند و در عین حال در هر چیزی که در چند سال آینده منتشر میشود با تنظیمات گرافیکی بالا بازی میکنند. از زمان GTX 260 که دو نسخه داشت (ساده تر، 192 پردازنده جریانی و چاق تر، 216 سنگ) شروع شد، در نسل های 400، 500 و 700 ادامه یافت و اکنون NVIDIA دوباره به یک تقریباً عالی سقوط کرد. قیمت و کیفیت ترکیبی دو نسخه «متوسط» دوباره در دسترس هستند: GTX 1060 با 3 و 6 گیگابایت حافظه ویدیویی نه تنها از نظر مقدار RAM موجود، بلکه در عملکرد نیز متفاوت است.GTX 1060 3 گیگابایت
ملکه ورزش های الکترونیکی قیمت مناسب، عملکرد شگفتانگیز برای FullHD (و در ورزشهای الکترونیکی به ندرت از وضوح بالاتر استفاده میکنند: نتایج مهمتر از چیزهای زیبا هستند)، حافظه مناسب (3 گیگابایت، برای یک دقیقه، دو سال پیش در GTX 780 پرچمدار بود. Ti، که هزینه های غیرقابل شرعی دارد). از نظر عملکرد، 1060 جوان تر به راحتی GTX 970 سال گذشته را با حافظه به یاد ماندنی 3.5 گیگابایتی غلبه می کند و به راحتی سال قبل از پرچمدار فوق العاده 780 Ti را در گوش خود می کشد.DOOM 2016 (1080p، ULTRA): OpenGL - 117 FPS، Vulkan - 87 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 70 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 92 FPS، DX12 - 85 FPS.
Overwatch (1080p، ULTRA): DX11 - 93 FPS.
در اینجا نسخه مورد علاقه مطلق از نظر قیمت و اگزوز، نسخه MSI است. فرکانس های خوب، سیستم خنک کننده بی صدا و ابعاد معقول. برای او، آنها اصلاً چیزی در حدود 15 هزار روبل نمی خواهند.
GTX 1060 6 گیگابایت
نسخه 6 گیگابایتی بلیت اقتصادی VR و وضوح بالا است. این کارت حافظه کم نخواهد داشت، در همه آزمایشها کمی سریعتر است و با اطمینان از GTX 980 که در آن کارت ویدیوی سال گذشته 4 گیگابایت حافظه ویدیویی کافی نخواهد داشت، بهتر عمل خواهد کرد.DOOM 2016 (1080p، ULTRA): OpenGL - 117 FPS، Vulkan - 121 FPS؛
The Witcher 3: Wild Hunt (1080p، MAX، HairWorks Off): DX11 - 73 FPS؛
Battlefield 1 (1080p، ULTRA): DX11 - 94 FPS، DX12 - 90 FPS.
Overwatch (1080p، ULTRA): DX11 - 166 FPS.
من می خواهم یک بار دیگر به رفتار کارت های ویدیویی هنگام استفاده از Vulkan API توجه کنم. 1050 با 2 گیگابایت حافظه - کاهش FPS. 1050 Ti با 4 گیگابایت - تقریباً برابر. 1060 3 گیگابایت - کاهش. 1060 6 گیگابایت - رشد نتایج. روند، فکر میکنم واضح است: Vulkan به 4+ گیگابایت حافظه ویدیویی نیاز دارد.
مشکل اینجاست که هر دو 1060 کارت گرافیک کوچک نیستند. به نظر می رسد که بسته حرارتی معقول است و برد آنجا واقعاً کوچک است، اما بسیاری از فروشندگان تصمیم گرفتند به سادگی سیستم خنک کننده را بین 1080، 1070 و 1060 یکسان کنند. شخصی کارت گرافیکی با ارتفاع 2 اسلات، اما طول 28+ سانتی متر دارد. آنها کوتاه تر، اما ضخیم تر (2.5 شکاف). با دقت انتخاب کنید.
متأسفانه، 3 گیگابایت حافظه ویدیویی اضافی و یک واحد محاسباتی قفل نشده، 5-6 هزار روبل بیش از قیمت نسخه 3 گیگ برای شما هزینه خواهد داشت. در این صورت پالیت از نظر قیمت و کیفیت جالب ترین گزینه ها را دارد. ایسوس سیستم های خنک کننده هیولایی 28 سانتی متری را منتشر کرده است که روی 1080 و 1070 و 1060 مجسمه سازی شده اند و چنین کارت گرافیکی در هیچ کجا جا نمی شود، نسخه های بدون اورکلاک کارخانه تقریباً یکسان هستند و اگزوز کمتر است و آنها درخواست می کنند. بیشتر برای MSI نسبتا فشرده نسبت به رقبا در همان سطح کیفیت و اورکلاک کارخانه.
لیگ اصلی
بازی با تمام پول در سال 2016 دشوار است. بله، 1080 فوقالعاده جالب است، اما افراد کمالگرا و سختافزار میدانند که NVIDIA وجود پرچمدار فوقالعاده 1080 Ti را پنهان میکند، که باید فوقالعاده جالب باشد. اولین مشخصات در حال حاضر به صورت آنلاین درز کرده است، و واضح است که سبزها منتظر هستند تا سرخ و سفیدها وارد عمل شوند: نوعی تفنگ بزرگ که می تواند فوراً توسط پادشاه جدید گرافیک سه بعدی، بزرگ، در جای خود قرار گیرد. و قدرتمند GTX 1080 Ti. خوب، در حال حاضر، آنچه را که داریم داریم.GTX 1070
ماجراهای سال گذشته مگا محبوب GTX 970 و حافظه نه چندان صادقانه 4 گیگابایتی آن به طور فعال مرتب شده و در سراسر اینترنت جمع شده است. این مانع از تبدیل شدن او به محبوب ترین کارت گرافیک بازی در جهان نشد. پیش از تغییر سال در تقویم، مقام اول را در نظرسنجی سخت افزار و نرم افزار Steam دارد. این قابل درک است: ترکیب قیمت و عملکرد عالی بود. و اگر ارتقاء سال گذشته را از دست دادید و 1060 به اندازه کافی بد به نظر نمی رسد، GTX 1070 انتخاب شماست.وضوح 2560x1440 و 3840x2160 کارت گرافیک با صدای بلند هضم می شود. سیستم اورکلاک Boost 3.0 سعی می کند با افزایش بار پردازنده گرافیکی هیزم پرتاب کند (یعنی در سخت ترین صحنه ها، زمانی که FPS تحت هجوم جلوه های ویژه کاهش می یابد)، پردازنده کارت گرافیک را به 2100+ اورکلاک می کند. مگاهرتز حافظه به راحتی 15-18 درصد فرکانس موثر بالاتر از مقادیر کارخانه را دریافت می کند. چیز هیولا.
توجه، تمام تست ها در 2.5k (2560x1440) انجام می شود:
DOOM 2016 (1440p، ULTRA): OpenGL - 91 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (1440p، MAX، HairWorks Off): DX11 - 73 FPS؛
Battlefield 1 (1440p، ULTRA): DX11 - 91 FPS، DX12 - 83 FPS.
Overwatch (1440p، ULTRA): DX11 - 142 FPS.
البته، غیرممکن است که تنظیمات فوقالعاده را در 4k انجام دهید و هرگز با این کارت یا 1080 کمتر از 60 فریم در ثانیه کاهش پیدا نکنید، اما میتوانید در تنظیمات «بالا» شرطی بازی کنید، و یا کمی کاهندهترین ویژگیها را به طور کامل خاموش کنید. رزولوشن، و از نظر عملکرد واقعی، کارت گرافیک به راحتی حتی 980 Ti سال گذشته را که تقریبا دو برابر قیمت داشت، شکست می دهد. گیگابایت جالب ترین گزینه را دارد: آنها توانستند یک 1070 کامل را در یک کیس استاندارد ITX قرار دهند. به لطف بسته حرارتی متوسط و طراحی کم مصرف. قیمت کارت ها از 29-30 هزار روبل برای گزینه های خوشمزه شروع می شود.
GTX 1080
بله، پرچمدار حروف Ti را ندارد. بله، از بزرگترین GPU موجود از NVIDIA استفاده نمی کند. بله، در اینجا هیچ حافظه جالب HBM 2 وجود ندارد و کارت گرافیک شبیه یک ستاره مرگ یا در حالت شدید، یک رزمناو امپریال کلاس Star Destroyer نیست. و بله، این جالبترین کارت گرافیک بازی موجود در حال حاضر است. یکی یکی DOOM را با رزولوشن 5k3k با سرعت 60 فریم بر ثانیه در تنظیمات فوق العاده اجرا می کند. همه اسباببازیهای جدید مشمول آن هستند و تا یکی دو سال آینده مشکلی پیش نمیآید: تا زمانی که فناوریهای جدید تعبیهشده در پاسکال فراگیر شوند، تا زمانی که موتورهای بازی یاد بگیرند که چگونه منابع موجود را بهطور مؤثر بارگیری کنند... بله، در چند سال آینده سالها خواهیم گفت: «اینجا، به GTX 1260 نگاه کنید، چند سال پیش برای بازی با این تنظیمات به یک پرچمدار نیاز داشتید»، اما در حال حاضر، بهترین کارتهای گرافیکی قبل از سال جدید با قیمتی بسیار معقول در دسترس هستند. قیمتتوجه، تمام تست ها در 4k (3840x2160) انجام می شود:
DOOM 2016 (2160p، ULTRA): OpenGL - 54 FPS، Vulkan - 78 FPS؛
The Witcher 3: Wild Hunt (2160p، MAX، HairWorks Off): DX11 - 55 FPS.
Battlefield 1 (2160p، ULTRA): DX11 - 65 FPS، DX12 - 59 FPS.
Overwatch (2160p، ULTRA): DX11 - 93 FPS.
تنها تصمیم گیری باقی می ماند: به آن نیاز دارید، یا می توانید پول خود را پس انداز کنید و 1070 بگیرید. تفاوت زیادی بین بازی در تنظیمات "ultra" یا "high" وجود ندارد، زیرا موتورهای مدرن حتی در تنظیمات متوسط به خوبی تصویری را با وضوح بالا ترسیم می کنند. : به هر حال، ما می دانیم که شما کنسول های صابونی نیستید که نمی توانید عملکرد کافی برای 4k صادقانه و 60 فریم بر ثانیه پایدار ارائه دهید.
اگر ارزان ترین گزینه ها را کنار بگذاریم، Palit دوباره بهترین ترکیب قیمت و کیفیت را در نسخه GameRock خواهد داشت (حدود 43-45 هزار روبل): بله، سیستم خنک کننده "ضخیم" است، 2.5 اسلات، اما کارت گرافیک کوتاه تر از رقبا است و یک جفت 1080 به ندرت نصب می شود. SLI به آرامی در حال مرگ است و حتی تزریق حیات بخش پل های پرسرعت نیز کمک چندانی به آن نمی کند. گزینه ASUS ROG بد نیست اگر امکانات اضافی نصب شده باشد. شما نمی خواهید شکاف های اضافی را بپوشانید: کارت گرافیک آنها دقیقاً 2 اسلات ضخامت دارد، اما به 29 سانتی متر فضای خالی از دیوار پشتی تا سبد هارد دیسک نیاز دارد. نمی دانم آیا گیگابایت می تواند این هیولا را با فرمت ITX منتشر کند؟
نتایج
کارتهای ویدئویی جدید NVIDIA بازار سختافزار استفاده شده را به خاک سپردهاند. فقط GTX 970 روی آن زنده می ماند که می توان آن را 10-12 هزار روبل ربود. خریداران بالقوه 7970 و R9 280 کارکرده اغلب جایی برای قرار دادن آن ندارند و به سادگی آن را تغذیه نمی کنند، و بسیاری از گزینه های بازار ثانویه به سادگی امیدبخش نیستند و به عنوان یک ارتقاء ارزان قیمت برای چند سال آینده خوب نیستند: چیز کمی وجود دارد. حافظه، فن آوری های جدید پشتیبانی نمی شوند. زیبایی نسل جدید کارتهای ویدئویی این است که حتی بازیهایی که برای آنها بهینه نشدهاند، بسیار شادتر از نمودارهای قدیمی GPU سالهای گذشته اجرا میشوند، و تصور اینکه در یک سال، زمانی که موتورهای بازی یاد بگیرند که از کامل استفاده کنند چه اتفاقی میافتد، سخت است. قدرت فناوری های جدیدGTX 1050 و 1050Ti
افسوس، من نمی توانم خرید ارزان ترین پاسکال را توصیه کنم. RX 460 معمولاً با هزار یا دو قیمت کمتر فروخته می شود، و اگر بودجه شما آنقدر محدود است که یک کارت گرافیک را «برای آخرین» می گیرید، پس Radeon سرمایه گذاری جالب تری است. از طرفی 1050 کمی سریعتر است و اگر قیمت های شهر شما برای این دو کارت گرافیک تقریباً یکسان است، آن را بگیرید.1050Ti به نوبه خود گزینه ای عالی برای کسانی است که به داستان و گیم پلی بیشتر از زنگ و سوت و موهای واقعی بینی اهمیت می دهند. گلوگاهی در قالب 2 گیگابایت حافظه ویدیویی ندارد، پس از یک سال "پایین" نمی رود. می توانید روی آن پول بگذارید - این کار را انجام دهید. Witcher در تنظیمات بالا، GTA V، DOOM، BF 1 - بدون مشکل. بله، شما باید از تعدادی از پیشرفتها، مانند سایههای بسیار طولانی، ساختار پیچیده یا محاسبه «گران قیمت» مدلهای خودسایهدار با ردیابی پرتوی محدود چشمپوشی کنید، اما در گرماگرم نبرد، این زیباییها را فراموش خواهید کرد. پس از 10 دقیقه بازی، و 50-60 فریم در ثانیه پایدار، جلوه بسیار فراگیرتری نسبت به پرش های عصبی از 25 به 40 می دهد، اما با تنظیمات روی "حداکثر".
اگر کارت گرافیک Radeon 7850، GTX 760 یا جوانتر، با 2 گیگابایت حافظه ویدیویی یا کمتر دارید، میتوانید با خیال راحت آن را تغییر دهید.
GTX 1060
1060 جوانتر، کسانی را که نرخ فریم 100 فریم بر ثانیه برایشان مهمتر از زنگها و سوتهای گرافیکی است، خوشحال میکند. در عین حال به شما این امکان را می دهد که تمامی بازی های منتشر شده را با رزولوشن FullHD با تنظیمات بالا یا حداکثر و 60 فریم بر ثانیه پایدار به راحتی بازی کنید و قیمت آن با هر چیزی که بعد از آن عرضه می شود بسیار متفاوت است. 1060 قدیمی تر با 6 گیگابایت حافظه یک راه حل سازش ناپذیر برای FullHD با حاشیه عملکرد برای یک یا دو سال، آشنایی با واقعیت مجازی و یک کاندید کاملا قابل قبول برای بازی با وضوح بالا در تنظیمات متوسط است.تغییر GTX 970 به GTX 1060 منطقی نیست، یک سال دیگر طول می کشد. اما واحدهای آزاردهنده 960، 770، 780، R9 280X و قدیمیتر را میتوان با خیال راحت به 1060 بهروزرسانی کرد.
بخش برتر: GTX 1070 و 1080
بعید است که 1070 به اندازه GTX 970 محبوب شود (با این وجود، اکثر کاربران یک چرخه به روز رسانی آهنی هر دو سال یک بار دارند)، اما از نظر قیمت و کیفیت، مطمئناً ادامه دهنده خط 70 است. فقط بازیها را با کیفیت 1080p میچرخاند، به راحتی با رزولوشن 2560x1440 کنترل میکند، در برابر سختیهای بهینهنشده 21 تا 9 مقاومت میکند، و کاملاً قادر به نمایش 4k است، البته نه در حداکثر تنظیمات.بله، SLI نیز می تواند چنین باشد.
ما با هر 780 Ti، R9 390X و سایر 980 های سال گذشته خداحافظی می کنیم، به خصوص اگر بخواهیم با وضوح بالا بازی کنیم. و بله، این بهترین گزینه برای کسانی است که دوست دارند جعبه جهنمی را با فرمت Mini-ITX بسازند و مهمانان را با بازی های 4k روی یک تلویزیون 60-70 اینچی که روی رایانه ای به اندازه یک قهوه ساز اجرا می شود بترسانند.
تاریخچه کارت گرافیک gtx 1050 برچسب اضافه کنید
NVIDIA در حال آماده سازی برای عرضه سری جدیدی از کارت های گرافیک بازی است که توسط GeForce GTX 1080 افتتاح می شود. این مدل اولین محصول کلاس بازی مبتنی بر معماری پاسکال خواهد بود. GeForce GTX 1080 تعدادی از نوآوری های تکنولوژیکی را به همراه خواهد داشت که در این مقاله به آنها خواهیم پرداخت. این ماده ماهیت نظری خواهد داشت، ویژگیهای معماری و ویژگیهای جدید GeForce GTX 1080 را مورد بحث قرار میدهد. تست و مقایسه با سایر کارتهای ویدیویی بعداً ظاهر میشود.
پیشرفت سریع در کوچک سازی تراشه های سیلیکونی در سال های اخیر کند شده است. اینتل حتی استراتژی تیک تاک را که شامل انتقال منظم به فناوری فرآیند نازکتر بود، کنار گذاشت. چندین نسل از محصولات NVIDIA و AMD در بازار شتاب دهنده های گرافیکی در چارچوب یک فناوری فرآیند 28 نانومتری تغییر کرده اند. این امر تا حدی سودمند بود و سازندگان را وادار کرد تا توجه بیشتری به توسعه معماری داشته باشند. این انتقال کیفی در زمان تغییر از کپلر به معماری ماکسول به وضوح قابل مشاهده بود، زمانی که معلوم شد نسل جدید بدون افزایش تعداد ترانزیستورها یا حتی کاهش اندازه کریستالها مولدتر و کارآمدتر از انرژی است. به عنوان مثال، GeForce GTX 980 مبتنی بر یک تراشه جمعوجورتر GM204 است که مانع از نمایش عملکرد بالاتر کارت گرافیک در مقایسه با GeForce GTX 780 Ti با تراشه پیچیدهتر GK110 نمیشود.
نسل جدید GeForce هم معماری جدید و هم فناوری فرآیند نازک تری دریافت خواهد کرد. و GeForce GTX 1080 از بسیاری جهات پیشرو است. این اولین پردازنده گرافیکی معماری پاسکال با پردازنده گرافیکی GP104 بر اساس فناوری پردازش 16 نانومتری FinFET است. در میان نوآوری های مهم، NVIDIA به حافظه سریع GDDR5X اشاره می کند. ویژگیهای جدید فنآوری به شما امکان میدهد فرکانسها را تا سطح رکورد بالا ببرید و سطح جدیدی از "تسلط" را تعریف کنید. و فناوری های جدید بازی قابلیت های GeForce را به ویژه در زمینه کار با محتوای VR گسترش می دهد. اینها پنج ویژگی اصلی هستند که سازنده در یک محصول جدید برجسته می کند.
شایان ذکر است که در ابتدا شتاب دهنده محاسباتی تخصصی تسلا P100 پیشگام معماری پاسکال شد. این پردازنده مبتنی بر پردازنده GP100 است. اما از آنجایی که این محصول بر روی یک حوزه کاربردی کاملا متفاوت متمرکز شده است، این GeForce GTX 1080 است که در میان شتاب دهنده های گرافیکی دسکتاپ پیشگام است.
GPU GP104 وارث GM204 است، بنابراین هنگام مطالعه GeForce GTX 1080، می توانید بر روی GeForce GTX 980 بسازید، هرچند که جدیداً سریعتر از GeForce GTX 980 Ti و GeForce GTX Titan X است. پردازنده های پاسکال از ساختار خوشه ای مشابه استفاده می کنند. پیشینیان آنها، جایی که خوشه GPC (خوشه پردازش گرافیکی) اساساً یک واحد محاسباتی مستقل است. GP100 مبتنی بر شش کلاستر است، GP104 دارای چهار کلاستر است و تراشه بعدی GP106 باید دو کلاستر دریافت کند. چهار پردازنده گرافیکی GP104 جدید را تا حد امکان به GM204 نزدیک می کنند. و بلوک دیاگرام این تراشه نیز شبیه یک پردازنده قدیمی است.
تفاوت در ساختار با بررسی دقیق تر آشکار می شود. در نسل گذشته، این خوشه شامل چهار واحد SMM چند پردازنده ای بزرگ بود. در GP104، واحدهای اجرایی پایین تر به پنج واحد چند پردازنده SM گروه بندی می شوند. هر یک از این واحدهای پردازش داده بزرگ با واحد پردازش هندسه Polymorph Engine خود همراه است که اکنون به جای 16 مورد برای GM204، 20 عدد وجود دارد.
یک SM به چهار آرایه پردازش داده با منطق کنترل خود تقسیم می شود و این نیز شبیه ساختار GPU های قدیمی است. و در هر دو مورد، چند پردازنده با 128 هسته جریان (هسته CUDA) کار می کند. SM دارای 96 کیلوبایت حافظه پنهان مشترک، یک کش بافت جداگانه و هشت واحد بافت است. در نتیجه، ما یک پیکربندی از 2560 پردازنده جریان و 160 واحد بافت داریم. پردازنده جدید دارای 64 ROP و 2 مگابایت حافظه نهان L2 است - هیچ تفاوتی با GM204 وجود ندارد.
کنترلرهای حافظه بیشتری وجود دارد، پاسکال کل زیر سیستم حافظه را تغییر داده است. به جای چهار کنترلر 64 بیتی، هشت کنترلر 32 بیتی پیاده سازی شده است که عرض گذرگاه حافظه 256 بیتی را فراهم می کند. پس از GeForce GTX 980 موفق، چنین گذرگاه حافظه در یک محصول برتر دیگر تعجب آور نیست. در عین حال، بازده گذرگاه GeForce GTX 1080 به دلیل الگوریتم های جدید فشرده سازی داده ها بالاتر است. همچنین رشد توان توسط میکرو مدارهای استاندارد جدید GDDR5X که در آن ارزش تبادل داده موثر معادل فرکانس 10 گیگاهرتز است، فراهم می شود. حافظه معمولی GDDR5 به فرکانسهایی تا 7 گیگاهرتز محدود میشد. بافر ویدیو به 8 گیگابایت افزایش یافته است.
به لطف فناوری فرآیند جدید، GP104 فشرده تر از GM204 با واحدهای محاسباتی بیشتر است. در عین حال، پردازنده جدید فرصت های بیشتری برای افزایش فرکانس دارد. در ابتدا، مقدار پایه 1607 مگاهرتز با متوسط ساعت تقویتی 1733 مگاهرتز تنظیم شد. مقادیر اوج فرکانس حتی بالاتر است. با چنین فرکانسهای رکوردی، GeForce GTX 1080 با TDP 180 W قرار میگیرد که کمی بالاتر از GeForce GTX 980 است. اما نسخه جدید سریعتر از نسخه برتر Ti است که TDP بهطور قابلتوجهی بالاتری دارد.
برای مقایسه بصری، اجازه دهید ویژگی های GeForce GTX 1080 و کارت گرافیک های برتر نسل های قبلی را در یک جدول خلاصه کنیم.
آداپتور ویدیو | GeForce GTX 1080 | GeForce GTX Titan X | GeForce GTX 980 Ti | GeForce GTX 980 | GeForce GTX 780 Ti |
---|---|---|---|---|---|
هسته | GP104 | GM200 | GM200 | GM204 | GK110 |
تعداد ترانزیستور، میلیون قطعه | 7200 | 8000 | 8000 | 5200 | 7100 |
فناوری فرآیند، نانومتر | 16 | 28 | 28 | 28 | 28 |
مساحت هسته، مربع میلی متر | 314 | 601 | 601 | 398 | 561 |
تعداد پردازنده های جریانی | 2560 | 3072 | 2816 | 2048 | 2880 |
تعداد بلوک های بافت | 160 | 192 | 176 | 128 | 240 |
تعداد واحدهای رندر | 64 | 96 | 96 | 64 | 48 |
فرکانس هسته، مگاهرتز | 1607-1733 | 1000-1075 | 1000-1075 | 1126-1216 | 875-926 |
اتوبوس حافظه، بیت | 256 | 386 | 386 | 256 | 384 |
نوع حافظه | GDDR5X | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
فرکانس حافظه، مگاهرتز | 10010 | 7010 | 7010 | 7010 | 7010 |
حجم حافظه، مگابایت | 8192 | 12288 | 6144 | 4096 | 3072 |
نسخه پشتیبانی شده DirectX | 12.1 | 12.1 | 12.1 | 12.1 | 12.0 |
رابط | PCI-E3.0 | PCI-E3.0 | PCI-E3.0 | PCI-E3.0 | PCI-E3.0 |
پاور، دبلیو | 180 | 250 | 250 | 165 | 250 |
کارتهای گرافیک میانرده و رده بالا NVIDIA مدتهاست که از فناوری GPU Boost بهره میبردند که فرکانس GPU را تا زمانی که از حد دما یا قدرت فراتر رود، افزایش میدهد. حداقل مقدار برای حالت 3D فرکانس پایه است، اما اغلب تحت بار بازی معمولی، فرکانس ها همیشه بالاتر هستند. GeForce جدید فناوری بهبود یافته GPU Boost 3.0 را با الگوریتم انعطافپذیرتر برای تغییر فرکانس بسته به ولتاژ تغذیه در حالت شتاب فرکانس دریافت کرد. GPU Boost 2.0 تفاوت ثابتی بین مقدار پایه و فرکانس توربو دارد. GPU Boost 3.0 به شما امکان می دهد از جابجایی فرکانس های مختلف استفاده کنید که پتانسیل GPU را بهتر نشان می دهد. از نظر تئوری، هنگامی که پارامترها به طور خودکار در حالت Boost با افزایش یا کاهش ولتاژ تغییر می کنند، فرکانس به صورت غیر خطی تغییر می کند، در برخی نقاط ممکن است دلتای Boost بیشتر از GPU Boost باشد. نسخه قدیمی. گزینه های جدید تنظیم Boost انعطاف پذیر در دسترس کاربران خواهد بود. آخرین نسخه ابزار EVGA Precision قبلاً از GeForce GTX 1080 پشتیبانی می کند، از جمله ویژگی های آن یک اسکنر خودکار با تست پایداری است که می تواند یک منحنی فرکانس Boost غیرخطی برای ولتاژهای مختلف ایجاد کند. انتقال به یک فناوری فرآیند جدید و بهینه سازی ساختار هسته، دستیابی به چنین شتاب فرکانس قابل توجهی را امکان پذیر کرد که حداکثر Boost نسبت به مقادیر اعلام شده را می توان به 2 گیگاهرتز افزایش داد.
از زمان ظهور GDDR5، NVIDIA روی نسل بعدی حافظه های پرسرعت کار می کند. نتیجه تعامل با توسعه دهندگان حافظه ظاهر GDDR5X با سرعت انتقال داده 10 گیگابیت بر ثانیه بود. کار با چنین حافظه سریعی الزامات جدیدی را برای سیم کشی مدارهای الکتریکی ایجاد می کند. بنابراین، خطوط انتقال داده بین GPU و تراشه های حافظه دوباره طراحی شد، ساختار خود تراشه تغییر کرد. همه اینها به شما اجازه می دهد تا به طور موثر با یک بافر ویدیویی فوق سریع کار کنید. از جمله مزایای GDDR5X ولتاژ کاری کمتر 1.35 ولت است.
با فرکانس حافظه موثر 10000 مگاهرتز، افزایش پهنای باند نسبت به 7012 مگاهرتز معمول برای نسل فعلی تقریباً 43 درصد است. اما مزایای پاسکال به همین جا ختم نمی شود. GeForce از الگوریتمهای ویژهای برای فشردهسازی دادهها در حافظه پشتیبانی میکند، که امکان استفاده کارآمدتر از حافظه پنهان و انتقال دادههای بیشتری را برای همان پهنای باند فراهم میکند. چندین تکنیک پشتیبانی می شود، بسته به نوع داده، الگوریتم فشرده سازی متفاوتی انتخاب می شود. نقش مهمی را الگوریتم فشرده سازی رنگ دلتا ایفا می کند. با تشکر از او، نه رنگ هر پیکسل منفرد، بلکه تفاوت بین پیکسل ها در طول انتقال داده سریال کدگذاری می شود. مقداری میانگین رنگ کاشی و داده های افست رنگ برای هر پیکسل از این کاشی محاسبه می شود.
این فشرده سازی مکسول را بسیار بازده می کند، اما پاسکال حتی کارآمدتر است. GP104 GPU علاوه بر این از الگوریتمهای جدید با فشردهسازی بیشتر برای مواردی که تفاوت بین رنگها حداقل است، پشتیبانی میکند.
به عنوان مثال، NVIDIA به دو اسلاید از بازی Project CARS اشاره می کند. کاشیهایی که فشردهسازی دادهها در آنها اعمال شده است، روی آنها به رنگ صورتی رنگ میشوند. اسلاید بالایی کار فشرده سازی را روی ماکسول و اسلاید پایینی روی پاسکال نشان می دهد.
همانطور که می بینید، فشرده سازی پاسکال در مناطقی که در Maxwell انجام نمی شود نیز اعمال می شود. در نتیجه تقریباً کل قاب فشرده شد. البته کارایی چنین الگوریتم هایی به هر صحنه خاص بستگی دارد. به گفته انویدیا، تفاوت در این بازده بین GeForce GTX 1080 و GeForce GTX 980 بین 11 تا 28 درصد است. اگر 20٪ را به عنوان یک مقدار متوسط در نظر بگیریم، با در نظر گرفتن افزایش فرکانس های حافظه، افزایش در نتیجه حدود 70٪ است.
نسل بعدی GeForce از Async Compute با استفاده از محاسبات بهبودیافته پشتیبانی میکند انواع متفاوتوظایف در بازیهای مدرن، پردازندههای گرافیکی میتوانند همزمان با رندر کردن تصاویر، وظایف دیگری را نیز انجام دهند. این می تواند محاسبه فیزیک بدن، پس پردازش تصویر و یک تکنیک ویژه اعوجاج زمان ناهمزمان (Asynchronous Time Warp) برای حالت واقعیت مجازی باشد. هنگام انجام وظایف مختلف، همه واحدهای محاسباتی همیشه درگیر نیستند و اجرای هر کار ممکن است زمان های متفاوتی را ببرد. به عنوان مثال، اگر محاسبات غیر گرافیکی بیشتر از محاسبات گرافیکی طول بکشد، همچنان منتظر می ماند تا هر فرآیند تکمیل شود تا به وظایف جدید سوئیچ کند. در عین حال، بخشی از منابع GPU بیکار است. پاسکال تعادل بار پویا را معرفی کرد. اگر یک کار زودتر تکمیل شده باشد، منابع آزاد شده به اجرای یک کار دیگر متصل می شوند.
بنابراین، می توان با یک بار ترکیبی روی GPU از خرابی جلوگیری کرد و عملکرد کلی را افزایش داد. با چنین باری، سرعت جابجایی بین وظایف نیز نقش مهمی ایفا می کند. پاسکال از وقفه کار در سطوح مختلف برای سریعترین سوئیچینگ ممکن پشتیبانی می کند. هنگامی که یک فرمان جدید دریافت می شود، پردازنده وظایف را در سطوح پردازش پیکسل و رشته قطع می کند و وضعیت آنها را برای تکمیل بیشتر ذخیره می کند و واحدهای محاسباتی برای یک کار جدید تحویل می گیرند. پاسکال از وقفه ها در سطح دستورالعمل پشتیبانی می کند، ماکسول و کپلر فقط در سطح رشته.
وقفه در سطوح مختلف به شما امکان می دهد تا لحظه تعویض کار را با دقت بیشتری تعیین کنید. این برای تکنیک ناهمزمان زمان تاب مهم است، که تصویری را که از قبل تشکیل شده است، قبل از خروجی آن برای تصحیح با توجه به موقعیت سر تغییر شکل می دهد. با زمان ناهمگام، شما نیاز به یک لید سریع دارید تا قبل از نمایش قاب، کاملاً تغییر دهید، در غیر این صورت، مصنوعات به شکل "جوت" تصویر امکان پذیر است. پاسکال به بهترین شکل از عهده این کار بر می آید.
پاسکال پشتیبانی سخت افزاری را برای فناوری چند پروژکتوری معرفی کرد که به شما امکان می دهد به طور همزمان با پیش بینی های مختلف تصویر کار کنید. بلوک ویژهچند پروجکشن همزمان در داخل موتور PolyMorph مسئول تشکیل برجستگی های مختلف در هنگام پردازش یک جریان هندسی است. این بلوک هندسه را به طور همزمان برای 16 پیش بینی با یک یا دو مرکز پرسپکتیو پردازش می کند. این نیازی به پردازش مجدد هندسی ندارد و اجازه می دهد تا داده ها تا 32 بار تکرار شوند (16 پیش بینی در دو نقطه).
به لطف این فناوری، میتوانید تصویر صحیح را در تنظیمات چند مانیتور دریافت کنید. هنگام استفاده از سه مانیتور، تصویر برای یک طرح نمایش داده می شود. اگر مانیتورهای لبه با زاویه کمی چرخانده شوند تا جلوه ای از محیط ایجاد کنند، هندسه نادرست در نواحی جانبی خواهید داشت. پروژکشن چندگانه تصویر درستی را ایجاد می کند و مطابق با زاویه مانیتور، طرح ریزی صحیح را تشکیل می دهد. تنها شرط این حالت این است که خود برنامه از FOV گسترده پشتیبانی کند.
این تکنیک تصویربرداری کارآمدترین استفاده از پانلهای منحنی را امکانپذیر میکند و همچنین فرصتهایی را برای رندر صحیح در سایر دستگاههای نمایشگر، حتی روی صفحهنمایش کروی، باز میکند.
این فناوری قابلیتهای پاسکال را در ایجاد یک تصویر استریو و در سیستمهای واقعیت مجازی (VR) گسترش میدهد. در حالت استریو، دو تصویر از یک صحنه برای هر چشم تولید می شود. پشتیبانی سختافزاری همزمان چند پروژکتوری به شما این امکان را میدهد تا با استفاده از فناوری Single Pass Stereo، هر تصویر را با یک پردازش هندسی برای چشم خود ایجاد کنید. و سرعت کار را در این حالت به میزان قابل توجهی افزایش می دهد.
در سیستم های واقعیت مجازی، کاربر از عینک هایی با لنزهای مخصوص استفاده می کند که اعوجاج های خاصی را ایجاد می کند. برای جبران، تصویر در لبه ها کمی تغییر شکل می دهد و کاربر در نهایت تصویر تصحیح شده توسط لنز را مشاهده می کند. اما در ابتدا، کارت گرافیک تصویر را در طرح معمولی مسطح ترسیم می کند و سپس بخشی از تصویر محیطی ناپدید می شود.
فناوری Lens Matched Shading می تواند یک تصویر را به چهار ربع تقسیم کند و سپس پیکسل ها را نمونه برداری کند. یعنی تصویر در ابتدا بر روی چندین صفحه نمایش داده می شود که شکل منحنی لنز را شبیه سازی می کند.
تصویر نهایی با وضوح کمتر ارائه می شود، مناطق غیر ضروری قطع می شوند. در ابتدا، تصویر Oculus Rift 1.1 مگاپیکسل در هر چشم است، اما طرح ریزی مسطح اصلی با وضوح 2.1 مگاپیکسل ارائه می شود. به لطف Lens Matched Shading، تصویر اولیه 1.4 مگاپیکسلی خواهد بود. این به شما امکان می دهد عملکرد را در حالت VR به میزان قابل توجهی افزایش دهید.
واقعیت مجازی یک جهت امیدوارکننده است که تجربه تعامل با محیط مجازی را گسترش میدهد و احساسات جدیدی را به بازیکنان القا میکند. NVIDIA فعالانه از توسعه VR پشتیبانی می کند. یکی از عوامل محدود کننده برای محبوبیت سیستم های واقعیت مجازی، الزامات عملکرد بالای شتاب دهنده گرافیکی است. فن آوری های خاص و بهینه سازی سخت افزار به افزایش کیفی عملکرد در این جهت کمک می کند. این شرکت مجموعه ای جامع از VRWorks را از APIهای ویژه، کتابخانه ها و موتورهای نرم افزاری منتشر کرده است. این شامل ابزارهایی برای کار با Single Pass Stereo و Lens Matched Shading است. همچنین شامل فناوری MultiRes Shading است که به شما امکان میدهد رزولوشن را در مناطق جانبی در حین رندر VR تغییر دهید تا بار را کاهش دهید.
تأثیر حضور نه تنها با احساسات بصری، بلکه با سایر حواس نیز مرتبط است. صدا نیز نقش مهمی دارد. به همین دلیل NVIDIA فناوری VRWorks Audio را برای بازسازی صدای واقعی بر اساس موقعیت منبع توسعه داد. امواج صوتیو بازتاب از سطوح این فناوری از موتور OptiX استفاده می کند که در ابتدا برای رندر کردن نور با استفاده از روش ردیابی پرتو استفاده می شد. مسیر "پرتوهای" صدا را از منبع به سطوح بازتابنده و عقب ردیابی می کند. این روش پیشرو به شما این امکان را می دهد که با در نظر گرفتن ویژگی های آکوستیک یک اتاق مجازی و با تحمیل صداهای منعکس شده، صدای واقعی را بازسازی کنید. در این ویدیو درباره NVIDIA VRWorks Audio بیشتر بدانید:
با تعامل با محیط مجازی می توانید جلوه غوطه وری را افزایش دهید. اکنون تعامل از طریق ردیابی موقعیتی و ردیابی کنترلرهای دستی اجرا می شود. بر اساس PhysX، مکانیزمی ایجاد شده است که تعیین می کند آیا در طول تماس مجازی با یک یا آن شیء تعاملی وجود خواهد داشت یا خیر. همچنین با PhysX، میتوانید افکتهای قابل اطمینان فیزیکی را هنگام قرار گرفتن در یک محیط مجازی پیادهسازی کنید.
نسل جدید کارت گرافیک ها از VR SLI پشتیبانی می کنند. این حالت فراهم می کند که یک GPU جداگانه تصویر را برای هر چشم در حالت VR پردازش می کند. این روش تاخیر در عملکرد SLI را از بین می برد و عملکرد بهتری را ارائه می دهد. پشتیبانی از VR SLI در Unreal Engine 4 و Unity پیادهسازی میشود که به ما امکان میدهد با افزایش دسترسی به سیستمهای واقعیت مجازی، به محبوبیت بیشتر این فناوری امیدوار باشیم.
فناوری SLI ساده نیز به روز شده است. کارتهای گرافیک قدیمی GeForce همیشه دو کانکتور برای پلهای SLI داشتند. این پل ها برای جابجایی همه کارت های ویدئویی با یکدیگر در حالت های 3-Way و 4-Way SLI مورد نیاز هستند. اکنون در SLI ساده، دو کارت گرافیک می توانند از دو رابط ارتباطی به طور همزمان استفاده کنند و توان عملیاتی کلی را افزایش دهند.
روش سوئیچینگ جدید به پل های دوگانه SLI HB جدید نیاز دارد. پشتیبانی از حالت اشتراکی در صورت اتصال از طریق یک پل ساده حفظ می شود. پل دوگانه برای وضوح بالا - 4K، 5K و سیستم های چند مانیتور توصیه می شود. پل زدن سرعت نیز در 2K با مانیتور 120 هرتز یا سریعتر توصیه می شود. در حالتهای سادهتر، میتوانید با یک پل به سبک قدیمی کنار بیایید.
GeForce GTX 1080 سرعت خود رابط را افزایش داده است - از 400 مگاهرتز به 650 مگاهرتز. می توان آن را با پل های جدید و برخی از نسخه های قالب قدیمی پیاده سازی کرد. افزایش نرخ داده در SLI باعث می شود تغییرات فریم نرم تر و مقداری افزایش عملکرد در حالت های سنگین انجام شود.
قابلیت های رندر چند GPU در DirectX 12 افزایش یافته است. دو نوع اصلی کار با چنین پیکربندیهایی پشتیبانی میشوند: آداپتور چند نمایشگر (MDA) و آداپتور نمایش پیوندی (LDA). اولین مورد به شما امکان می دهد با GPU های مختلف، از جمله ترکیب پتانسیل گرافیک های یکپارچه و خارجی، با یکدیگر کار کنید. LDA برای به اشتراک گذاشتن راه حل های مشابه طراحی شده است. LDA ضمنی اساساً در SLI استفاده می شود که سازگاری گسترده ای با برنامه های کاربردی در سطح نرم افزار فراهم می کند. LDA و MDA صریح گزینه های بیشتری را در اختیار توسعه دهندگان قرار می دهند، اما اطمینان از این حالت در هر برنامه به عهده آنهاست.
همچنین شایان ذکر است که پشتیبانی از SLI به طور رسمی فقط در پیکربندی دو GeForce GTX 1080 اعلام شده است. تنظیمات پیچیده تر از نظر تئوری در حالت های Explicit LDA و MDA امکان پذیر است. جالب اینجاست که در همان زمان، NVIDIA برای علاقه مندان پیشنهاد می کند که حالت های 3-Way و 4-Way را با استفاده از یک کد ویژه باز کند. برای انجام این کار، باید یک درخواست ویژه در وب سایت شرکت برای شناسه GPU خود ارائه دهید.
پشتیبانی از Fast Sync به پردازنده گرافیکی GP104 اضافه شده است. این فناوری جایگزینی برای روشن یا خاموش کردن V-sync است. در بازی های سریع (مخصوصا بازی های چند نفره)، نرخ فریم بالا، حداکثر پاسخگویی به اقدامات کاربر را تضمین می کند. اما اگر از نرخ تازه سازی مانیتور فراتر رود، مصنوعات به شکل شکستن تصویر امکان پذیر است. این همگام سازی عمودی را خنثی می کند، که باعث ایجاد تاخیر در مسیر می شود. Fast Sync به شما امکان می دهد حداکثر تعداد فریم را بدون شکاف های احتمالی نمایش دهید. این توسط تغییرات سخت افزاری در خط لوله خروجی تصویر ارائه می شود. یک بافر سه گانه به جای بافر دوگانه سنتی استفاده می شود و فقط فریم کاملاً رندر شده خروجی می شود.
با Fast Sync، میتوانید روی یک نمایشگر معمولی با سرعت ۱۰۰ تا ۲۰۰ فریم در ثانیه بدون آثار بصری و با کمترین تأخیر، مانند حالت عادی با غیرفعال بودن VSync، بازی کنید. در زیر نتایج بررسی تاخیر در نمایش تصویر در حالت های مختلفدر بازی Counter-Strike: Global Offensive.
همانطور که می بینید، تفاوت کمی بین Fast Sync و VSync غیرفعال وجود دارد، اما نمی توان آن را با تاخیرهای خروجی فریم با VSync فعال مقایسه کرد.
اگر ما در مورد حداکثر پاسخگویی صحبت نمی کنیم، بلکه در مورد حداکثر صافی تصویر صحبت می کنیم، آنگاه توسط فناوری G-Sync ارائه شده است که در ارتباط با مانیتورهای ویژه اجرا می شود. G-Sync همگام سازی سخت افزاری کامل فریم های نمایش داده شده با نرخ تازه سازی صفحه را فراهم می کند.
GeForce GTX 1080 می تواند از طریق DVI، HDMI و DisplayPort خروجی داشته باشد. DisplayPort 1.2 و HDMI 2.0b با HDCP 2.2 پشتیبانی می شود، اما کارت گرافیک نیز DisplayPort 1.3/1.4 آماده است. هنگام استفاده از دومی، 4K در 120 هرتز یا 8K (7680x4320) در 60 هرتز را می توان از طریق دو کابل DisplayPort 1.3 خروجی داد. برای مقایسه، لازم به ذکر است که GeForce GTX 980 تنها زمانی که از طریق دو کابل DisplayPort سوئیچ شود، می تواند خروجی 5120x3200 داشته باشد.
نسخه استاندارد GeForce GTX 1080 به سه درگاه DisplayPort، یک HDMI و یک Dual-Link DVI مجهز شده است.
پردازنده GP104 با پشتیبانی از استاندارد PlayReady 3.0 (SL3000) و رمزگشایی سخت افزاری HEVC با پشتیبانی از ویدیوهای 4K / 8K با کیفیت بالا، بلوک رمزگشایی / رمزگذاری ویدیویی بهبود یافته را دریافت کرد. قابلیت های کامل GeForce GTX 1080 در مقابل GeForce GTX 980 در جدول زیر نشان داده شده است.
در لیست نوآوریها، GeForce GTX 1080 از محتوا و نمایشگرهای HDR پشتیبانی میکند. این استاندارد یک پیشرفت بزرگ در فناوری است که به جای 33 درصد برای RGB در عمق رنگ 10/12 بیت، پوشش فضای رنگی قابل مشاهده 75٪ را فراهم می کند. چنین نمایشگرهایی رنگ های بیشتری را نشان می دهند، روشنایی بالاتر و کنتراست عمیق تری دارند که به شما امکان می دهد تفاوت های ظریف رنگی را مشاهده کنید. در حال حاضر، تلویزیون های مجهز به HDR در حال حاضر عرضه می شوند، انتظار می رود سال آینده مانیتورها عرضه شوند.
علاوه بر رمزگشایی HDR، رمزگذاری سخت افزاری نیز پشتیبانی می شود که به شما امکان ضبط ویدیو از این استاندارد را می دهد. و قابلیت پخش HDR برای کنسول بازی Shield به زودی اضافه خواهد شد.
NVIDIA با توسعه دهندگان کار می کند تا HDR را به بازی های رایانه شخصی بیاورد. در نتیجه Rise of the Tomb Raide، Tom Clancy's The Division، The Talos Principle، Paragon، قسمت دوم Shadow Warrior و سایر بازی ها از HDR پشتیبانی خواهند کرد.
بازی های مدرن در حال تغییر هستند، بازیکنان علاقه مندی های جدید و تمایل به نگاه کردن به بازی مورد علاقه خود را از زاویه ای جدید نشان می دهند. گاهی اوقات یک اسکرین شات معمولی به چیزی بیش از یک فریم ساده از بازی تبدیل می شود. و با NVIDIA Ansel، هر اسکرین شات می تواند خارق العاده باشد. این یک فناوری جدید برای ثبت تصاویر با مجموعه ای از ویژگی های خاص است. Ansel به شما امکان می دهد فیلترها را اعمال کنید، تصویر را بهبود بخشید، از یک دوربین رایگان استفاده کنید و پانوراما ایجاد کنید. پشتیبانی برنامه برای عملکرد کامل مورد نیاز است. برای انجام این کار، Ansel یک ادغام ساده را ارائه می دهد. به عنوان مثال، برای ادغام Ansel در The Witcher 3، توسعه دهندگان تنها 150 خط کد اضافه کردند و بازی منطقی Witness به 40 خط کد نیاز داشت.
Ansel بازی را در حالت مکث قرار می دهد و سپس به شما اجازه می دهد تا عملیات مختلفی را انجام دهید. به عنوان مثال، می توانید دوربین را تغییر دهید و هر زاویه ای را انتخاب کنید. برخی از محدودیت ها تنها در صورتی امکان پذیر است که توسعه دهندگان عمدا حرکت دوربین رایگان را محدود کنند.
شما می توانید وضوح تصویر نهایی را افزایش دهید و سطح LOD را برای دستیابی به حداکثر وضوح در تمام جزئیات افزایش دهید. برای داشتن بهترین اثر، پوستهسازی با ضد آلیاسینگ اضافی ترکیب شده است.
علاوه بر این، Ansel به شما اجازه می دهد تا تصاویر غول پیکر تا 4.5 گیگاپیکسل ایجاد کنید. چنین تصاویری از قطعات جداگانه دوخته می شوند که در سطح سخت افزار انجام می شود. همچنین می توان افکت های مختلفی را روی تصویر نهایی اعمال کرد. تصویر را می توان در فرمت RAW یا EXR با کدگذاری رنگی 16 بیتی ذخیره کرد. این فرصت های زیادی را برای کار بعدی با او فراهم می کند.
میتوانید پانورامای استریو و عکسهای 360 درجه ایجاد کنید، که سپس میتوان آنها را در عینکهای واقعیت مجازی مشاهده کرد.
افکتهای بسیار متنوعی وجود دارد که میتوان روی تصویر گرفته شده اعمال کرد - Grain، Bloom، Sepia، Lens Effects و بسیاری دیگر، تا ایجاد یک تصویر با جلوه چشم ماهی. امکانات گسترده Ansel شگفت انگیز است. بازیکن فرصت هایی را به دست می آورد که قبلاً وجود نداشتند.
پس از مطالعه معماری و فناوری های جدید، باید نگاهی به خود کارت گرافیک GeForce GTX 1080 بیندازیم.نسخه مرجع با طراحی کمی به روز و خطوط واضح تر، شبیه مدل های قبلی به نظر می رسد.
طرف عقب توسط دو صفحه محافظت می شود که شبیه "رزرو" GeForce GTX 980 است.
طراحی کلی خنک کننده بدون تغییر باقی ماند. کولر بر اساس اصل یک توربین کار می کند. یک پایه بزرگ، یک هیت سینک آجدار برای خنک کردن GPU و یک هیت سینک اضافی در نزدیکی گره برق برای خنک کردن بهتر عناصر قدرت وجود دارد.
ما تمام تفاوت های ظریف دیگر را در یک مقاله جداگانه در نظر خواهیم گرفت، جایی که در همان زمان آزمایش مقایسه ای انجام خواهیم داد. اگر در مورد تخمین های اولیه سازنده صحبت کنیم، NVIDIA محصول جدید را با GeForce GTX 980 مقایسه می کند و از مزیت حدود 70 درصدی در بازی های ساده و فاصله بیش از 2.5 برابری در حالت VR صحبت می کند. تفاوت با GeForce GTX 980 Ti کوچکتر خواهد بود، اما می توانیم پس از آزمایش های عملی در مورد برخی از مقادیر خاص صحبت کنیم.
نتیجه گیری
زمان آن رسیده است که آشنایی تئوری خود را با GeForce GTX 1080 جمع بندی کنیم. این کارت گرافیک در حال حاضر پیشرفته ترین محصول از نظر فناوری در میان شتاب دهنده های گرافیکی است. GeForce GTX 1080 دارای پردازنده 16 نانومتری پاسکال و حافظه جدید GDDR5X برای اولین بار است. این معماری خود توسعهای از Maxwell با بهینهسازیها و ویژگیهای جدید برای DirectX 12 است. پیشرفتهای معماری با افزایش قابل توجه فرکانسهای GPU و حافظه به میزان زیادی افزایش مییابد. پیشرفت بسیار چشمگیری در زمینه رندر VR به دلیل فناوری های جدید که سرعت کار در این حالت را افزایش می دهد. یک نوآوری پیشرو پشتیبانی از نمایشگرهای HDR و محتوای مرتبط است. به لطف واحد پردازش ویدیوی جدید، حتی امکان بیشتری برای پخش و ضبط ویدیوهای با کیفیت بالا از جمله کار با فرمت HDR وجود دارد. طرفداران بازی های چند نفره فوق پویا از فناوری Fast Sync قدردانی خواهند کرد. خبره های زیبایی مجازی از امکانات آنسل راضی خواهند بود. با خرید GeForce GTX 1080، نه تنها سریعترین شتابدهنده ویدیو در حال حاضر، بلکه کاربردیترین شتابدهنده را نیز خواهید داشت.
این مدل به طور رسمی پس از 27 می در دسترس مشتریان قرار خواهد گرفت. نسخه های طراحی مرجع Founders Edition ابتدا به فروش می رسد. آنها برچسب قیمت بالاتری خواهند داشت. کمی بعد گزینه های غیر استاندارد منتشر می شوند که هزینه آنها 100 دلار کمتر است. خوب، تا زمانی که GeForce GTX 1080 در بازار داخلی ظاهر شود، ما سعی خواهیم کرد، به عنوان بخشی از یک آزمایش بزرگ، به طور کامل پتانسیل آنها را در مقایسه با کارتهای ویدئویی سطح بالا آشکار کنیم.
نقد و بررسی Nvidia GeForce GTX 1080 Pascal | با GP104 GPU آشنا شوید
در آستانه Computex، Nvidia تصمیم گرفت تا تازگی مورد انتظار خود را ارائه دهد - معماری Pascal که برای گیمرها اقتباس شده است. در کارت های گرافیک جدید GeForce GTX 1080 و 1070، سازنده پردازنده گرافیکی GP104 را نصب می کند. امروز مدل قدیمی تر را بررسی می کنیم و مدل جوانتر باید در اوایل خرداد در دستان ما باشد.
معماری پاسکال سریعتر و بیشتر را نوید می دهد کار کارآمد، ماژول های محاسباتی بیشتر، کاهش سطح قالب و حافظه سریعتر با یک کنترلر ارتقا یافته. این برای بازی های VR، 4K و سایر برنامه های کاربردی بسیار مناسب است.
مانند همیشه، ما سعی خواهیم کرد وعده های سازنده را درک کرده و آنها را در عمل آزمایش کنیم. بیا شروع کنیم.
آیا GeForce GTX 1080 تعادل قدرت را در بخش رده بالا تغییر خواهد داد؟
کارت گرافیک Nvidia GeForce GTX 1080 سریعترین کارت گرافیک در میان دو کارت گرافیک بازی است که در اوایل ماه جاری معرفی شد. هر دو از پردازنده گرافیکی GP104 استفاده می کنند، که به هر حال، قبلاً دومین پردازنده گرافیکی ریزمعماری پاسکال است (اولین GP100 بود که در ماه آوریل در GTC ظاهر شد). رن سان هوان، مدیرعامل انویدیا، هنگام رونمایی از محصول جدید برای عموم علاقه مندان را مسخره کرد و مدعی شد که GeForce GTX 1080 از دو مدل 980 در SLI بهتر عمل می کند.
وی همچنین خاطرنشان کرد که GTX 1080 با عملکرد بیشتر، مصرف انرژی کمتری نسبت به سری 900 دارد. این دو برابر سریعتر و سه برابر کارآمدتر از پرچمدار سابق GeForce Titan X است، اما اگر به نمودارها و نمودارهای همراه نگاه کنید، مشخص می شود که چنین تفاوت چشمگیری در برخی وظایف مربوط به واقعیت مجازی ظاهر می شود. اما حتی اگر این وعدهها فقط تا حدی تایید شوند، هنوز در زمانهای بسیار جالبی از نظر توسعه بازیهای رده بالای رایانههای شخصی هستیم.
واقعیت مجازی به آرامی در حال افزایش است، اما نیازهای سخت افزاری بالا برای زیرسیستم گرافیکی مانع قابل توجهی برای دسترسی به این فناوری ها ایجاد می کند. علاوه بر این، بیشتر بازیهای موجود امروزی نمیدانند چگونه از رندر چند پردازندهای استفاده کنند. یعنی شما معمولاً محدود به قابلیت های یک آداپتور ویدیویی سریع با یک GPU هستید. GTX 1080 قادر به عملکرد بهتر از دو 980 است و نباید با بازی های واقعیت مجازی امروزی دست و پنجه نرم کند و نیازی به تنظیمات چند پردازنده در آینده را از بین ببرد.
اکوسیستم 4K به همان سرعت در حال پیشرفت است. رابطهای پهنای باند بالاتر مانند HDMI 2.0b و DisplayPort 1.3/1.4 باید تا پایان سال جاری در را به روی مانیتورهای 4K با پنلهای 120 هرتز و پشتیبانی از نرخهای تازهسازی پویا باز کنند. در حالی که نسلهای قبلی پردازندههای گرافیکی پیشرفته AMD و Nvidia به عنوان راهحلهایی برای بازیهای 4K قرار داشتند، کاربران مجبور بودند برای حفظ نرخ فریم قابل قبول، کیفیت را به خطر بیندازند. GeForce Nvidia GTX 1080 می تواند اولین کارت گرافیکی باشد که به اندازه کافی سریع است تا نرخ فریم بالایی را در رزولوشن 3840x2160 با حداکثر تنظیمات جزئیات گرافیکی حفظ کند.
وضعیت تنظیمات چند مانیتور چگونه است؟ بسیاری از گیمرها مایل به نصب سه مانیتور با وضوح 1920x1080 هستند، اما به شرطی که سیستم گرافیکی بتواند بار را تحمل کند، زیرا در این حالت کارت باید نیم میلیون پیکسل را رندر کند، زیرا وضوح تصویر 7680x1440 است. حتی علاقه مندانی هستند که مایل به استفاده از سه نمایشگر 4K با وضوح ترکیبی 11520x2160 پیکسل هستند.
گزینه دوم حتی برای یک کارت گرافیک پرچمدار جدید بازی بسیار عجیب و غریب است. با این حال، پردازنده Nvidia GP104 مجهز به فناوری است که نوید بهبود تجربه را برای کارهای معمولی مدل جدید، یعنی 4K و Surround می دهد. اما قبل از اینکه به سراغ فناوریهای جدید برویم، بیایید نگاهی دقیقتر به پردازنده GP104 و معماری پاسکال زیربنایی آن بیندازیم.
GP104 از چه چیزی ساخته شده است؟
از ابتدای سال 2012، AMD و Nvidia از فناوری پردازش 28 نانومتری استفاده کردند. با تغییر به آن، هر دو شرکت جهشی قابل توجه به جلو انجام دادند و کارتهای گرافیک Radeon HD 7970 و GeForce GTX 680 را به ما معرفی کردند. با این حال، در چهار سال آینده، آنها مجبور شدند برای کاهش عملکرد بیشتر از فناوری موجود، طفره بروند. دستاوردهای کارت های گرافیک Radeon R9 Fury X و GeForce GTX 980 Ti با توجه به پیچیدگی آنها واقعاً شگفت انگیز است. اولین تراشه ای که توسط انویدیا بر روی فرآیند 28 نانومتری ساخته شد GK104 بود که از 3.5 میلیارد ترانزیستور تشکیل شده بود. GM200 موجود در GeForce GTX 980 Ti و Titan X در حال حاضر دارای هشت میلیارد ترانزیستور است.
انتقال به فناوری ۱۶ نانومتری TSMC FinFET Plus به مهندسان انویدیا اجازه داد تا ایده های جدیدی را پیاده سازی کنند. طبق اطلاعات فنی، تراشههای 16FF+ 65 درصد سریعتر هستند، میتوانند دو برابر تراکم 28HPM داشته باشند یا 70 درصد انرژی کمتری مصرف کنند. انویدیا هنگام ایجاد پردازندههای گرافیکی خود از ترکیب بهینه این مزایا استفاده میکند. TSMC ادعا می کند که بر اساس مهندسی فرآیند 20 نانومتری موجود بوده است، اما از ترانزیستورهای FinFET به جای ترانزیستورهای تخت استفاده کرده است. این شرکت میگوید که این رویکرد میزان ضایعات را کاهش میدهد و خروجی صفحات کار را افزایش میدهد. همچنین ادعا می شود که این شرکت از فناوری فرآیند 20 نانومتری با ترانزیستورهای سریع برخوردار نبوده است. باز هم، دنیای گرافیک کامپیوتری بیش از چهار سال است که بر روی فناوری فرآیند 28 نانومتری نشسته است.
نمودار بلوک پردازنده GP104
جانشین GM204 متشکل از 7.2 میلیارد ترانزیستور است که در مساحت 314 میلی متر مربع قرار گرفته اند. برای مقایسه، مساحت قالب GM204 398 میلی متر مربع با 5.2 میلیارد ترانزیستور است. در نسخه کامل، یک GPU GP104 دارای چهار خوشه پردازش گرافیکی (GPC) است. هر GPC شامل پنج خوشه پردازش نخ/بافت (TPC) و یک شطرنجگر است. TPC ترکیبی از یک چند پردازنده جریانی (SM) و موتور PolyMorph است. SM 128 هسته CUDA دقیق، 256 کیلوبایت حافظه ثبت، 96 کیلوبایت حافظه مشترک، 48 کیلوبایت حافظه کش L1/بافت و هشت واحد بافت را ترکیب می کند. نسل چهارم موتور PolyMorph شامل یک بلوک منطقی جدید است که در انتهای خط لوله هندسی قبل از بلوک شطرنجی قرار دارد، عملکرد همزمان چند طرح ریزی را کنترل می کند (در ادامه در مورد آن بیشتر توضیح می دهیم). در مجموع، ما 20 اس ام اس، 2560 هسته CUDA و 160 واحد پردازش بافت داریم.
یک چند پردازنده جریانی (SM) در GP104
بکاند GPU شامل هشت کنترلر حافظه 32 بیتی (عرض کانال 256 بیتی)، هشت واحد شطرنجی و 256 کیلوبایت حافظه نهان L2 در هر واحد است. ما در نهایت با 64 ROP و 2 مگابایت حافظه پنهان L2 مشترک مواجه می شویم. اگرچه بلوک دیاگرام پردازنده Nvidia GM204 چهار کنترلر 64 بیتی و 16 ROP را نشان می داد، اما آنها با هم گروه بندی شدند و از نظر عملکردی معادل بودند.
برخی از عناصر ساختاری GP104 شبیه به عناصر GM204 هستند، زیرا GPU جدید از "بلوک های ساختمانی" نسل قبلی خود ساخته شده است. عیبی ندارد. اگر به خاطر داشته باشید، در معماری ماکسول، این شرکت بر بهره وری انرژی تکیه می کرد و بلوک های موجود را تکان نمی داد. نقطه قوتکپلر. تصویر مشابهی را در اینجا می بینیم.
افزودن چهار اس ام اس ممکن است تاثیر قابل توجهی بر عملکرد نداشته باشد. با این حال، GP104 چند ترفند در آستین خود دارد. اولین برگ برنده فرکانس ساعت به طور قابل توجهی بالاتر است. سرعت کلاک پایه پردازنده گرافیکی 1607 مگاهرتز است. مشخصات GM204 برای مقایسه، 1126 مگاهرتز را نشان می دهد. حداکثر فرکانس GPU Boost 1733 مگاهرتز است، اما ما با استفاده از ابزار بتا PrecisionX EVGA، نمونه خود را به 2100 مگاهرتز رساندیم. چنین ذخیره ای برای اورکلاک از کجا می آید؟ به گفته جان آلبین، معاون ارشد مهندسی GPU، تیم او میدانست که فرآیند TSMC 16FF+ بر معماری تراشه تأثیر میگذارد، بنابراین آنها بر روی بهینهسازی زمانبندی تراشه تمرکز کردند تا گلوگاههایی را که از دستیابی به سرعت کلاک بالاتر جلوگیری میکنند، حذف کنند. در نتیجه، سرعت محاسبات تک دقیق GP104 در مقایسه با سقف 4612 GFLOP در GeForce GTX 980 به 8228 GFLOP (در ساعت پایه) رسید. 277، 3 Gtex /s.
پردازنده گرافیکی | GeForce GTX 1080 (GP104) | GeForce GTX 980 (GM204) |
اس ام | 20 | 16 |
تعداد هسته های CUDA | 2560 | 2048 |
فرکانس پایه GPU، مگاهرتز | 1607 | 1126 |
فرکانس GPU در حالت Boost، مگاهرتز | 1733 | 1216 |
سرعت محاسبه، GFLOP (در فرکانس پایه) | 8228 | 4612 |
تعداد واحدهای بافت | 160 | 128 |
سرعت پر کردن تکل، Gtex/s | 277,3 | 155,6 |
سرعت انتقال حافظه، گیگابیت بر ثانیه | 10 | 7 |
پهنای باند حافظه، گیگابایت بر ثانیه | 320 | 224 |
تعداد بلوک های شطرنجی سازی | 64 | 64 |
اندازه حافظه نهان L2، مگابایت | 2 | 2 |
پکیج حرارتی، W | 180 | 165 |
تعداد ترانزیستور | 7.2 میلیارد | 5.2 میلیارد |
مساحت کریستال، mm2 | 314 | 398 میلی متر |
فناوری فرآیند، نانومتر | 16 | 28 |
بخش پشتی همچنان شامل 64 ROP و یک گذرگاه حافظه 256 بیتی است، اما Nvidia حافظه GDDR5X را برای افزایش پهنای باند موجود معرفی کرده است. این شرکت تلاش زیادی برای ارتقای نوع جدید حافظه انجام داده است، به خصوص در زمینه حافظه HBM که در کارت های گرافیکی مختلف AMD و HBM2 که انویدیا در تسلا P100 نصب می کند استفاده می شود. به نظر می رسد در حال حاضر کمبود حافظه HBM2 در بازار وجود دارد و این شرکت آمادگی پذیرش محدودیت های HBM (چهار پشته 1 گیگابایتی یا دشواری اجرای هشت پشته 1 گیگابایتی) را ندارد. بنابراین، ما حافظه ویدیویی GDDR5X را دریافت کردیم، که ظاهراً عرضه آن نیز محدود است، زیرا GeForce GTX 1070 قبلاً از GDDR5 معمولی استفاده می کند. اما این مزیت های راه حل جدید را پوشش نمی دهد. حافظه GDDR5 در GeForce GTX 980 دارای سرعت انتقال داده 7 گیگابیت بر ثانیه بود. این 224 گیگابایت بر ثانیه پهنای باند را از طریق یک گذرگاه 256 بیتی فراهم می کرد. GDDR5X با سرعت 10 گیگابیت بر ثانیه شروع می شود و توان عملیاتی را به 320 گیگابایت بر ثانیه افزایش می دهد (43 درصد افزایش). به گفته انویدیا، این افزایش از طریق یک طرح I/O ارتقا یافته و بدون افزایش مصرف انرژی حاصل می شود.
معماری ماکسول با بهینه سازی کش و الگوریتم های فشرده سازی در استفاده از پهنای باند کارآمدتر شده است و پاسکال نیز همین مسیر را با روش های جدید فشرده سازی بدون تلفات دنبال می کند تا از پهنای باند موجود زیرسیستم حافظه به صورت اقتصادی تر استفاده کند. الگوریتم فشردهسازی رنگ دلتا تلاش میکند به افزایش ۲:۱ دست یابد و این حالت برای استفاده بیشتر بهبود یافته است. حالت جدید 4:1 نیز وجود دارد که در مواردی که تفاوت در هر پیکسل بسیار کم است استفاده می شود. در نهایت، پاسکال یک الگوریتم جدید 8:1 را معرفی می کند که فشرده سازی 4:1 را بر روی بلوک های 2x2 اعمال می کند، که تفاوت بین آنها در الگوریتم 2:1 پردازش می شود.
نشان دادن تفاوت کار دشواری نیست. تصویر اول یک اسکرین شات فشرده نشده از Project CARS را نشان می دهد. تصویر زیر عناصری را نشان می دهد که کارت Maxwell می تواند فشرده کند، آنها به رنگ بنفش سایه زده شده اند. در نما سوم می بینید که پاسکال صحنه را بیشتر فشرده می کند. به گفته انویدیا، این تفاوت به کاهش 20 درصدی در میزان اطلاعات بر حسب بایت تبدیل می شود که برای هر فریم باید از حافظه برداشت شود.
نقد و بررسی Nvidia GeForce GTX 1080 Pascal | طراحی کارت مرجع
Nvidia رویکرد خود را به طراحی کارت تغییر داده است. او به جای "مرجع"، نسخه خود نقشه را Founders Edition (نسخه سازندگان) می نامد. غیرممکن است که متوجه نشوید که ظاهر GeForce GTX 1080 زاویه دارتر شده است، با این حال، در سیستم خنک کننده از همان مکانیسم اثبات شده قدیمی برای خارج کردن هوای گرم از طریق نوار کناری استفاده می شود.
وزن این کارت 1020 گرم و طول 27 سانتی متر است. لمس آن کاملاً خوشایند است، زیرا بدنه کولر نه تنها شبیه فلز است، بلکه در واقع از فلز و به عبارت دقیق تر، آلومینیوم ساخته شده است. قطعات نقره ای مات لاکی هستند و در صورت عدم رسیدگی به کارت به سرعت دچار خراش می شوند.
صفحه پشتی به دو قسمت تقسیم می شود. این فقط به عنوان یک تزئین عمل می کند و عملکرد خنک کننده ای ندارد. بعداً خواهیم فهمید که آیا این تصمیم درست است یا خیر. انویدیا توصیه میکند هنگام استفاده از SLI، این صفحه را بردارید تا جریان هوای بهتری بین کارتهایی که نزدیک به هم نصب شدهاند، حاصل شود.
هیچ چیز جالبی در پایین وجود ندارد، اگرچه ما متوجه شدیم که قسمت هایی از پوشش مشکی می تواند با عناصر مادربرد واقع در زیر آن مانند خنک کننده چیپ ست و درگاه های SATA تماس پیدا کند.
در بالای کارت، یک کانکتور برق هشت پین کمکی را می بینیم. با توجه به مشخصات رسمی کارت گرافیک و همچنین توان 60 واتی که از اسلات مادربرد گرفته می شود، یک کانکتور برای TDP اسمی 180 وات کافی است. به طور طبیعی، ما بررسی خواهیم کرد که این کارت واقعاً چقدر برق مصرف می کند و آیا خطوط برق را بیش از حد بارگذاری می کند.
همچنین دو کانکتور SLI وجود دارد. در کنار کارتهای گرافیک جدید پاسکال، انویدیا پلهای پهنای باند جدیدی را معرفی کرد. بعداً آنها را با جزئیات بیشتری بررسی خواهیم کرد. به طور خلاصه، پیکربندیهای SLI تنها از دو کارت گرافیک تاکنون به طور رسمی پشتیبانی میشوند و هر دو کانکتور برای عملکرد رابط دو کاناله بین GPU استفاده میشوند.
سه کانکتور DisplayPort کامل در پنل I/O موجود است. مشخصات DisplayPort 1.2 را فهرست می کند اما انتظار می رود با DisplayPort 1.3/1.4 سازگار باشد (حداقل کنترل کننده نمایشگر می تواند با استانداردهای جدید کار کند). همچنین خروجی HDMI 2.0 و DVI-D دو لینک وجود دارد. شما نمی توانید به دنبال اتصال دهنده های آنالوگ باشید.
در سمت دیگر کارت، یک شیار بزرگ برای جذب هوا و سه سوراخ پیچ برای تثبیت اضافی کارت در کیس وجود دارد.
طراحی و قدرت کولر
پس از مطالعه دقیق ظاهر، وقت آن است که به مواد مخفی زیر پوشش آلومینیومی نگاه کنید. این کار دشوارتر از آن چیزی بود که در نگاه اول به نظر می رسید. بعد از جداسازی، 51 قسمت روی میز شامل پیچ ها را شمردیم. اگر فن ها را حذف کنید، 12 فن دیگر اضافه می شود.
بالاخره انویدیا به استفاده از محفظه بخار واقعی بازگشت. با چهار پیچ در بالای GPU به برد متصل می شود.
فن سانتریفیوژ باید برای شما آشنا باشد. حذف مستقیم حرارت به معنای گرفتن هوا در یک مکان، عبور دادن آن از پره های رادیاتور و خارج کردن آن از کیس است. روکش خنک کننده، که به عنوان یک قاب نیز عمل می کند، نه تنها کارت را تثبیت می کند، بلکه به خنک شدن مبدل های ولتاژ و ماژول های حافظه نیز کمک می کند.
پس از حذف تمام اجزای خارجی، ما به تخته مدار چاپی. برخلاف راه حل های قبلی، انویدیا از منبع تغذیه شش فاز استفاده می کند. پنج فاز به GPU خدمت می کنند و فاز باقیمانده حافظه GDDR5X را تامین می کند.
روی تابلو می توانید جایی برای فاز دیگر ببینید که خالی است.
پردازنده گرافیکی GP104 مساحتی معادل 314 میلی متر مربع را پوشش می دهد که بسیار کوچکتر از نسل قبلی خود است. در اطراف پردازنده، خطوطی از لایه های دیگر برد قابل مشاهده است. برای دستیابی به فرکانس های کلاک بالا، هادی ها باید تا حد امکان کوتاه باشند. به دلیل الزامات سختگیرانه، شرکای انویدیا احتمالاً به زمان بیشتری برای راه اندازی و اجرای تولید نیاز دارند.
حافظه GDDR5X توسط تراشه های Micron 6HA77 نشان داده می شود. آنها اخیراً به تولید انبوه رسیده اند، زیرا در تصاویری که قبلاً از کارت گرافیک جدید انویدیا فاش شده بود، شاهد تراشه های 6GA77 بودیم.
در مجموع هشت ماژول حافظه از طریق کنترلرهای 32 بیتی به گذرگاه حافظه 256 بیتی متصل می شوند. در فرکانس 1251 مگاهرتز، پهنای باند به 320 گیگابایت در ثانیه می رسد.
ماژول های GDDR5X Micron از یک بسته 170 پین به جای 190 پین GDDR5 استفاده می کنند. علاوه بر این، آنها کمی کوچکتر هستند: 14x10 میلی متر به جای 14x12 میلی متر. یعنی چگالی بالاتری دارند و نیاز به خنک کنندگی بهتری دارند.
با برگرداندن کارت، فضای خالی برای کانکتور برق دوم پیدا کردیم. بنابراین، شرکای انویدیا می توانند یک کانکتور کمکی دوم را برای اضافه کردن برق یا انتقال کانکتور موجود به موقعیت دیگری نصب کنند.
این برد همچنین دارای یک شیار است که به شما امکان می دهد کانکتور برق را 180 درجه بچرخانید.
خازن ها مستقیماً در زیر پردازنده گرافیکی قرار دارند تا نوسانات احتمالی را هموار کنند. همچنین در این سمت برد PWM قرار دارد (قبلاً در قسمت جلو قرار داشت). این راه حل به شرکای انویدیا امکان نصب سایر کنترلرهای PWM را می دهد.
اما به کنترل کننده تنظیم کننده ولتاژ PWM برگردیم. فناوری GPU Boost 3.0 Nvidia مجموعه جدیدی از الزامات تنظیم ولتاژ را دریافت کرده است که منجر به تغییرات قابل توجهی شده است. انتظار داشتیم یک کنترلکننده نوع IR3536A از International Rectifier را با طراحی فاز 5+1 ببینیم، اما Nvidia از µP9511P استفاده کرد. این بهترین خبر برای اورکلاکرها نیست، زیرا کارت از رابط و پروتکل ابزارهایی مانند MSI Afterburner و Gigabyte OC Guru پشتیبانی نمی کند. انتقال به یک کنترلر جدید، که هنوز به خوبی توضیح داده نشده است، به احتمال زیاد به دلیل ویژگی های فنی است.
از آنجایی که کنترلکننده PWM نمیتواند مستقیماً فازهای جداگانه مبدل ولتاژ را هدایت کند، انویدیا از درایورهای قدرتمند ماسفت با تراشههای 53603A برای راهاندازی گیت ماسفتها استفاده میکند. اما در مقایسه با برخی از گزینه های دیگر، طرح مدار مرتب و مرتب به نظر می رسد.
در اینجا انواع مختلفی از ماسفت ها وجود دارد. 4C85N یک ماسفت تبدیل ولتاژ دو کاناله نسبتاً انعطاف پذیر است. هر شش فاز منبع تغذیه را تامین می کند و دارای ذخایر الکتریکی و حرارتی کافی برای تحمل بارهای طراحی مرجع است.
من تعجب می کنم که فناوری GPU Boost 3.0 انویدیا و مدار تنظیم کننده ولتاژ اصلاح شده چگونه بر مصرف انرژی تأثیر می گذارد. ما حتما آن را بررسی خواهیم کرد.
نقد و بررسی Nvidia GeForce GTX 1080 Pascal | فناوری محاسبات چند پروژکتوری و همزمان
موتور چند پروژکتوری همزمان
افزایش تعداد هسته، سرعت کلاک هسته و عملکرد حافظه 10 گیگابیت بر ثانیه GDDR5X هر بازی را که آزمایش کردهایم سرعت میبخشد. با این حال، معماری پاسکال شامل چندین ویژگی است که تنها در بازیهای آینده میتوانیم از آنها قدردانی کنیم.
یکی از ویژگیهای جدید انویدیا موتور چند پروژکتوری همزمان یا موتور چند پروژکتوری نامیده میشود که توسط یک بلوک سختافزاری اضافه شده به موتورهای PolyMorph نشان داده میشود. موتور جدید می تواند تا 16 پیش بینی داده هندسی را از یک دیدگاه ایجاد کند. یا میتواند دیدگاه را برای ایجاد یک تصویر استریوسکوپی با 32 بار تکرار هندسه در سختافزار تغییر دهد، بدون اینکه اگر میخواهید به این افکت بدون SMP دست یابید، ضربه عملکردی را تجربه میکنید.
طرح یک هواپیما
بیایید سعی کنیم مزایای این فناوری را درک کنیم. به عنوان مثال، ما سه مانیتور در یک پیکربندی Surround داریم. آنها کمی به سمت داخل چرخانده می شوند تا کاربر را "پیچیدن" کنند، بنابراین بازی و کار راحت تر است. اما بازی ها از این موضوع اطلاعی ندارند و تصویر را در یک صفحه نمایش می دهند، بنابراین به نظر می رسد که در محل اتصال فریم های مانیتور منحنی است و به طور کلی تصویر مخدوش به نظر می رسد. برای چنین پیکربندی، درست تر است که یک طرح را مستقیماً به جلو، تصویر دوم را به سمت چپ، مانند کابین خلبان پانوراما یک هواپیما، و طرح سوم را به سمت راست ارائه دهیم. به این ترتیب، پانورامای منحنی قبلی نرمتر به نظر میرسد و کاربر زاویه دید بسیار وسیعتری خواهد داشت. کل صحنه هنوز باید شطرنجی و رنگ آمیزی شود، اما GPU مجبور نیست صحنه را سه بار رندر کند، که سربار را حذف می کند.
پرسپکتیو نادرست در نمایشگرهای زاویه دار
دیدگاه تصحیح شده SMP
با این حال، برنامه باید از تنظیمات زاویه دید گسترده پشتیبانی کند و از تماس های SMP API استفاده کند. این بدان معناست که قبل از اینکه بتوانید از این ویژگی استفاده کنید، توسعه دهندگان بازی باید به آن تسلط داشته باشند. ما مطمئن نیستیم که آنها مایلند برای تعداد انگشت شماری از کاربران Surround چند مانیتور چقدر تلاش کنند. اما اپلیکیشن های دیگری نیز وجود دارند که پیاده سازی این قابلیت در اسرع وقت برای آنها منطقی است.
با استفاده از رندر استریو تک گذر، SMP برای هر چشم یک طرح ایجاد می کند
بیایید واقعیت مجازی را به عنوان مثال در نظر بگیریم. این در حال حاضر نیاز به یک طرح ریزی فردی برای هر چشم دارد. بازیهای امروزی به سادگی تصاویر را در دو صفحه نمایش جداگانه با تمام معایب و کاهش کارایی مرتبط ارائه میکنند. اما از آنجایی که SMP از دو مرکز نمایش پشتیبانی میکند، میتوان صحنه را با استفاده از ویژگی Single Pass Stereo انویدیا در یک پاس رندر کرد. هندسه یک بار پردازش می شود و SMP طرح خود را برای چشم چپ و راست ایجاد می کند. علاوه بر این، SMP میتواند پیشبینیهای اضافی را برای ویژگیای به نام Lens Matched Shading اعمال کند.
تصاویر پس از اولین پاس با ویژگی های Lens Matched Shading
صحنه پایانی که به هدست ارسال می شود
به طور خلاصه، Lens Matched Shading تلاش میکند تا رندر VR را با پرهیز از کار سنگینی که رندر طرحریزی مسطح سنتی انجام میدهد تا هندسه را برای تطبیق با اعوجاج لنزهای هدست انجام دهد کارآمدتر کند (بنابراین پیکسلها در جایی که وجود دارد تلف میشوند. بیشترین انحنا). این اثر را می توان با استفاده از SMP برای تقسیم منطقه به ربع نزدیک کرد. بنابراین به جای رندر و کار با یک طرح ریزی مربعی، GPU تصاویری را ایجاد می کند که با فیلتر اعوجاج لنز مطابقت دارند. این روش از تولید پیکسل های اضافی جلوگیری می کند. تا زمانی که توسعه دهندگان میزان نمونه برداری چشمی در HMD را داشته باشند یا از آن فراتر بروند، تفاوتی در کیفیت مشاهده نخواهید کرد.
به گفته انویدیا، ترکیب Single Pass Stereo و Lens Matched Shading می تواند تا 2 برابر عملکرد VR را در مقایسه با GPU های غیر SMP ارائه دهد. بخشی از آن به رندر پیکسلی مربوط می شود. با استفاده از Lens Matched Shading برای جلوگیری از پردازش پیکسلهایی که نباید رندر شوند، نرخ رندر در صحنهای با تنظیمات پیشتنظیم متعادل انویدیا از 4.2 مگاپیکسل در ثانیه (Oculus Rift) به 2.8 مگاپیکسل در ثانیه کاهش یافت، بنابراین بار سایهزن در GPU یک کاهش یافت و نیم بار فناوری Single Pass Stereo که هندسه را فقط یک بار رندر می کند (به جای رندر مجدد برای چشم دوم) به طور موثر نیمی از پردازش هندسی را که امروز باید انجام شود حذف می کند. اکنون مشخص است که رن سان وقتی ادعا می کند "افزایش دو برابری در عملکرد و افزایش سه برابری کارایی در مقایسه با تیتان ایکس" چه بوده است.
محاسبات ناهمزمان
معماری پاسکال همچنین شامل تغییراتی در مورد محاسبات ناهمزمان است که به دلایلی به مزیت معماری DirectX 12، VR و AMD مربوط می شود.
انویدیا از زمان معماری Maxwell از به اشتراک گذاری منابع GPU ایستا برای گرافیک و بارهای کاری محاسباتی پشتیبانی کرده است. در تئوری، این رویکرد زمانی خوب است که هر دو بلوک به طور همزمان فعال باشند. اما بیایید بگوییم که 75 درصد از منابع پردازنده به گرافیک اختصاص داده شده است و بخشی از وظیفه خود را سریعتر انجام می دهد. سپس این بلوک بیکار خواهد بود و منتظر می ماند تا بلوک محاسباتی بخشی از کار خود را کامل کند. بنابراین، تمام مزایای ممکن اجرای همزمان این وظایف از بین می رود. پاسکال این نقص را با تعادل بار پویا برطرف می کند. اگر درایور تصمیم بگیرد که یکی از پارتیشنها کمتر استفاده میشود، میتواند منابع خود را برای کمک به دیگری تغییر دهد و از بیکاری که بر عملکرد تأثیر منفی میگذارد جلوگیری کند.
انویدیا همچنین قابلیت های وقفه پاسکال را بهبود بخشید، یعنی توانایی متوقف کردن کار فعلی را به منظور حل یک "فوری" تر با زمان اجرای بسیار کوتاه. همانطور که میدانید، GPUها ماشینهای موازی بسیار با بافرهای بزرگ هستند که برای مشغول نگه داشتن منابع مشابه در کنار یکدیگر طراحی شدهاند. سایه زن بیکار بی فایده است، بنابراین باید به هر طریقی در جریان کار قرار گیرد.
بهتر است VR درخواستهای وقفه را تا حد امکان دیر ارسال کند تا آخرین دادههای ردیابی را بگیرد
یک مثال عالی ویژگی Asynchronous Time Warp (ATW) است که Oculus با Rift معرفی کرد. در مواردی که کارت گرافیک نتواند هر 11 میلی ثانیه یک فریم جدید روی یک صفحه نمایش 90 هرتزی تولید کند، ATW یک فریم میانی را با استفاده از آخرین فریم با تنظیم موقعیت سر ایجاد می کند. اما باید زمان کافی برای ایجاد چنین فریمی وجود داشته باشد و متاسفانه وقفه گرافیکی چندان دقیق نیست. در واقع، معماریهای فرمی، کپلر و ماکسول از وقفه در سطح ترسیم پشتیبانی میکنند، به این معنی که فریمها را میتوان در یک فراخوانی تغییر داد و به طور بالقوه مانع از تکنیک ATW میشود.
پاسکال یک وقفه در سطح پیکسل را برای گرافیک پیادهسازی میکند، بنابراین GP104 میتواند عملیات فعلی در سطح پیکسل را متوقف کند، وضعیت آن را ذخیره کند و به یک زمینه دیگر تغییر مکان دهد. به جای وقفه میلیثانیهای که Oculus در مورد آن نوشت، Nvidia ادعا میکند کمتر از 100 میکروثانیه است.
در معماری ماکسول، معادل یک وقفه در سطح پیکسل در یک واحد محاسباتی از طریق یک وقفه در سطح رشته اجرا شد. پاسکال همچنین این تکنیک را حفظ کرد، اما از وقفههای سطح دستورالعمل در وظایف محاسباتی CUDA پشتیبانی کرد. در حال حاضر درایورهای انویدیا این ویژگی را ندارند، اما به زودی همراه با وقفه در سطح پیکسل در دسترس خواهد بود.
نقد و بررسی Nvidia GeForce GTX 1080 Pascal | خط لوله خروجی، SLI و GPU Boost 3.0
کانال نمایش پاسکال: HDR-Ready
سال گذشته، ما با AMD در Sonoma، کالیفرنیا ملاقات کردیم، جایی که آنها برخی از جزئیات معماری جدید Polaris خود را به اشتراک گذاشتند، مانند خط لوله تصویری که از محتوای محدوده دینامیکی بالا و نمایشگرهای مرتبط پشتیبانی می کند.
جای تعجب نیست که معماری پاسکال انویدیا مملو از ویژگی هایی مانند این است که برخی از آنها حتی در ماکسول نیز موجود بودند. برای مثال، کنترلکننده نمایشگر در GP104 از رنگهای 12 بیتی، طیف رنگی گسترده BT.2020، انتقال الکترواپتیکال SMPTE 2084 و HDMI 2.0b با HDCP 2.2 پشتیبانی میکند.
به این لیست، پاسکال رمزگشایی HEVC 4K60p با رنگ 10/12 بیتی را از طریق یک بلوک سختافزاری اختصاصی اضافه میکند که ادعا میکند از استاندارد HEVC نسخه 2 پشتیبانی میکند. پیش از این، انویدیا از یک رویکرد ترکیبی با استفاده از منابع نرمافزاری استفاده میکرد. علاوه بر این، رمزگذاری به هشت بیت اطلاعات رنگ در هر پیکسل محدود شد. اما ما معتقدیم که برای پشتیبانی از مشخصات بحث برانگیز، Microsoft PlayReady 3.0 به راه حل سریعتر و کارآمدتری نیاز دارد.
این معماری همچنین از رمزگذاری HEVC با رنگ 10 بیتی در 4K60p برای ضبط یا پخش جریانی در HDR پشتیبانی می کند، انویدیا حتی یک برنامه اختصاصی برای آن دارد. با استفاده از رمزگذاری پردازنده GP104 و نرم افزار GameStream HDR که به زودی منتشر می شود، می توانید بازی های با دامنه دینامیکی بالا را در دستگاه های Shield متصل به تلویزیون سازگار با HDR پخش کنید. Shield به رمزگشای HEVC خود با پشتیبانی از رنگ 10 بیتی در هر پیکسل مجهز شده است که خط لوله خروجی تصویر را بارگذاری می کند.
GeForce GTX 1080 | GeForce GTX 980 | |
رمزگذاری H.264 | بله (2x 4K60p) | آره |
رمزگذاری HEVC | بله (2x 4K60p) | آره |
رمزگذاری HEVC 10 بیتی | آره | نه |
رمزگشایی H.264 | بله (4K120p تا 240Mbps) | آره |
رمزگشایی HEVC | بله (4K120p/8K30p تا 320 مگابیت بر ثانیه) | نه |
رمزگشایی VP9 | بله (4K120p تا 320Mbps) | نه |
رمزگشایی HEVC 10/12 بیتی | آره | نه |
علاوه بر پشتیبانی از HDMI 2.0b، GeForce GTX 1080 دارای گواهی DisplayPort 1.2 و سازگار با DP 1.3/1.4 است. از این نظر، در حال حاضر از Polaris که هنوز منتشر نشده است، پیشی گرفته است، که کنترل کننده نمایشگر آن تاکنون تنها از DP 1.3 پشتیبانی می کند. خوشبختانه برای AMD، مشخصات نسخه 1.4 شامل حالت انتقال سریعتر نمی شود و سقف هنوز 32.4 گیگابیت بر ثانیه توسط حالت HBR3 تنظیم شده است.
همانطور که قبلا ذکر شد، GeForce GTX 1080 Founders Edition مجهز به سه خروجی Display Port، یک کانکتور HDMI 2.0b و یک خروجی دیجیتال دوگانه DVI است. مانند GTX 980، این محصول جدید قادر است تصویری را روی چهار نمایشگر مستقل به طور همزمان نمایش دهد. اما در مقایسه با رزولوشن 5120x3200 از طریق دو کابل DP 1.2، حداکثر وضوح GTX 1080 برابر با 7680x4320 پیکسل با نرخ تجدید 60 هرتز است.
SLI اکنون تنها به طور رسمی از دو پردازنده گرافیکی پشتیبانی می کند
به طور سنتی، کارتهای گرافیک پیشرفته Nvidia مجهز به دو کانکتور برای اتصال دو، سه یا حتی چهار شتابدهنده در یک بسته SLI هستند. به عنوان یک قاعده، بهترین مقیاسبندی در پیکربندیهای GPU دوگانه به دست میآید. علاوه بر این، هزینه ها اغلب خود را توجیه نمی کنند، زیرا دام های زیادی ظاهر می شوند. با این حال، برخی از علاقه مندان هنوز از سه و چهار آداپتور گرافیکی برای دنبال کردن هر فریم اضافی و فرصتی برای خودنمایی به دوستان استفاده می کنند.
اما وضعیت تغییر کرده است. به گفته انویدیا، به دلیل مشکلات مقیاسبندی عملکرد در بازیهای جدید، بدون شک مربوط به DirectX 12، GeForce GTX 1080 تنها بهطور رسمی از پیکربندیهای SLI دو GPU پشتیبانی میکند. پس چرا کارت به دو کانکتور نیاز دارد؟ به لطف پل های SLI جدید، می توان از هر دو کانکتور به طور همزمان برای انتقال داده در حالت دو کاناله استفاده کرد. علاوه بر حالت دو کاناله، این رابط همچنین دارای فرکانس I/O افزایش یافته از 400 مگاهرتز به 650 مگاهرتز است. در نتیجه، توان عملیاتی بین پردازنده ها بیش از دو برابر می شود.
زمان رندر فریم در Middle Earth: Shadow of Mordor با پل جدید (خط آبی روی نمودار) و قدیمی (سیاه) SLI
با این حال، بسیاری از گیمرها مزایای یک کانال سریعتر را تجربه نخواهند کرد. اول از همه، با وضوح بالا و نرخ تازه سازی مرتبط خواهد بود. انویدیا یک عکس FCAT از دو GeForce 1080 GTX نشان داده است که Middle Earth: Shadow of Mordor را روی سه نمایشگر 4K اجرا می کنند. اتصال دو کارت با یک پل قدیمی منجر به پرشهای ثابت زمان فریم میشود که منجر به مشکلات زمانبندی قابل پیشبینی میشود که به صورت لکنت ظاهر میشود. با پل جدید تعداد پرش ها کمتر شده و کمتر دیده می شود.
به گفته انویدیا، نه تنها پل های SLI HB از حالت دو کاناله پشتیبانی می کنند. پل های LED از قبل آشنا نیز می توانند داده ها را با فرکانس 650 مگاهرتز هنگام اتصال به کارت پاسکال انتقال دهند. اگر می خواهید با کیفیت 4K یا بالاتر کار کنید بهتر است از پل های انعطاف پذیر یا معمولی خودداری کنید. اطلاعات دقیقدر مورد سازگاری را می توان در جدول ارائه شده توسط Nvidia یافت:
1920x1080@60Hz | 2560x1440 @ 120Hz+ | 2560x1440 | 4K | 5K | احاطه | |
پل استاندارد | ایکس | ایکس | ||||
پل ال ای دی | ایکس | ایکس | ایکس | ایکس | ||
پل با سرعت داده بالا (HB) | ایکس | ایکس | ایکس | ایکس | ایکس | ایکس |
چه چیزی باعث رد تنظیمات سه و چهار تراشه شد؟ از این گذشته، این شرکت همیشه در تلاش است تا فروش بیشتری داشته باشد و به بهره وری بالاتری دست یابد. بدبینانه است که بگوییم انویدیا نمیخواهد هنگام پیوند دو یا چهار کارت در SLI مسئولیت از دست دادن مزیت را بپذیرد، در حالی که بازار مدرن بازیهای ویدیویی از رویکردهای پیچیده و ظریفتر برای رندر استفاده میکند. اما این شرکت اصرار دارد که به نفع مشتریان است زیرا مایکروسافت کنترل بیشتری بر پیکربندیهای چند پردازندهای به توسعهدهندگان بازی میدهد، آنها نیز به نوبه خود در حال بررسی فناوریهای جدید مانند رندر تک فریم به جای رندر فریم به فریم فعلی هستند. (AFR).
علاقه مندانی که فقط به رکوردهای سرعت اهمیت می دهند و علاقه ای به فاکتورهای شرح داده شده در بالا ندارند، همچنان می توانند با استفاده از نرم افزار قدیمی سه یا چهار GTX 1080 را در SLI پیوند دهند. آنها باید با استفاده از برنامه ای از Nvidia که می تواند یک کلید "باز کردن قفل" درخواست کند، یک امضای "سخت افزاری" منحصر به فرد تولید کنند. به طور طبیعی، پل های HB SLI جدید با بیش از دو پردازنده گرافیکی کار نمی کنند، بنابراین باید خود را به پل های LED قدیمی محدود کنید تا کار سه/چهار GP104 را در 650 مگاهرتز ترکیب کنید.
مختصری در مورد GPU Boost 3.0
انویدیا در تلاش برای به دست آوردن عملکرد بیشتر از پردازندههای گرافیکی خود، دوباره فناوری GPU Boost خود را بهبود بخشیده است.
در نسل قبلی (GPU Boost 2.0)، سرعت ساعت با جابجایی مقدار مشخصی از خط شیب دار وابستگی ولتاژ / فرکانس تنظیم می شد. فضای سر بالقوه بالای این خط معمولاً بدون استفاده رها می شد.
GPU Boost 3.0 - تنظیم افزایش فرکانس در هر مرحله افزایش ولتاژ
اکنون GPU Boost 3.0 به شما امکان می دهد افزایش فرکانس را برای مقادیر جداگانه ولتاژ تنظیم کنید، که فقط توسط دما محدود می شود. علاوه بر این، شما نیازی به آزمایش و بررسی پایداری نقشه در کل محدوده مقادیر روی منحنی ندارید. انویدیا یک الگوریتم داخلی برای خودکارسازی این فرآیند دارد و یک منحنی ولتاژ/فرکانس منحصر به فرد برای GPU شما ایجاد می کند.
نقد و بررسی Nvidia GeForce GTX 1080 Pascal | با GP104 GPU آشنا شوید
در آستانه Computex، Nvidia تصمیم گرفت تا تازگی مورد انتظار خود را ارائه دهد - معماری Pascal که برای گیمرها اقتباس شده است. در کارت های گرافیک جدید GeForce GTX 1080 و 1070، سازنده پردازنده گرافیکی GP104 را نصب می کند. امروز مدل قدیمی تر را بررسی می کنیم و مدل جوانتر باید در اوایل خرداد در دستان ما باشد.
معماری پاسکال نوید عملکرد سریعتر و کارآمدتر، ماژولهای محاسباتی بیشتر، کاهش سطح قالب و حافظه سریعتر با یک کنترلکننده ارتقا یافته را میدهد. این برای بازی های VR، 4K و سایر برنامه های کاربردی بسیار مناسب است.
مانند همیشه، ما سعی خواهیم کرد وعده های سازنده را درک کرده و آنها را در عمل آزمایش کنیم. بیا شروع کنیم.
آیا GeForce GTX 1080 تعادل قدرت را در بخش رده بالا تغییر خواهد داد؟
کارت گرافیک Nvidia GeForce GTX 1080 سریعترین کارت گرافیک در میان دو کارت گرافیک بازی است که در اوایل ماه جاری معرفی شد. هر دو از پردازنده گرافیکی GP104 استفاده می کنند، که به هر حال، قبلاً دومین پردازنده گرافیکی ریزمعماری پاسکال است (اولین GP100 بود که در ماه آوریل در GTC ظاهر شد). رن سان هوان، مدیرعامل انویدیا، هنگام رونمایی از محصول جدید برای عموم علاقه مندان را مسخره کرد و مدعی شد که GeForce GTX 1080 از دو مدل 980 در SLI بهتر عمل می کند.
وی همچنین خاطرنشان کرد که GTX 1080 با عملکرد بیشتر، مصرف انرژی کمتری نسبت به سری 900 دارد. این دو برابر سریعتر و سه برابر کارآمدتر از پرچمدار سابق GeForce Titan X است، اما اگر به نمودارها و نمودارهای همراه نگاه کنید، مشخص می شود که چنین تفاوت چشمگیری در برخی وظایف مربوط به واقعیت مجازی ظاهر می شود. اما حتی اگر این وعدهها فقط تا حدی تایید شوند، هنوز در زمانهای بسیار جالبی از نظر توسعه بازیهای رده بالای رایانههای شخصی هستیم.
واقعیت مجازی به آرامی در حال افزایش است، اما نیازهای سخت افزاری بالا برای زیرسیستم گرافیکی مانع قابل توجهی برای دسترسی به این فناوری ها ایجاد می کند. علاوه بر این، بیشتر بازیهای موجود امروزی نمیدانند چگونه از رندر چند پردازندهای استفاده کنند. یعنی شما معمولاً محدود به قابلیت های یک آداپتور ویدیویی سریع با یک GPU هستید. GTX 1080 قادر به عملکرد بهتر از دو 980 است و نباید با بازی های واقعیت مجازی امروزی دست و پنجه نرم کند و نیازی به تنظیمات چند پردازنده در آینده را از بین ببرد.
اکوسیستم 4K به همان سرعت در حال پیشرفت است. رابطهای پهنای باند بالاتر مانند HDMI 2.0b و DisplayPort 1.3/1.4 باید تا پایان سال جاری در را به روی مانیتورهای 4K با پنلهای 120 هرتز و پشتیبانی از نرخهای تازهسازی پویا باز کنند. در حالی که نسلهای قبلی پردازندههای گرافیکی پیشرفته AMD و Nvidia به عنوان راهحلهایی برای بازیهای 4K قرار داشتند، کاربران مجبور بودند برای حفظ نرخ فریم قابل قبول، کیفیت را به خطر بیندازند. GeForce Nvidia GTX 1080 می تواند اولین کارت گرافیکی باشد که به اندازه کافی سریع است تا نرخ فریم بالایی را در رزولوشن 3840x2160 با حداکثر تنظیمات جزئیات گرافیکی حفظ کند.
وضعیت تنظیمات چند مانیتور چگونه است؟ بسیاری از گیمرها مایل به نصب سه مانیتور با وضوح 1920x1080 هستند، اما به شرطی که سیستم گرافیکی بتواند بار را تحمل کند، زیرا در این حالت کارت باید نیم میلیون پیکسل را رندر کند، زیرا وضوح تصویر 7680x1440 است. حتی علاقه مندانی هستند که مایل به استفاده از سه نمایشگر 4K با وضوح ترکیبی 11520x2160 پیکسل هستند.
گزینه دوم حتی برای یک کارت گرافیک پرچمدار جدید بازی بسیار عجیب و غریب است. با این حال، پردازنده Nvidia GP104 مجهز به فناوری است که نوید بهبود تجربه را برای کارهای معمولی مدل جدید، یعنی 4K و Surround می دهد. اما قبل از اینکه به سراغ فناوریهای جدید برویم، بیایید نگاهی دقیقتر به پردازنده GP104 و معماری پاسکال زیربنایی آن بیندازیم.
GP104 از چه چیزی ساخته شده است؟
از ابتدای سال 2012، AMD و Nvidia از فناوری پردازش 28 نانومتری استفاده کردند. با تغییر به آن، هر دو شرکت جهشی قابل توجه به جلو انجام دادند و کارتهای گرافیک Radeon HD 7970 و GeForce GTX 680 را به ما معرفی کردند. با این حال، در چهار سال آینده، آنها مجبور شدند برای کاهش عملکرد بیشتر از فناوری موجود، طفره بروند. دستاوردهای کارت های گرافیک Radeon R9 Fury X و GeForce GTX 980 Ti با توجه به پیچیدگی آنها واقعاً شگفت انگیز است. اولین تراشه ای که توسط انویدیا بر روی فرآیند 28 نانومتری ساخته شد GK104 بود که از 3.5 میلیارد ترانزیستور تشکیل شده بود. GM200 موجود در GeForce GTX 980 Ti و Titan X در حال حاضر دارای هشت میلیارد ترانزیستور است.
انتقال به فناوری ۱۶ نانومتری TSMC FinFET Plus به مهندسان انویدیا اجازه داد تا ایده های جدیدی را پیاده سازی کنند. طبق اطلاعات فنی، تراشههای 16FF+ 65 درصد سریعتر هستند، میتوانند دو برابر تراکم 28HPM داشته باشند یا 70 درصد انرژی کمتری مصرف کنند. انویدیا هنگام ایجاد پردازندههای گرافیکی خود از ترکیب بهینه این مزایا استفاده میکند. TSMC ادعا می کند که بر اساس مهندسی فرآیند 20 نانومتری موجود بوده است، اما از ترانزیستورهای FinFET به جای ترانزیستورهای تخت استفاده کرده است. این شرکت میگوید که این رویکرد میزان ضایعات را کاهش میدهد و خروجی صفحات کار را افزایش میدهد. همچنین ادعا می شود که این شرکت از فناوری فرآیند 20 نانومتری با ترانزیستورهای سریع برخوردار نبوده است. باز هم، دنیای گرافیک کامپیوتری بیش از چهار سال است که بر روی فناوری فرآیند 28 نانومتری نشسته است.
نمودار بلوک پردازنده GP104
جانشین GM204 متشکل از 7.2 میلیارد ترانزیستور است که در مساحت 314 میلی متر مربع قرار گرفته اند. برای مقایسه، مساحت قالب GM204 398 میلی متر مربع با 5.2 میلیارد ترانزیستور است. در نسخه کامل، یک GPU GP104 دارای چهار خوشه پردازش گرافیکی (GPC) است. هر GPC شامل پنج خوشه پردازش نخ/بافت (TPC) و یک شطرنجگر است. TPC ترکیبی از یک چند پردازنده جریانی (SM) و موتور PolyMorph است. SM 128 هسته CUDA دقیق، 256 کیلوبایت حافظه ثبت، 96 کیلوبایت حافظه مشترک، 48 کیلوبایت حافظه کش L1/بافت و هشت واحد بافت را ترکیب می کند. نسل چهارم موتور PolyMorph شامل یک بلوک منطقی جدید است که در انتهای خط لوله هندسی قبل از بلوک شطرنجی قرار دارد، عملکرد همزمان چند طرح ریزی را کنترل می کند (در ادامه در مورد آن بیشتر توضیح می دهیم). در مجموع، ما 20 اس ام اس، 2560 هسته CUDA و 160 واحد پردازش بافت داریم.
یک چند پردازنده جریانی (SM) در GP104
بکاند GPU شامل هشت کنترلر حافظه 32 بیتی (عرض کانال 256 بیتی)، هشت واحد شطرنجی و 256 کیلوبایت حافظه نهان L2 در هر واحد است. ما در نهایت با 64 ROP و 2 مگابایت حافظه پنهان L2 مشترک مواجه می شویم. اگرچه بلوک دیاگرام پردازنده Nvidia GM204 چهار کنترلر 64 بیتی و 16 ROP را نشان می داد، اما آنها با هم گروه بندی شدند و از نظر عملکردی معادل بودند.
برخی از عناصر ساختاری GP104 شبیه به عناصر GM204 هستند، زیرا GPU جدید از "بلوک های ساختمانی" نسل قبلی خود ساخته شده است. عیبی ندارد. اگر به خاطر داشته باشید، در معماری ماکسول، این شرکت بر بهره وری انرژی متکی بود و بلوک ها را که نقاط قوت کپلر بودند، تکان نداد. تصویر مشابهی را در اینجا می بینیم.
افزودن چهار اس ام اس ممکن است تاثیر قابل توجهی بر عملکرد نداشته باشد. با این حال، GP104 چند ترفند در آستین خود دارد. اولین برگ برنده فرکانس ساعت به طور قابل توجهی بالاتر است. سرعت کلاک پایه پردازنده گرافیکی 1607 مگاهرتز است. مشخصات GM204 برای مقایسه، 1126 مگاهرتز را نشان می دهد. حداکثر فرکانس GPU Boost 1733 مگاهرتز است، اما ما با استفاده از ابزار بتا PrecisionX EVGA، نمونه خود را به 2100 مگاهرتز رساندیم. چنین ذخیره ای برای اورکلاک از کجا می آید؟ به گفته جان آلبین، معاون ارشد مهندسی GPU، تیم او میدانست که فرآیند TSMC 16FF+ بر معماری تراشه تأثیر میگذارد، بنابراین آنها بر روی بهینهسازی زمانبندی تراشه تمرکز کردند تا گلوگاههایی را که از دستیابی به سرعت کلاک بالاتر جلوگیری میکنند، حذف کنند. در نتیجه، سرعت محاسبات تک دقیق GP104 در مقایسه با سقف 4612 GFLOP در GeForce GTX 980 به 8228 GFLOP (در ساعت پایه) رسید. 277، 3 Gtex /s.
پردازنده گرافیکی | GeForce GTX 1080 (GP104) | GeForce GTX 980 (GM204) |
اس ام | 20 | 16 |
تعداد هسته های CUDA | 2560 | 2048 |
فرکانس پایه GPU، مگاهرتز | 1607 | 1126 |
فرکانس GPU در حالت Boost، مگاهرتز | 1733 | 1216 |
سرعت محاسبه، GFLOP (در فرکانس پایه) | 8228 | 4612 |
تعداد واحدهای بافت | 160 | 128 |
سرعت پر کردن تکل، Gtex/s | 277,3 | 155,6 |
سرعت انتقال حافظه، گیگابیت بر ثانیه | 10 | 7 |
پهنای باند حافظه، گیگابایت بر ثانیه | 320 | 224 |
تعداد بلوک های شطرنجی سازی | 64 | 64 |
اندازه حافظه نهان L2، مگابایت | 2 | 2 |
پکیج حرارتی، W | 180 | 165 |
تعداد ترانزیستور | 7.2 میلیارد | 5.2 میلیارد |
مساحت کریستال، mm2 | 314 | 398 میلی متر |
فناوری فرآیند، نانومتر | 16 | 28 |
بخش پشتی همچنان شامل 64 ROP و یک گذرگاه حافظه 256 بیتی است، اما Nvidia حافظه GDDR5X را برای افزایش پهنای باند موجود معرفی کرده است. این شرکت تلاش زیادی برای ارتقای نوع جدید حافظه انجام داده است، به خصوص در زمینه حافظه HBM که در کارت های گرافیکی مختلف AMD و HBM2 که انویدیا در تسلا P100 نصب می کند استفاده می شود. به نظر می رسد در حال حاضر کمبود حافظه HBM2 در بازار وجود دارد و این شرکت آمادگی پذیرش محدودیت های HBM (چهار پشته 1 گیگابایتی یا دشواری اجرای هشت پشته 1 گیگابایتی) را ندارد. بنابراین، ما حافظه ویدیویی GDDR5X را دریافت کردیم، که ظاهراً عرضه آن نیز محدود است، زیرا GeForce GTX 1070 قبلاً از GDDR5 معمولی استفاده می کند. اما این مزیت های راه حل جدید را پوشش نمی دهد. حافظه GDDR5 در GeForce GTX 980 دارای سرعت انتقال داده 7 گیگابیت بر ثانیه بود. این 224 گیگابایت بر ثانیه پهنای باند را از طریق یک گذرگاه 256 بیتی فراهم می کرد. GDDR5X با سرعت 10 گیگابیت بر ثانیه شروع می شود و توان عملیاتی را به 320 گیگابایت بر ثانیه افزایش می دهد (43 درصد افزایش). به گفته انویدیا، این افزایش از طریق یک طرح I/O ارتقا یافته و بدون افزایش مصرف انرژی حاصل می شود.
معماری ماکسول با بهینه سازی کش و الگوریتم های فشرده سازی در استفاده از پهنای باند کارآمدتر شده است و پاسکال نیز همین مسیر را با روش های جدید فشرده سازی بدون تلفات دنبال می کند تا از پهنای باند موجود زیرسیستم حافظه به صورت اقتصادی تر استفاده کند. الگوریتم فشردهسازی رنگ دلتا تلاش میکند به افزایش ۲:۱ دست یابد و این حالت برای استفاده بیشتر بهبود یافته است. حالت جدید 4:1 نیز وجود دارد که در مواردی که تفاوت در هر پیکسل بسیار کم است استفاده می شود. در نهایت، پاسکال یک الگوریتم جدید 8:1 را معرفی می کند که فشرده سازی 4:1 را بر روی بلوک های 2x2 اعمال می کند، که تفاوت بین آنها در الگوریتم 2:1 پردازش می شود.
نشان دادن تفاوت کار دشواری نیست. تصویر اول یک اسکرین شات فشرده نشده از Project CARS را نشان می دهد. تصویر زیر عناصری را نشان می دهد که کارت Maxwell می تواند فشرده کند، آنها به رنگ بنفش سایه زده شده اند. در نما سوم می بینید که پاسکال صحنه را بیشتر فشرده می کند. به گفته انویدیا، این تفاوت به کاهش 20 درصدی در میزان اطلاعات بر حسب بایت تبدیل می شود که برای هر فریم باید از حافظه برداشت شود.
طبق شواهد حکایتی اخیراً منتشر شده، خانواده GPU مبتنی بر پاسکال میتواند به یکی از کاملترین مجموعههای NVIDIA در سالهای اخیر تبدیل شود. تنها در عرض چند ماه، این شرکت چهار پردازنده گرافیکی مبتنی بر پاسکال را معرفی کرده است و قرار نیست به همین جا بسنده کند. به گفته رئیس این شرکت، به دور از تمام تراشه های پاسکال، بدون ذکر محصولات واقعی، ارائه شده است. ظاهراً در آینده نزدیک منتظر اطلاعیه های جدید هستیم.
NVIDIA Pascal: هشت محصول در چهار ماه
از آوریل سال جاری، انویدیا چهار تراشه مبتنی بر پاسکال را معرفی کرده است: GP100 با 16 گیگابایت حافظه HBM2، GP102 با پشتیبانی از GDDR5X، GP104 و GP106. در همان زمان، این شرکت هشت محصول مبتنی بر این پردازندههای گرافیکی (به استثنای محصولات تکی انواع مختلف نسخههای ویژه زیر و همچنین دستگاههای تخصصی مانند DGX-1) را اعلام کرد: GeForce GTX 1080/1070 (GP104)، GeForce. GTX 1060 (GP106)، TITAN X (GP102 + 12 گیگابایت GDDR5X)، Quadro P5000 (GP104GL + 16 گیگابایت GDDR5X)، Quadro P6000 (GP102GL + 24 گیگابایت GDDR5X)، Tesla P10GBM1 و Tesla P10P10.
در حالی که چهار پردازنده گرافیکی و هشت محصول در چهار ماه یک دستاورد قابل توجه است، قابل توجه است که این شرکت نه یک راه حل جدید نوت بوک و نه یک کارت گرافیک جدید زیر 250 دلار معرفی کرده است. به گفته رئیس NVIDIA، این شرکت در حال آماده سازی پردازنده های گرافیکی جدید مبتنی بر پاسکال است، آنها قبلاً در سیلیکون وجود دارند، اما تنها پس از مدتی وارد بازار خواهند شد.
NVIDIA: همه پاسکال ها آماده هستند، اما همه ارائه نشده اند
ما همه را طراحی، تأیید و شروع به تولید کردیمپردازنده گرافیکی مبتنی بر معماریپاسکال», جن هسون هوانگ، مدیر اجرایی انویدیا، طی یک کنفرانس تلفنی با سرمایه گذاران و تحلیلگران مالی گفت. با این حال، ما هنوز همه این پردازندههای گرافیکی را معرفی نکردهایم.»
تنظیمات جدید
با این حال، نه تنها GP107، GP108 و GP102 که مورد توجه گیمرها و علاقه مندان به عملکرد هستند، بلکه این واقعیت است که هر تراشه پاسکال حداقل در دو پیکربندی اصلی (از نظر شناسه PCIe که درایور NVIDIA استفاده می کند) وجود خواهد داشت. ) . این فرصت را برای ایجاد مجموعه ای از محصولات جدید بر اساس تراشه های GP100، GP102، GP104 و GP106 باز می کند.
بنابراین، GP104 در پیکربندی های GP104-A و GP104-B و همچنین نسخه هایی با شتاب فعال برای برنامه های حرفه ای - GP104GL-A و GP104GL-B وجود دارد. ما نمی دانیم که حروف "A" و "B" دقیقاً با چه چیزی مطابقت دارند، اما می توانیم فرض کنیم که "A" نشان دهنده یک ریزمدار در حداکثر پیکربندی است. بنابراین GP104-A می تواند با GeForce GTX 1080 و GP104-B می تواند با GeForce GTX 1070 مطابقت داشته باشد.
با توجه به اینکه ریز مدارهای GP102 و GP106 نیز در دو پیکربندی وجود دارند (در هر صورت، این مورد توسط پایگاه داده AIDA64 و درایورهای NVIDIA نشان داده شده است)، اما در عین حال تنها یک محصول بر اساس آنها وجود دارد (GeForce GTX 1060 و TITAN X) ، به خوبی می توان انتظار ظهور راه حل های جدید بر اساس آنها را داشت. این که آیا این کارت ها سریعتر یا کندتر از کارت های موجود خواهند بود، زمان نشان خواهد داد. در هر صورت، GP102 می تواند هم «بالا» (تا 3840 پردازنده جریانی) و هم «پایین» را مقیاس کند. در عین حال، البته نمی توان احتمال فرضی ظاهر شدن نسخه سوم GP102-C را در صورت نیاز NVIDIA رد کرد.
بدیهی است که انویدیا قصد دارد خانواده کارتهای گرافیکی مبتنی بر پاسکال را گسترش دهد. اگرچه برنامههای فوری باید به وضوح شامل پردازندههای گرافیکی موبایل و جریان اصلی باشد، اما به احتمال زیاد در آینده راهحلهای جدیدی برای رایانههای شخصی بازی با کارایی بالا خواهیم داشت.