Сколько стоила rtx 2080 на старте
Перейти к содержимому

Сколько стоила rtx 2080 на старте

  • автор:

Nvidia GeForce: как менялись цены на топовые игровые видеокарты в последние 20 лет

Этим вечером состоится «специальное мероприятие GeForce», на котором Nvidia официально представит 3D-ускорители GeForce RTX 3000 (Ampere). В преддверии этого события предлагаем освежить в памяти цены предыдущих одночиповых «топов» GeForce за последние двадцать лет с учётом темпов инфляции.

GeForce 8800 Ultra

GeForce 8800 Ultra

За это время Nvidia прошла путь от GeForce 2 Ultra до GeForce RTX 2080 Ti, которую вскоре заменит GeForce RTX 3090 с весьма оригинальным дизайном в эталонном исполнении. Стоимость игровых флагманов GeForce варьировалась от поколения к поколению, однако зачастую находится в диапазоне от 500 до 800 долларов с поправкой на инфляцию.

Nvidia GeForce

Из общих трендов выбивается GeForce 8800 Ultra, которая нынче бы стоила более $1000, а также GeForce RTX 2080 Ti со стартовой ценой для рынка США в $1000 (или $1200 за версию Founders Edition). Нельзя не отметить, что с GeForce GTX 1080 график начал идти вверх. Интересно, продолжит ли GeForce RTX 3090 эту тенденцию? Ответ на этот вопрос станет известен уже скоро.

Обзор новинки 3D-графики 2018 года — Nvidia GeForce RTX 2080

Вместе с топовой видеокартой модели GeForce RTX 2080 Ti, которую мы недавно рассмотрели, компания Nvidia одновременно анонсировала и менее мощные варианты: RTX 2080 и RTX 2070, которые традиционно вызывают даже больший интерес публики, по сравнению с наиболее дорогой моделью, из-за лучшего соотношения цены и производительности. Младшую RTX 2070 придется еще подождать какое-то время, а среднюю мы сейчас и рассмотрим.

Напомним, что компания анонсировала свои игровые решения линейки GeForce RTX, основанные на новой архитектуре Turing, еще в августе. В линейке GeForce RTX было объявлено сразу три модели: RTX 2070, RTX 2080 и RTX 2080 Ti, базирующиеся на трех графических процессорах: TU106, TU104 и TU102. Освоение нового техпроцесса 7 нм все еще не завершено, если говорить о массовом производстве таких сложных и высокопроизводительных чипов, и используемый при производстве графических процессоров линейки GeForce RTX техпроцесс 12 нм FinFET по характеристикам лишь чуть лучше 16-нанометрового, известного по предыдущему поколению Pascal. Поэтому все чипы Turing получились весьма большими по размеру и дорогими в производстве, а видеокарты на их основе отличаются довольно высокой ценой.

Основными отличительными особенностями нового семейства RTX стала поддержка аппаратно ускоренной трассировки лучей, что позволяет использовать физически корректные расчеты лучей света, в отличие от растеризации, лишь примерно имитирующей их распространение. Для того, чтобы не рассказывать об основах и особенностях трассировки в очередной раз, предлагаем прочитать большую и подробную статью о ней.

Анонс технологии Nvidia RTX и аппаратно поддерживающих ее GPU дал разработчикам возможность начать внедрение алгоритмов, использующих трассировку лучей. Со временем она полностью заменит растеризацию, но это произойдет постепенно. А в первые годы использование трассировки предполагается исключительно в гибридном виде, с сочетанием растеризации и трассировки лучей для рендеринга некоторых эффектов, или слишком сложных или невозможных при растеризации.

Кроме специализированных ядер для трассировки лучей, в составе новых GPU есть еще аппаратные блоки для ускорения задач глубокого обучения — тензорные ядра, которые достались Turing по наследству от вычислительной архитектуры Volta. Они могут быть полезны как в широком ряде неграфических задач, так и в игровых применениях: для шумоподавления результата трассировки лучей с малым количеством сэмплов на пиксель, для хитрого полноэкранного сглаживания методом DLSS, о котором мы писали в статье по RTX 2080 Ti, и многом другом, о котором мы пока еще даже не догадываемся.

Сегодня мы попробуем разобраться в том, насколько производительна и интересна средняя модель линейки — GeForce RTX 2080 по сравнению со старшей модификацией Ti и решениями предыдущего поколения. Так как рассматриваемая модель видеокарты компании Nvidia основана на графическом процессоре архитектуры Turing, имеющей много общего с предыдущими архитектурами Pascal и Volta, то перед прочтением данного материала мы советуем ознакомиться с нашими предыдущими статьями по этой теме:

  • [19.09.18] Nvidia GeForce RTX 2080 Ti — обзор флагмана 3D-графики 2018 года
  • [14.09.18] Игровые видеокарты Nvidia GeForce RTX — первые мысли и впечатления
  • [06.06.17] Nvidia Volta — новая вычислительная архитектура
  • [09.03.17] GeForce GTX 1080 Ti — новый король игровой 3D-графики
  • [17.05.16] GeForce GTX 1080 — новый лидер игровой 3D-графики на ПК

Как это стало привычно для последних семейств видеокарт Nvidia, линейка GeForce RTX предлагает специальные продукты самой компании — так называемые Founder’s Edition. В этот раз при более высокой стоимости ($799 против $699 для рынка США — цены без учета налогов) они обладают и более привлекательными характеристиками. Приличный фабричный разгон у таких видеокарт есть изначально, а также видеокарты Founder’s Edition должны быть надежными и выглядят солидно благодаря отличному дизайну и грамотно подобранным материалам. А чтобы в надежности работы FE не было сомнений, каждая видеокарта тестируется на стабильность и обеспечивается трехлетней гарантией.

В видеокартах GeForce RTX Founder’s Edition применяется система охлаждения с испарительной камерой на всю длину печатной платы и с двумя вентиляторами для более эффективного охлаждения (по сравнению с одним вентилятором в предыдущих версиях FE). Длинная испарительная камера и большой двухслотовый алюминиевый радиатор обеспечивают довольно большую площадь рассеивания тепла, а тихие вентиляторы отводят горячий воздух в разные стороны, а не только наружу корпуса.

Система питания в GeForce RTX 2080 Founder’s Edition применяется весьма серьезная: 8-фазная схема iMON DrMOS (даже в GTX 1080 Ti Founder’s Edition была лишь 7-фазная dual-FET), поддерживающая новую динамическую систему управления питанием с более тонким контролем, улучшающая разгонные возможности видеокарты (о подробностях, связанных с разгоном, вы можете прочитать в обзоре RTX 2080 Ti). Для питания микросхем высокопроизводительной GDDR6-памяти установлена отдельная двухфазная схема.

Также FE-видеокарты Nvidia отличаются несколько большим уровнем энергопотребления, что обусловлено повышенными тактовыми частотами GPU. В этот раз партнерам компании будет не так уж просто предложить еще более привлекательные варианты с фабричным разгоном, придется делать экстремальные варианты с тремя разъемами дополнительного питания и усиленными системами охлаждения.

Архитектурные особенности

В средней модели видеокарты GeForce RTX 2080 применяется версия графического процессора TU104. Этот GPU имеет площадь 545 мм² (сравните с 754 мм² у TU102 и 610 мм² у топового чипа семейства Pascal — GP100) и содержит 13,6 млрд. транзисторов, по сравнению с 18,6 млрд. транзисторов у TU102 и 15,3 млрд. транзисторов у GP100. Так как новые GPU усложнились из-за появления аппаратных блоков, которых не было в Pascal, а техпроцессы применяются схожие, то по площади все новые чипы увеличились, если сравнивать схожие по наименованию модели.

Полный чип TU104 содержит шесть кластеров Graphics Processing Cluster (GPC), каждый из которых содержит четыре кластера Texture Processing Cluster (TPC), состоящих из одного движка PolyMorph Engine и пары мультипроцессоров SM. Соответственно, каждый SM состоит из: 64 CUDA-ядер, 256 КБ регистровой памяти и 96 КБ конфигурируемых L1-кэша и общей памяти, а также четырех блоков текстурирования TMU. Для нужд аппаратной трассировки лучей каждый мультипроцессор SM имеет также и по одному RT-ядру. Всего в полном чипе получается 48 мультипроцессоров SM, столько же RT-ядер, 3072 CUDA-ядер и 384 тензорных ядра.

Но это характеристики именно полного чипа TU104, различные модификации которого используются в моделях: GeForce RTX 2080, Tesla T4 и Quadro RTX 5000. В частности, рассматриваемая сегодня модель GeForce RTX 2080 основана на урезанной версии чипа с двумя аппаратно отключенными блоками SM. Соответственно, активными в ней остались: 2944 CUDA-ядра, 46 RT-ядра, 368 тензорных ядер и 184 блока текстурирования TMU.

А вот подсистема памяти в GeForce RTX 2080 полноценная, она содержит восемь 32-битных контроллеров памяти (256-бит в целом), при помощи которых GPU имеет доступ к 8 ГБ GDDR6-памяти, работающей на эффективной частоте в 14 ГГц, что дает пропускную способность в очень приличные 448 ГБ/с в итоге. К каждому контроллеру памяти привязаны по восемь блоков ROP и по 512 КБ кэш-памяти второго уровня. То есть, всего в чипе 64 блока ROP и 4 МБ L2-кэша.

Что касается тактовых частот нового графического процессора, то турбо-частота GPU у референсной карты равна 1710 МГц. Как и старшая модель GeForce RTX 2080 Ti, предлагаемая компанией со своего сайта видеокарта RTX 2080 Founder’s Edition имеет фабричный разгон до 1800 МГц — на 90 МГц больше, чем у референсных вариантов (хотя что такое референсные карты теперь — вопрос интересный).

По строению мультипроцессоров SM все чипы новой архитектуры Turing схожи друг с другом, в них появились новые типы вычислительных блоков: тензорные ядра и ядра ускорения трассировки лучей, а также были усложнены сами CUDA-ядра, в которых появилась возможность одновременного исполнения целочисленных вычислений и операций с плавающей запятой. Обо всех архитектурных изменениях мы очень подробно сообщали в обзоре GeForce RTX 2080 Ti, и очень советуем с ним ознакомиться.

Архитектурные изменения в вычислительных блоках привели к 50%-ному улучшению производительности шейдерных процессоров при равной тактовой частоте в играх в среднем. Также были улучшены технологии сжатия информации без потерь, архитектура Turing поддерживает новые техники компрессии, до 50% более эффективные по сравнению с алгоритмами в семействе чипов Pascal. Вместе с применением нового типа памяти GDDR6 это дает приличный прирост эффективной ПСП.

Это еще далеко не весь список нововведений и улучшений в Turing. Многие изменения в новой архитектуре нацелены на будущее, вроде mesh shading — новых шейдеров, ответственных за всю работу над геометрией, вершинами, тесселяцией и т. д., позволяющих значительно снизить зависимость от мощности CPU и во много раз увеличить количество объектов в сцене. Или взять Variable Rate Shading (VRS) — шейдинг с переменным количеством сэмплов, позволяющий оптимизировать рендеринг при помощи переменного количества сэмплов закраски, упрощая шейдинг лишь там, где это оправдано.

Отметим внедрение высокопроизводительного интерфейса NVLink второй версии, который используется для объединения GPU в том числе и для работы над изображением в режиме SLI. Топовый чип TU102 имеет два порта NVLink второго поколения, а в TU104 есть лишь один такой порт, но его пропускной способности в 50 ГБ/с хватит для передачи кадрового буфера с разрешением 8К в режиме многочипового рендеринга AFR от одного GPU к другому. Такая скорость позволяет использовать локальную видеопамять соседнего GPU как свою собственную полностью автоматически, без сложного программирования.

Графические процессоры семейства Turing также содержат новый блок вывода информации, поддерживающий дисплеи с высоким разрешением, с HDR и высокой частотой обновления. В частности, GeForce RTX имеют порты DisplayPort 1.4a, позволяющие вывести информацию на 8K-монитор с частотой обновления 60 Гц с поддержкой технологии VESA Display Stream Compression (DSC) 1.2, обеспечивающей высокую степень сжатия.

Платы Founder’s Edition содержат три таких выхода DisplayPort 1.4a, один разъем HDMI 2.0b (с поддержкой HDCP 2.2) и один VirtualLink (USB Type-C), предназначенный для будущих шлемов виртуальной реальности. Это новый стандарт подключения VR-шлемов, обеспечивающий передачу питания и высокую пропускную способность по разъему USB-C.

Все решения семейства Turing поддерживают два 8K-дисплея при 60 Гц (требуется по одному кабелю на каждый), такое же разрешение также можно получить при подключении через установленный USB-C. Кроме этого, все Turing поддерживают полноценный HDR в конвейере вывода информации, включая tone mapping для различных мониторов — со стандартным динамическим диапазоном и расширенным.

Новые GPU содержат улучшенный кодировщик видеоданных NVEnc, добавляющий поддержку сжатия данных в формате H.265 (HEVC) при разрешении 8K и 30 FPS. Такой блок NVEnc снижает требования к полосе пропускания до 25% при формате HEVC и до 15% при формате H.264. Также был обновлен и декодер видеоданных NVDec, получивший поддержку декодирования данных в формате HEVC YUV444 10-бит/12-бит HDR при 30 FPS, в формате H.264 при 8K-разрешении и в формате VP9 с 10-бит/12-бит данными.

Обо всех остальных новых возможностях семейства Turing читайте в обзоре GeForce RTX 2080 Ti, так как их слишком много, чтобы повторяться. Чего стоят только ядра для аппаратного ускорения трассировки лучей и тензорные ядра для ускорения алгоритмов искусственного интеллекта, предлагающие пользователям совершенно новые возможности.

Особенности видеокарты

Объект исследования: ускоритель трехмерной графики (видеокарта) Nvidia GeForce RTX 2080 8 ГБ 256-битной GDDR6 (Founder’s Edition)

Сведения о производителе: Компания Nvidia Corporation (торговая марка Nvidia) основана в 1993 году в США.Штаб-квартира в Санта-Кларе (Калифорния). Разрабатывает графические процессоры, технологии. До 1999 года основной маркой была Riva (Riva 128/TNT/TNT2), с 1999 года и по настоящее время — GeForce. В 2000 году были приобретены активы 3dfx Interactive, после чего торговые марки 3dfx/Voodoo перешли к Nvidia. Своего производства нет. Общая численность сотрудников (включая региональные офисы) — около 5000 человек.

Характеристики референс-карты
Nvidia GeForce RTX 2080 8 ГБ 256-битной GDDR6
Параметр Номинальное значение (референс)
GPU GeForce RTX 2080 (TU104)
Интерфейс PCI Express x16
Частота работы GPU (ROPs), МГц Референс: 1515—1800
Founder’s Edition: 1515—1965
Частота работы памяти (физическая (эффективная)), МГц 3500 (14000)
Ширина шины обмена с памятью, бит 256
Число вычислительных блоков в GPU 46
Число операций (ALU) в блоке 64
Суммарное количество блоков ALU (CUDA) 2944
Число блоков текстурирования (BLF/TLF/ANIS) 184
Число блоков растеризации (ROP) 64
Число блоков Ray Tracing 46
Число тензорных блоков 368
Размеры, мм 270×100×36
Количество слотов в системном блоке, занимаемые видеокартой 2
Цвет текстолита черный
Энергопотребление пиковое в 3D, Вт 228
Энергопотребление в режиме 2D, Вт 29
Энергопотребление в режиме «сна», Вт 11
Уровень шума в 3D (максимальная нагрузка), дБА 34,7
Уровень шума в 2D (просмотр видео), дБА 30,0
Уровень шума в 2D (в простое), дБА 30,0
Видеовыходы 1×HDMI 2.0b, 3×DisplayPort 1.4, 1×USB-C (VirtualLink)
Поддержка многопроцессорной работы SLI
Максимальное количество приемников/мониторов для одновременного вывода изображения 4
Питание: 8-контактные разъемы 1
Питание: 6-контактные разъемы 1
Максимальное разрешение/частота, Display Port 3840×2160@160 Гц (7680×4320@30 Гц)
Максимальное разрешение/частота, HDMI 3840×2160@60 Гц
Максимальное разрешение/частота, Dual-Link DVI 2560×1600@60 Гц (1920×1200@120 Гц)
Максимальное разрешение/частота, Single-Link DVI 1920×1200@60 Гц (1280×1024@85 Гц)
Память

Карта имеет 8 ГБ памяти GDDR6 SDRAM, размещенной в 8 микросхемах по 8 Гбит на лицевой стороне PCB. Микросхемы памяти Micron (GDDR6) рассчитаны на номинальную частоту работы в 3500 (14000) МГц.

Особенности карты и сравнение с предыдущим поколением
Nvidia GeForce RTX 2080 (8 ГБ) Nvidia GeForce GTX 1080
вид спереди
вид сзади

Как в случае RTX 2080 Ti, PCB у карт двух поколений сильно различаются. Несмотря на то, что обе имеют 256-битную шину обмена с памятью, микросхемы памяти размещены по-разному (в силу разных типов памяти). Также можно увидеть кардинальное различие в размере ядер, RTX 2080 (TU104) гораздо крупнее, чем GTX 1080 (GP104).

Схема питания построена на базе 8-фазного цифрового преобразователя iMON DrMOS. Эта динамическая система управления питанием способна осуществлять мониторинг тока чаще раза в миллисекунду, что дает жесткий контроль над поступающим на ядро питанием. Это помогает GPU дольше работать на повышенных частотах. Тот же преобразователь реализует 2-фазное питание микросхем памяти.

Как и в случае RTX 2080 Ti, через утилиту EVGA Precision X1 можно не только повысить частоты работы, но и запустить Nvidia Scanner, который поможет определить безопасный максимум работы ядра и памяти, то есть самый быстрый режим работы в 3D. Сейчас вышла версия 4.6.0 популярной утилиты MSI Afterburner, которая поддерживает всю 2000-ю серию.

Еще следует отметить, что карта оснащается новым разъемом USB-C (VirtualLink) специально для работы с устройствами виртуальной реальности следующего поколения.

Охлаждение и нагрев

Главной частью кулера является большая испарительная камера, оборотная часть которой припаяна к массивному радиатору. Поверх установлен кожух с двумя вентиляторами, работающими на одинаковой частоте вращения. Микросхемы памяти и силовые транзисторы охлаждаются специальной пластиной, также жестко соединенной с основным радиатором. С оборотной стороны карта прикрывается специальной пластиной, которая обеспечивает не только жесткость печатной платы, но и дополнительное охлаждение через специальный термоинтерфейс в местах монтажа микросхем памяти и силовых элементов.

Мониторинг температурного режима с помощью MSI Afterburner (автор А. Николайчук AKA Unwinder):

После 6-часового прогона под нагрузкой максимальная температура ядра не превысила 74 градусов, что является отличным результатом для видеокарты топового уровня

Максимальный нагрев — центральная область с обратной стороны печатной платы.

Методика измерения шума подразумевает, что помещение шумоизолировано и заглушено, снижены реверберации. Системный блок, в котором исследуется шум видеокарт, не имеет вентиляторов, не является источником механического шума. Фоновый уровень 18 дБА — это уровень шума в комнате и уровень шумов собственно шумомера. Измерения проводятся с расстояния 50 см от видеокарты на уровне системы охлаждения.

  • Режим простоя в 2D: загружен интернет-браузер с сайтом iXBT.com, окно Microsoft Word, ряд интернет-коммуникаторов
  • Режим 2D с просмотром фильмов: используется SmoothVideo Project (SVP) — аппаратное декодирование со вставкой промежуточных кадров
  • Режим 3D с максимальной нагрузкой на ускоритель: используется тест FurMark

Оценка градаций уровня шума выполняется по методике, описанной здесь:

  • 28 дБА и менее: шум плохо различим уже на расстоянии одного метра от источника, даже при очень низком уровне фонового шума. Оценка: шум минимальный.
  • от 29 до 34 дБА: шум различим уже с двух метров от источника, но не особо обращает на себя внимания. С таким уровнем шума вполне можно мириться даже при долговременной работе. Оценка: шум низкий.
  • от 35 до 39 дБА: шум уверенно различается и заметно обращает на себя внимание, особенно в помещении с низким уровнем шума. Работать с таким уровнем шума можно, но спать будет затруднительно. Оценка: шум средний.
  • 40 дБА и более: такой постоянный уровень шума уже начинает раздражать, от него быстро устаешь, появляется желание выйти из комнаты или выключить прибор. Оценка: шум высокий.

В режиме простоя в 2D температура составляла 30 °C, вентиляторы вращались на частоте примерно 1500 оборотов в минуту. Шум был равен 30,0 дБА.

При просмотре фильма с аппаратным декодированием ничего не менялось — ни температура ядра, ни частота вращения вентиляторов. Разумеется, уровень шума тоже оставался прежним (30,0 дБА).

В режиме максимальной нагрузки в 3D температура достигала 74 °C. Вентиляторы при этом раскручивались до 1830 оборотов в минуту, шум вырастал до 34,7 дБА, так что шум от данной СО есть, но он не высокий, скорее средний.

Комплект поставки и упаковка

Базовый комплект поставки серийной карты должен включать в себя руководство пользователя, диск с драйверами и утилитами. С нашей картой Founder’s Edition в комплекте шли лишь руководство пользователя и переходник с DP на DVI.

Синтетические тесты

Недавно мы обновили пакет синтетических тестов, он все еще экспериментальный и может меняться. Мы бы хотели добавить еще больше примеров с вычислениями (compute shaders), но один из распространенных таких бенчмарков CompuBench пока что не работает на GeForce RTX. В будущем мы постараемся расширить и улучшить свой набор синтетических тестов. Если у вас есть четкие и обоснованные предложения — напишите их в комментариях к статье или отправьте почтой авторам.

Из ранее использовавшихся тестов RightMark3D 2.0 мы оставили лишь несколько самых тяжелых тестов. Остальные уже изрядно устарели и на столь мощных GPU упираются в различные ограничители, не загружают работой блоки графического процессора и не показывают истинную его производительность. А вот синтетические Feature-тесты из набора 3DMark Vantage мы пока что оставили в полном составе, так как заменить их попросту нечем, хотя и они уже устарели.

Из более-менее новых бенчмарков мы начали использовать несколько примеров, входящих в DirectX SDK и пакет SDK компании AMD (скомпилированные примеры применения D3D11 и D3D12), а также несколько тестов для измерения производительности трассировки лучей и один временный тест для сравнения производительности сглаживания методами DLSS и TAA. В качестве полусинтетического теста у нас также используется и 3DMark Time Spy, помогающий определить пользу от асинхронных вычислений.

Синтетические тесты проводились на следующих видеокартах:

  • GeForce RTX 2080 со стандартными параметрами (сокращенно RTX 2080)
  • GeForce RTX 2080 Ti со стандартными параметрами (сокращенно RTX 2080 Ti)
  • GeForce GTX 1080 Ti со стандартными параметрами (сокращенно GTX 1080 Ti)
  • GeForce GTX 1080 со стандартными параметрами (сокращенно GTX 1080)
  • Radeon RX Vega 64 со стандартными параметрами (сокращенно RX Vega 64)

Для анализа производительности видеокарты GeForce RTX 2080 мы взяли именно эти решения по следующим причинам. GeForce GTX 1080 является прямым предшественником новинки, основанным на аналогичном по позиционированию графическом процессоре из предыдущего поколения Pascal. Модель GeForce GTX 1080 Ti более высокого уровня должна быть примерно на уровне RTX 2080 по производительности, и сравнение с ней покажет оправданность схожей цены карт разных поколений и уровней. Ну а RTX 2080 Ti представлена как ориентир GPU максимальной мощности.

У конкурирующей компании AMD выбирать особо нечего. Конкурентоспособные продукты, способные выступать на уровне GeForce RTX 2080, вряд ли появятся и в первой половине следующего года. В итоге остается единственная видеокарта Radeon RX Vega 64, которая хоть и не может быть прямым соперником для GeForce RTX 2080, но в любом случае является наиболее производительным решением компании AMD.

Мы сильно сократили состав DirectX 10-тестов из RightMark3D, оставив только шесть примеров с наибольшей нагрузкой на GPU. Первая пара тестов измеряет производительность выполнения относительно простых пиксельных шейдеров с циклами при большом количестве текстурных выборок (до нескольких сотен выборок на пиксель) и сравнительно небольшой загрузке ALU. Иными словами, в них измеряется скорость текстурных выборок и эффективность ветвлений в пиксельном шейдере. Оба примера включают самозатенение и шейдерный суперсэмплинг, увеличивающий нагрузку на видеочипы.

Первый тест пиксельных шейдеров — Fur. При максимальных настройках в нем используется от 160 до 320 текстурных выборок из карты высот и несколько выборок из основной текстуры. Производительность в данном тесте зависит от количества и эффективности блоков TMU, на результат влияет также и эффективность выполнения сложных программ.

В задачах процедурной визуализации меха с большим количеством текстурных выборок, решения компании AMD лидируют со времен выхода первых видеочипов архитектуры GCN, и платы Radeon до сих пор являются лучшими в этих сравнениях, что говорит о большей эффективности выполнения подобных программ. Вывод подтверждается в очередной раз. Рассматриваемая новая видеокарта модели GeForce RTX 2080 выступила явно хуже Radeon RX Vega 64, но даже не это самое интересное.

Любопытно, что в этом D3D10-тесте новинка от Nvidia уступила модели из предыдущей линейки — GeForce GTX 1080 Ti, основанной на чипе семейства Pascal. Больше всего похоже, что тест упирается в ПСП или производительность блоков ROP, ведь именно по этим параметрам новинка уступает топовой предшественнице. Отрыв от аналогичного по позиционированию решения прошлого поколения в виде GTX 1080 тоже оказался не таким большим, как должно бы. Похоже, что в таких простых тестах вся линейка RTX не слишком сильна, и новым GPU нужны другие типы нагрузок — более сложные шейдеры и условия в целом.

Следующий DX10-тест Steep Parallax Mapping также измеряет производительность исполнения сложных пиксельных шейдеров с циклами при большом количестве текстурных выборок. При максимальных настройках он использует от 80 до 400 текстурных выборок из карты высот и несколько выборок из базовых текстур. Этот шейдерный тест Direct3D 10 несколько интереснее с практической точки зрения, так как разновидности parallax mapping широко применяются в играх, в том числе и такие варианты как steep parallax mapping. Кроме того, в нашем тесте мы включили самозатенение, увеличивающее нагрузку на видеочип в два раза, и суперсэмплинг, также повышающий требования к мощности GPU.

Диаграмма очень похожа на предыдущую, но в этот раз новая модель видеокарты GeForce RTX 2080 оказалась уже ближе к GTX 1080 Ti из предыдущего поколения, и преимущество над GTX 1080 увеличилось. Но все равно вероятен упор в ПСП или ROP. Если сравнить новинку с менее дорогой видеокартой AMD, то они примерно равны, хотя и в случае высокой сложности новинка от Nvidia выступила лучше, но совсем чуть-чуть. Будем надеяться, что в более сложных DirectX 11 и 12 тестах она сможет раскрыться полностью.

Из пары тестов пиксельных шейдеров с минимальным количеством текстурных выборок и относительно большим количеством арифметических операций, мы выбрали более сложный, так как они уже порядком устарели и уже не измеряют чисто математическую производительность GPU. Да и за последние годы скорость выполнения именно арифметических инструкций в пиксельном шейдере не так важна, большинство вычислений перешли в compute shaders. Итак, тест шейдерных вычислений Fire — текстурная выборка в нем лишь одна, а количество инструкций типа sin и cos равно 130 штукам. Впрочем, для современных GPU это семечки.

В математическом тесте из нашего RigthMark мы видим результаты, далекие от теории и сравнений в других аналогичных бенчмарках. Вероятно, эти мощные платы ограничивает что-то, не относящееся к скорости вычислительных блоков, так как GPU при тестировании даже не загружен работой на 100%. Даже на ПСП и ROP не спишешь такую разницу. Новая модель GeForce RTX 2080 в тесте немного опережает GTX 1080 и отстает от всех остальных, включая и GPU конкурирующей компании. Результат очень странный и объясняется, скорее всего, устаревшим тестом.

Переходим к тесту геометрических шейдеров. В составе пакета RightMark3D 2.0 есть два теста скорости геометрических шейдеров, но один из них (Hyperlight, демонстрирующий использование техник: instancing, stream output, buffer load, использующий динамическое создание геометрии и stream output, на всех видеокартах компании AMD не работает), поэтому мы решили оставить лишь второй — Galaxy. Техника в этом тесте аналогична point sprites из предыдущих версий Direct3D. В нем анимируется система частиц на GPU, геометрический шейдер из каждой точки создает четыре вершины, образующие частицу. Вычисления производятся в геометрическом шейдере.

Соотношение скоростей при разной геометрической сложности сцен примерно одинаково для всех решений, производительность соответствует количеству точек. Задача для мощных современных GPU довольно простая, но разница между разными моделями видеокарт присутствует. Новая GeForce RTX 2080 в этом тесте показала сильный результат, обогнав всех условных конкурентов в самых сложных условиях. Вероятно, это связано с тактовой частотой GPU, которая превышает тактовую частоту даже у RTX 2080 Ti.

Отставание лучшей из имеющихся в продаже Radeon в самых сложных условиях почти двукратное. В этом тесте разница между видеокартами на чипах Nvidia и AMD явно в пользу решений калифорнийской компании, это обусловлено отличиями в геометрических конвейерах GPU. В тестах геометрии платы GeForce всегда конкурентоспособнее Radeon, и топовые видеочипы Nvidia, имеющие сравнительно большое количество блоков по обработке геометрии, всегда выигрывают с заметным преимуществом.

Последним тестом из Direct3D 10 станет скорость большого количества текстурных выборок из вершинного шейдера. Из пары имеющихся у нас тестов с использованием displacement mapping на основании данных из текстур, мы выбрали тест Waves, имеющий условные переходы в шейдере и поэтому более сложный и современный. Количество билинейных текстурных выборок в данном случае составляет 24 штуки на каждую вершину.

Результаты в тесте вершинного текстурирования Waves снова показали какой-то странный упор новой GeForce RTX 2080 во что-то непонятное. Но в самых сложных условиях производительность новой модели GPU выше, чем у всех решений, кроме верхней модели RTX. Обе видеокарты предыдущего поколения Pascal остались далеко позади, если не брать в расчет легкий режим. Если же сравнивать новинку с единственной Radeon, то последняя также заметно отстает в сложных условиях и выходит вперед в легких.

Мы традиционно рассматриваем также и синтетические тесты из пакета 3DMark Vantage, ведь они иногда показывают нам то, что мы упустили в тестах собственного производства. Feature тесты из этого тестового пакета также обладают поддержкой DirectX 10, они до сих пор более-менее актуальны и при анализе результатов новейшей видеокарты GeForce RTX 2080 Ti мы сделаем какие-то полезные выводы, ускользнувшие от нас в тестах пакета RightMark 2.0.

Feature Test 1: Texture Fill

Первый тест измеряет производительность блоков текстурных выборок. Используется заполнение прямоугольника значениями, считываемыми из маленькой текстуры с использованием многочисленных текстурных координат, которые изменяются каждый кадр.

Эффективность работы видеокарт AMD и Nvidia в текстурном тесте компании Futuremark довольно высока, тест показывает результаты, близкие к соответствующим теоретическим параметрам. Кроме GeForce RTX, как ни странно. Разница в скорости между GeForce RTX 2080 и GTX 1080 Ti оказалась в пользу старого решения более высокого уровня, хотя по теории они близки, а вот GTX 1080 осталась далеко позади.

Увы, если сравнивать скорость текстурирования новой видеоплаты Nvidia с лучшей из имеющихся на рынке видеокартой от конкурента, то новинка уступила видеокарте компании AMD. Radeon RX Vega 64 имеет довольно большое количество блоков TMU и с текстурированием справляется весьма неплохо.

Feature Test 2: Color Fill

Вторая задача — тест скорости заполнения. В нем используется очень простой пиксельный шейдер, не ограничивающий производительность. Интерполированное значение цвета записывается во внеэкранный буфер (render target) с использованием альфа-блендинга. Используется 16-битный внеэкранный буфер формата FP16, наиболее часто используемый в играх, применяющих HDR-рендеринг, поэтому такой тест является вполне современным.

Цифры из второго подтеста 3DMark Vantage показывают производительность блоков ROP, без учета величины пропускной способности видеопамяти, поэтому тест измеряет именно производительность подсистемы ROP. Но тут видим то же самое — 20% разницы теорией не объяснить. Рассматриваемая сегодня плата GeForce RTX 2080 не смогла даже опередить свою прямую предшественницу в виде GTX 1080! Не говоря уже про GTX 1080 Ti.

Если сравнивать скорость заполнения сцены новой видеокартой GeForce RTX 2080 с лучшим из решений компании AMD, то рассматриваемая сегодня плата показала в этом тесте чуть более высокую скорость заполнения сцены по сравнению с Radeon RX Vega 64. На результатах сказывается как большое количество блоков ROP у новинки, так и достаточно эффективные оптимизации сжатия данных (но недостаточно эффективные, чтобы опередить GTX 1080).

Feature Test 3: Parallax Occlusion Mapping

Один из самых интересных feature-тестов, так как подобная техника давно используется в играх. В нем рисуется один четырехугольник (точнее, два треугольника) с применением специальной техники Parallax Occlusion Mapping, имитирующей сложную геометрию. Используются довольно ресурсоемкие операции по трассировке лучей и карта глубины большого разрешения. Также эта поверхность затеняется при помощи тяжелого алгоритма Strauss. Это тест очень сложного и тяжелого для видеочипа пиксельного шейдера, содержащего многочисленные текстурные выборки при трассировке лучей, динамические ветвления и сложные расчеты освещения по Strauss.

Результаты этого теста из пакета 3DMark Vantage не зависят исключительно от скорости математических вычислений, эффективности исполнения ветвлений или скорости текстурных выборок, а от нескольких параметров одновременно. Для достижения высокой скорости в этой задаче важен правильный баланс GPU, а также эффективность выполнения сложных шейдеров.

В данном случае, важны и математическая и текстурная производительность, и в этой «синтетике» из 3DMark Vantage новая плата GeForce RTX 2080 показала хороший результат, оказавшись на одном уровне с моделью более высокого позиционирования из прошлого поколения Pascal, и это соответствует теории в этот раз. Также новинка от Nvidia сильно опередила и GTX 1080 и оказалась значительно быстрее Vega 64. Впрочем, эта плата от компании AMD ей явно не конкурент.

Feature Test 4: GPU Cloth

Четвертый тест интересен тем, что рассчитывает физические взаимодействия (имитация ткани) при помощи видеочипа. Используется вершинная симуляция, при помощи комбинированной работы вершинного и геометрического шейдеров, с несколькими проходами. Используется stream out для переноса вершин из одного прохода симуляции к другому. Таким образом, тестируется производительность исполнения вершинных и геометрических шейдеров и скорость stream out.

Скорость рендеринга в этом тесте также зависит сразу от нескольких параметров, и основными факторами влияния должны являться производительность обработки геометрии и эффективность выполнения геометрических шейдеров. Сильные стороны чипов Nvidia должны были проявиться, но мы постоянно отмечаем странные результаты в этом тесте, в котором очередная новая видеокарта GeForce показала весьма низкую скорость точно на уровне и своей прямой предшественницы GeForce GTX 1080 и топовой RTX 2080 Ti. C этим тестом явно что-то не так, логического объяснения таким результатам нет.

Неудивительно, что в таких условиях сравнение с единственным Radeon RX Vega 64 в этом тесте для GeForce RTX 2080 ничего хорошего не приносит. Несмотря на теоретически меньшее количество геометрических исполнительных блоков и отставание по геометрической производительности у чипов AMD, платы Radeon в этом тесте работают заметно эффективнее, вдвое обгоняя почти все видеокарты GeForce, представленные в нашем сравнении.

Feature Test 5: GPU Particles

Тест физической симуляции эффектов на базе систем частиц, рассчитываемых при помощи графического процессора. Используется вершинная симуляция, где каждая вершина представляет одиночную частицу. Stream out используется с той же целью, что и в предыдущем тесте. Рассчитывается несколько сотен тысяч частиц, все анимируются отдельно, также рассчитываются их столкновения с картой высот. Частицы отрисовываются при помощи геометрического шейдера, который из каждой точки создает четыре вершины, образующие частицу. Больше всего загружает шейдерные блоки вершинными расчетами, также тестируется stream out.

Удивительно, но и в этом геометрическом тесте из 3DMark Vantage новая GeForce RTX 2080 не показывает результат, соответствующий теории. Она оказалась на уровне своей предшественницы архитектуры Pascal в виде GTX 1080, чего по теории просто быть не должно. Сравнение новинки с видеокартой AMD приносит также аналогичный вывод — очередная видеокарта семейства Turing показала результат всего лишь на уровне быстрейшей одночиповой видеокарты конкурента.

Feature Test 6: Perlin Noise

Последний feature-тест пакета Vantage является математически-интенсивным тестом GPU, он рассчитывает несколько октав алгоритма Perlin noise в пиксельном шейдере. Каждый цветовой канал использует собственную функцию шума для большей нагрузки на видеочип. Perlin noise — это стандартный алгоритм, часто применяемый в процедурном текстурировании, он использует много математических вычислений.

В этом математическом тесте производительность решений также не совсем соответствует теории, хотя и ближе к пиковой производительности видеочипов в предельных задачах. Похоже, что в этом тесте используются в основном операции с плавающей запятой, и новая архитектура Turing просто не может показать результат заметно выше, чем лучшие представители семейства Pascal. GeForce RTX 2080 в этом тесте оказалась между GTX 1080 Ti и GTX 1080.

Видеочипы компании AMD с архитектурой GCN справляются с подобными задачами явно лучше решений конкурента в случаях, когда выполняется интенсивная «математика» в предельных режимах. Конечно, Vega 64 не догнала топовую RTX 2080 Ti, но зато легко обошла рассматриваемую сегодня RTX 2080. А ведь эти GPU очень сильно отличаются по сложности и цене. Рассмотрим более современные тесты, использующих более сложную нагрузку — возможно, показатели Turing в них будут лучше.

Переходим к Direct3D11-тестам из пакета разработчиков SDK Radeon. Первым на очереди будет тест под названием FluidCS11, в котором моделируется физика жидкостей, для чего рассчитывается поведение множества частиц в двухмерном пространстве. Для симуляции жидкостей в этом примере используется гидродинамика сглаженных частиц. Число частиц в тесте устанавливаем максимально возможное — 64000 штук.

Тест явно не раскрывает новых возможностей архитектуры Turing, и все видеокарты GeForce показывают близкие результаты. Новинка даже не опередила топовое решение семейства Pascal, а единственный условный конкурент в виде Radeon RX Vega 64 оказался даже чуть быстрее видеокарт Nvidia. Скорее всего, вычисления в этом примере из SDK не слишком сложны, поэтому мощные GPU и не могут показать свои способности. Дальнейшее использование теста под вопросом, нужно будет посмотреть на показатели чипов более низкого уровня.

Второй D3D11-тест называется InstancingFX11, в этом примере из SDK используются DrawIndexedInstanced-вызовы для отрисовки множества одинаковых моделей объектов в кадре, а их разнообразие достигается при помощи использования текстурных массивов с различными текстурами для деревьев и травы. Для увеличения нагрузки на GPU мы использовали максимальные настройки: число деревьев и плотность травы.

Производительность рендеринга в этом тесте зависит от оптимизации драйвера и командного процессора GPU. И с этим у Nvidia все в порядке, так как все видеокарты GeForce опередили лучшую из Radeon. Что касается сравнения сегодняшней новинки с лучшей из видеокарт прошлого поколения, то GeForce RTX 2080 прилично опередила GTX 1080 Ti, оказавшись ровно между ней и топовой RTX 2080 Ti. Похоже, что новый графический процессор раскрывается именно в таких сложных условиях.

Ну и последний D3D11-пример — VarianceShadows11. В этом тесте из SDK от AMD используются теневые карты (shadow maps) с тремя каскадами (уровнями детализации). Динамические каскадные карты теней сейчас широко применяются в играх с растеризацией, поэтому тест довольно интересный. При тестировании мы использовали настройки по умолчанию.

Производительность в этом примере из SDK зависит как от скорости блоков растеризации, так и от пропускной способности памяти. Хорошо видно, что по этим параметрам видеокарты Nvidia хоть и выигрывают у Radeon RX Vega 64, но преимущество не такое уж большое, учитывая цену и сложность уже далеко не нового GPU конкурента. В этот раз GeForce RTX 2080 не обогнала предшественницу из семейства Pascal, но была близка к ней — соответственно теории. Ведь по производительности блоков ROP и ПСП она даже немного уступает GTX 1080 Ti, так что тут все в порядке.

Direct3D11-тесты из SDK компании AMD кончились, переходим к примерам из DirectX SDK от компании Microsoft — все они используют последнюю версию графического API — Direct3D12. Первым тестом стал Dynamic Indexing (D3D12DynamicIndexing), использующий новые функции шейдерной модели Shader Model 5.1. В частности — динамическое индексирование и неограниченные массивы (unbounded arrays) для отрисовки одной модели объекта несколько раз, при этом материал объекта выбирается динамически по индексу.

Этот пример активно использует целочисленные операции для индексации, поэтому особенно интересен нам для тестирования графического процессора Turing. Для увеличения нагрузки на GPU мы модифицировали пример, увеличив число моделей в кадре относительно оригинальных настроек в 100 раз.

Общая производительность рендеринга в этом тесте зависит от видеодрайвера, командного процессора и мультипроцессоров GPU. Результаты показывают, что решения Nvidia в целом явно лучше справляются с этими операциями, а одновременное исполнение INT32- и FP32-операций на графическом процессоре TU104 позволило рассматриваемой новинке с запасом обогнать лучшее игровое решение на основе архитектуры Pascal. Она оказалась посередине между GTX 1080 Ti и RTX 2080 Ti, что очень неплохо. Radeon RX Vega 64 где-то далеко позади.

Очередной пример из Direct3D12 SDK — Execute Indirect Sample, он создает большое количество вызовов отрисовки при помощи ExecuteIndirect API, с возможностью модификации параметров отрисовки в вычислительном шейдере. В тесте используется два режима. В первом на GPU выполняется вычислительный шейдер для определения видимых треугольников, после чего вызовы отрисовки видимых треугольников записываются в UAV-буфер, откуда запускаются посредством ExecuteIndirect-команд, таким образом на отрисовку отправляются только видимые треугольники. Второй режим отрисовывает все треугольники подряд без отбрасывания невидимых. Для увеличения нагрузки на GPU число объектов в кадре увеличено с 1024 до 1048576 штук.

Производительность в этом тесте зависит от драйвера, командного процессора и мультипроцессоров GPU. Обе видеокарты компании Nvidia справились с задачей хорошо (с учетом большого количества обрабатываемой геометрии) и абсолютно одинаково, что говорит скорее об упоре в возможности драйвера, а вот Radeon RX Vega 64 очень серьезно отстала от них. Вероятно, дело тут в недостаточной оптимизации именно драйверов компании AMD.

Ну и последний пример с поддержкой D3D12 — уже известный нам nBody Gravity тест, но в другом варианте. В этом примере из SDK показана расчетная задача гравитации N-тел (N-body) — симуляция динамической системы частиц, на которую воздействуют такие физические силы, как гравитация. Для увеличения нагрузки на GPU число N-тел в кадре было увеличено с 10000 до 128000.

По количеству кадров в секунду даже на мощнейших видеокартах видно, что эта вычислительная задача сложнейшая, ведь даже на топовой GeForce RTX 2080 Ti получилось всего лишь 30 FPS. При этом, менее дорогая новинка на графическом процессоре TU104 обошла топовое решение из предшествующего семейства видеокарт GeForce, и значительно опередила лучшую из видеокарт конкурирующей компании. Снова видим отличный результат у GPU новой архитектуры.

В качестве дополнительного синтетического теста с поддержкой Direct3D12 мы взяли известный тест Time Spy из бенчмарка 3DMark. В нем нам интересно не только общее сравнение GPU по мощности, но и разница в производительности с включенной и отключенной возможностью асинхронных вычислений, появившихся в DirectX 12. Так мы поймем, изменилось ли что-то в поддержке async compute в Turing. Для верности мы протестировали две видеокарты Nvidia в двух разрешениях экрана и двух графических тестах.

По двум диаграммам хорошо видно, что прирост от включения асинхронных вычислений в Time Spy не изменился, у Pascal и Turing он примерно одинаков и составляет от 3% до 7%, в зависимости от режима. Но нам известно, что в новых GPU эта возможность была улучшена, на одном и том же шейдерном мультипроцессоре Turing может запускать и графические и вычислительные шейдеры. Увы, но Time Spy не использует такие возможности, мы постараемся найти другой тест для async compute, а пока смотрим то, что есть.

Если рассмотреть производительность GeForce RTX 2080 в этой задаче, то она весьма неплоха — новинка уверенно опережает модель GTX 1080 Ti в двух протестированных разрешениях, хотя до RTX 2080 Ti им обеим очень далеко. Это вполне соответствует заявлениям Nvidia об изменениях в вычислительных CUDA-ядрах, связанных с улучшением кэширования и появлением возможности одновременного исполнения целочисленных операций и вычислений с плавающей запятой.

С появлением DXR API стало возможно как аппаратное ускорение трассировки лучей на специализированных RT-ядрах, имеющихся в чипах архитектуры Turing, так и программное — выполняемое на универсальных CUDA-ядрах. Так как видеокарты семейства Pascal тоже поддерживают DXR API, хотя изначально Nvidia не планировала делать его поддержку на своих решениях ниже архитектуры Volta, мы можем сравнить производительность трассировки на различных семействах GeForce.

Таких тестов и демок пока что немного. Хорошо уже то, что у нас есть демо-программа Reflections от компании Epic Games, которые совместно с ILMxLAB и Nvidia сделали свой вариант демонстрации возможностей трассировки лучей в реальном времени с использованием движка Unreal Engine 4 и технологию Nvidia RTX. Для построения этой 3D-сцены разработчики использовали реальные ресурсы из фильмов серии Star Wars.

Эта технологическая демонстрация отличается качественным динамическим освещением, а также эффектами, полученными при помощи трассировки лучей, включая качественные мягкие тени от площадных источников света (area lights), имитацию глобального затенения Ambient Occlusion и фотореалистичные отражения — все это отрисовывается в реальном времени с очень высоким качеством. Также используется качественное шумоподавление результата трассировки из пакета Nvidia GameWorks. Посмотрим, что получается с производительностью:

Это одна из самых впечатляющих презентаций возможностей трассировки лучей и весной ее показывали на рабочей станции DGX Station, включающей аж четыре графических процессора архитектуры Volta. Но затем оказалось, что она заработала и на одной GeForce GTX 1080 Ti, пусть и с явным недостатком производительности, но 6-10 FPS — это точно лучше наших ожиданий.

А уж новые видеокарты семейства GeForce RTX могут справиться с трассировкой в реальном времени с очень хорошей производительностью при условии работы над ней всего лишь единственного GPU. Вот и вторая модель семейства Turing в этой задаче оказалась заметно быстрее предшественницы семейства Pascal — в 4-5 раз, да и от топовой RTX 2080 Ti она хоть и серьезно отстала, но показала при этом вполне приемлемую скорость рендеринга.

Еще одним тестом производительности трассировки лучей могла бы стать технологическая демонстрация 3DMark Ray Tracing Tech Demo от создателей известных бенчмарков серии 3DMark, но пока что она слишком сырая, и выкладывать столь ранние результаты запрещено. Демонстрация также работает на всех графических процессорах с поддержкой DXR API, для чего нужно апрельское официальное обновление Windows 10 с включенным в настройках режимом разработчика ну или октябрьское обновление операционной системы.

Демонстрация эта чисто технологическая, она предназначена лишь для показа некоторых возможностей трассировки лучей через DXR API, в ней пока что используется меньшее количество эффектов с трассировкой лучей (отражения) с еще не таким качеством, какое будет в полноценном бенчмарке компании, она в целом еще не оптимизирована и вообще не разрешена для сравнения производительности разных GPU в трассировке лучей, поэтому мы не можем привести конкретные цифры из этой демки.

Мы можем поделиться исключительно личными впечатлениями, без указания точной производительности. Отметим сравнительно неплохой результат даже для GeForce GTX 1080 Ti — по ощущениям, пусть это и был не рендеринг реального времени, но не слайд-шоу даже с учетом неоптимизированного кода. Новый графический процессор TU104 с аппаратными блоками трассировки лучей, показывает значительно (в разы) более высокую производительность в этой, еще совсем не оптимизированной технологической демонстрации. Но для окончательных выводов давайте подождем полноценного теста 3DMark с трассировкой лучей, появление которого ожидается ближе к концу текущего года.

Мы хотели включить в состав нашего пакета синтетических тестов удобный бенчмарк CompuBench, который использует OpenCL и в который входит несколько интересных вычислительных тестов, но он пока что не заработал на GeForce RTX 2080 Ti из-за недоработанных драйверов или ПО. Поэтому нам пришлось искать другие варианты. В частности — довольно старый уже и не слишком оптимизированный тест трассировки лучей, но не аппаратной — LuxMark 3.1. Этот кроссплатформенный тест основан на LuxRender и также использует OpenCL.

Мы сравнили три разных GPU компании Nvidia в этом тесте и получилось, что новая GeForce RTX 2080 значительно быстрее в этой задаче, чем GTX 1080 Ti из предыдущего семейства. Такой сильный результат новинки стал следствием значительно улучшенного кэширования и большего объема кэш-памяти в большей степени. Разница между RTX 2080 и RTX 2080 Ti также достаточно велика, чуть ли не полуторакратная — топовый GPU и в целом быстрее и кэша имеет больше.

Рассмотрим еще один тест производительности улучшения изображения методом DLSS, который использует возможности специализированных тензорных ядер, ускоряющих задачи глубокого обучения. Натренированная нейросеть использует тензорные ядра, имеющиеся в чипах архитектуры Turing для того, чтобы «дорисовывать» изображение, улучшая его качество выше уровня распространенного метода сглаживания TAA.

При тестировании мы использовали бенчмарк Final Fantasy XV Benchmark, который был обновлен для поддержки DLSS-сглаживания. Обновленный тест производительности на базе игрового движка раскрывает явные преимущества DLSS, обеспечивающего качество картинки не хуже, чем с применением TAA при рендеринге в 4K-разрешении, и показывает примерно на треть более высокую производительность при этом:

Тут нам интересно сравнение GeForce RTX 2080 и GTX 1080 Ti. Если при использовании сглаживания методом TAA их скорость очень близка, что почти полностью соответствует теории (без учета преимуществ от одновременного исполнения FP32 и INT32, к примеру), то при использовании алгоритма DLSS у архитектуры Turing проявляется явное преимущество в дополнительные 40% к скорости рендеринга над Pascal. Вот такие тесты и показывают возможности GPU нового поколения, имеющие специализированные блоки.

Выводы по теоретической части и синтетическим тестам

Судя по теории и проведенным нами синтетическим тестам, видеокарта модели GeForce RTX 2080, основанная на новом графическом процессоре TU104 архитектуры Turing, займет на рынке игровых видеокарт место сразу под RTX 2080 Ti, несмотря на спорные результаты в некоторых бенчмарках. Да, со старыми синтетическими тестами у новых GPU все не очень хорошо, и вполне возможно, что в некоторых из существующих игр влияние многочисленных архитектурных улучшений будет не слишком заметно, и топовое решение семейства Pascal в виде GeForce GTX 1080 Ti почти не уступит новинке, как было в немалой части наших синтетических тестов.

Дело в том, что не все существующие игры смогут получить преимущество за счет улучшенных блоков CUDA, а ведь количество этих блоков в GPU нового поколения выросло не так уж сильно. То же самое касается и текстурных блоков и блоков ROP. Не говоря уже о том, что даже нынешние GeForce GTX 1080 Ti часто упираются в CPU в разрешениях 1920×1080 и 2560×1440. Так что существует немалая вероятность того, что в текущих приложениях прирост производительности не оправдает ожиданий некоторых пользователей.

Но мы в очередной раз напоминаем, что в этом поколении GPU компания Nvidia сделала ставку на абсолютно новые типы исполнительных блоков, добавив специализированные RT-ядра и тензорные ядра для ускорения трассировки лучей и задач искусственного интеллекта. Пока что в играх эти технологии почти не применяются, так что и преимуществ семейству Turing они сейчас не дают, но в ближайшем будущем поддержка трассировки лучей появится в играх, да и сглаживание методом DLSS получит более широкое распространение. Как с такими задачами справится новинка, можно посмотреть по тесту трассировки лучей и обновленному бенчмарку Final Fantasy XV.

Кроме этого, синтетику всегда нужно переносить на игры с определенным пониманием причин и следствий. Разобравшись в которых, становится понятно, что у GeForce RTX 2080 есть и весьма сильные, и относительно слабые стороны. Даже в существующих игровых приложениях GeForce RTX 2080 должна показать достаточно высокую скорость примерно на уровне GeForce GTX 1080 Ti или даже несколько выше. Это, правда, порадует не всех, так как цены на эти решения отличаются не в пользу новинки. Впрочем, зато у нее есть и определенный задел на будущее и потенциал для снижения цены.

Мы уже писали, что цена — главный спорный момент поколения GeForce RTX. Цены на новинки пока что действительно высоки, и хотя этому есть куча объяснений (отсутствие конкуренции, высокая себестоимость и т. д.), но при цене на GeForce RTX 2080 выше, чем у GTX 1080 Ti, многие задумаются — а нужны ли им вообще новые возможности, которые еще даже не раскрыты в играх? И будут по-своему правы. Конечно, многие видеокарты RTX будут в любом случае куплены энтузиастами, которые всегда покупают лучшее и новое, но таких людей ограниченное количество.

В свою очередь, мы будем надеяться и на снижение цен со временем, и на большие тиражи и продажи семейства GeForce RTX, так как оно действительно инновационное по многим причинам. Мало того, что RTX 2080 даст отличную производительность в широком круге задач на уровне топовой модели предыдущего поколения или чуть выше, так еще и предложит интересные новые возможности, которые будут раскрыты в игровых проектах следующих месяцев и лет. Для того, чтобы облегчить ваше решение, перейдем к тестам производительности в существующих играх.

Игровые тесты

Конфигурация тестового стенда
  • Компьютер на базе процессора AMD Ryzen 7 1800X (Socket AM4):
    • процессор AMD Ryzen 7 1800X (o/c 4 ГГц);
    • СО Antec Kuhler H2O 920;
    • системная плата Asus ROG Crosshair VI Hero на чипсете AMD X370;
    • оперативная память 16 ГБ (2×8 ГБ) DDR4 AMD Radeon R9 UDIMM 3200 МГц (16-18-18-39);
    • жесткий диск Seagate Barracuda 7200.14 3 ТБ SATA2;
    • блок питания Seasonic Prime 1000 W Titanium (1000 Вт);
    Список инструментов тестирования

    Во всех играх использовалось максимальное качество графики в настройках.

    • Wolfenstein II: The New Colossus (Bethesda Softworks/MachineGames)
    • Tom Clancy’s Ghost Recon Wildlands (Ubisoft/Ubisoft)
    • Assassin’ Creed: Origins (Ubisoft/Ubisoft)
    • BattleField 1 (EA Digital Illusions CE/Electronic Arts)
    • Far Cry 5 (Ubisoft/Ubisoft)
    • Shadow Of The Tomb Raider (Eidos Montreal/Square Enix) — HDR включен
    • Total War: Warhammer II (Creative Assembly/Sega)
    • Ashes Of The Singularity (Oxide Games, Stardock Entertainment/Stardock Entertainment)

    Следует отметить, что в самой новой игре Shadow Of The Tomb Raider мы использовали HDR как ключевое расширение функциональности. Исследование показало, что активация HDR оказывает незначительное действие на производительность. Визуально же мы можем увидеть некоторые отличия.

    ​​​​HDR выключен ​​​​HDR включен ​​​​HDR выключен ​​​​HDR включен ​​​​HDR выключен ​​​​HDR включен ​​​​HDR выключен ​​​​HDR включен

    Видеоролик demo1, HDR выключен:

    Видеоролик demo1, HDR включен:

    Видеоролик demo2, HDR выключен:

    Видеоролик demo2, HDR включен:

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +36,7 +36,8
    GeForce RTX 2080 GeForce GTX 1080 Ti +6,3 +4,0
    GeForce RTX 2080 Radeon RX Vega 64 +17,5 +25,8

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +42,0 +39,1
    GeForce RTX 2080 GeForce GTX 1080 Ti +29,2 +14,3
    GeForce RTX 2080 Radeon RX Vega 64 +33,7 +25,5

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +46,0 +48,6
    GeForce RTX 2080 GeForce GTX 1080 Ti +17,9 +10,0
    GeForce RTX 2080 Radeon RX Vega 64 +41,5 +31,0

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +41,3 +40,8
    GeForce RTX 2080 GeForce GTX 1080 Ti +4,7 +1,5
    GeForce RTX 2080 Radeon RX Vega 64 +32,9 +21,1

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +36,3 +46,3
    GeForce RTX 2080 GeForce GTX 1080 Ti +11,2 +15,4
    GeForce RTX 2080 Radeon RX Vega 64 +16,0 +22,4

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +45,5 +46,9
    GeForce RTX 2080 GeForce GTX 1080 Ti +16,4 +9,3
    GeForce RTX 2080 Radeon RX Vega 64 +39,1 +34,3

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +46,9 +48,1
    GeForce RTX 2080 GeForce GTX 1080 Ti +2,9 +8,1
    GeForce RTX 2080 Radeon RX Vega 64 +60,0 +81,8

    Разница в производительности, %

    Исследуемая карта Карта, с которой идет сравнение 2560×1440 3840×2160
    GeForce RTX 2080 GeForce GTX 1080 +34,8 +49,3
    GeForce RTX 2080 GeForce GTX 1080 Ti 0,0 +2,0
    GeForce RTX 2080 Radeon RX Vega 64 +25,0 +22,0

    Рейтинг iXBT.com

    Рейтинг ускорителей iXBT.com демонстрирует нам функциональность видеокарт друг относительно друга и нормирован по самому слабому ускорителю — Radeon R7 240 (то есть сочетание скорости и функций R7 240 приняты за 100%). Рейтинги ведутся по 20 ежемесячно исследуемым нами акселераторам в рамках проекта Лучшая видеокарта месяца. Из общего списка выбирается группа карт для анализа, куда входят RTX 2080 и его конкуренты. Для расчета рейтинга полезности использованы розничные цены на начало октября 2018 года.

    Модель ускорителя Рейтинг iXBT.com Рейтинг полезности Цена, руб.
    02 RTX 2080 8 ГБ, 1515—1950/14000 1570 263 59 700
    03 GTX 1080 Ti 11 ГБ, 1480—1885/11000 1330 238 56 000
    04 RX Vega 64 8 ГБ, 1250—1630/1890 1170 239 49 000
    05 GTX 1080 8 ГБ, 1607—1885/10000 1130 297 38 000

    Что мы получили? В среднем по всем играм и разрешениям прирост относительно GTX 1080 — около 38%, относительно RX Vega 64 — 31%. Если же выйти за рамки списка официальных конкурентов новинки (в соответствии с позиционированием самой Nvidia), то RTX 2080 обходит и топовый ускоритель предыдущего поколения — GTX 1080 Ti, но уже всего на 10%. Мы видим, что новая пара ускорителей RTX 2080/Ti обеспечила в целом очень приличный прирост производительности. Конечно, ускорители уровня RTX 2080 рассчитаны на использование в разрешениях от 2560×1440 и выше, результаты даже в Full HD не очень интересны, но и в разрешении 2.5К RTX 2080 в среднем обходит GTX 1080 Ti на 11%, RX Vega 64 — на 33%, а GTX 1080 — на все 41%. Если раньше мы могли утверждать, что GTX 1080 не годится для разрешения 4K, то теперь его формальный наследник RTX 2080 выдает приличную производительность во многих играх даже в разрешении 4К.

    Рейтинг полезности

    Рейтинг полезности тех же карт получается, если показатели предыдущего рейтинга разделить на цены соответствующих ускорителей. Для ускорителей топового уровня этот рейтинг не очень показателен, такие карты не выпускаются массовыми тиражами и нацелены прежде всего на энтузиастов, а в рейтинге полезности их на голову обходят середняки и иногда даже чуть ли не бюджетные решения.

    Модель ускорителя Рейтинг полезности Рейтинг iXBT.com Цена, руб.
    14 GTX 1080 8 ГБ, 1607—1885/10000 297 1130 38 000
    15 RTX 2080 8 ГБ, 1515—1950/14000 263 1570 59 700
    17 RX Vega 64 8 ГБ, 1250—1630/1890 239 1170 49 000
    18 GTX 1080 Ti 11 ГБ, 1480—1885/11000 238 1330 56 000

    Полагаем, что и тут комментарии излишни. Очевидно, что следует подождать наполнения рынка новыми продуктами, к тому же серия GTX 1070/1080 уже активно покидает рынок, поэтому цены на них могут сильно колебаться.

    Выводы

    Nvidia GeForce RTX 2080 на сегодня второй по скорости ускоритель игрового класса для разрешения 2.5К (не говоря уже про Full HD), к тому же он, как и RTX 2080 Ti, самый высокотехнологичный. Сравнения с решениями предыдущего поколения в 3D-играх здесь недостаточно, это не GTX, а RTX! Это годы работы большого коллектива над новой архитектурой, это снова позиция у руля технологий (как во времена GeForce256 в 1999 году). В общем. в обзоре по RTX 2080 Ti мы все это уже писали. Еще раз хочется высказать надежду, что новшества типа блока трассировки лучей, «умные» тензорные ядра реально помогут в ближайшем будущем разработчикам сделать игры более захватывающими в плане графики (напомню про ощущения искреннего восторга от картинки при игре в Shadow Of The Tomb Raider с включенным HDR).

    Стоит также еще раз отметить, что объявленная цена на новые ускорители (в т. ч. и на RTX 2080) многих очень неприятно удивила, потому что уже много лет соблюдалась традиция: цены новых топовых видеокарт плюс-минус равнялись начальным ценам предыдущих флагманов. Мы уже писали, что, к сожалению, компания AMD пока взяла тайм-аут в области дискретной графики, и следующие их решения ожидаются не ранее 2019 года, поэтому у Nvidia в принципе нет ограничителя в виде цен на конкурирующие продукты. Однако такими ценами можно быстро «отбить» многомиллионные затраты на разработку Turing, а можно и получить потерю спроса (покупатели предпочтут взять GTX 1080/Ti, хоть бы и на вторичном рынке), а также интереса разработчиков/издателей игр, которые тщательно следят за распространенностью новых видеокарт (какой смысл реализовывать новые технологии в играх, если мало кто сможет воспользоваться ими по причине скудной распространенности соответствующих 3D-ускорителей?). Надеемся, что в Nvidia не ошиблись, установив такие цены на момент начала продаж, и любители 3D-игр на ПК все же смогут купить если и не RTX 2080 Ti, то RTX 2080 или RTX 2070. И мы более чем уверены, что по мере наполнения рынка картами 2000-й серии цены пойдут вниз, опустившись в конце концов до начальных рекомендованных цен на соответствующие ускорители 1000-й серии. Ну и скажем банальное: все желания производителей жестко контролируются рынком, то есть нашим с вами спросом. Так что желающим повозмущаться ценовой политикой можем лишь посоветовать просто подождать.

    Итак, что мы имеем: RTX 2080 демонстрирует приличный прирост производительности в старших разрешениях даже в обычных (без HDR/RT) играх относительно своего формального предка — GTX 1080, а также обходит на 10% и былой флагман GTX 1080 Ti (не говоря уже о самом быстром на сегодня продукте AMD — Radeon RX Vega64, который отстает от RTX 2080 минимум на 30%). Как и в случае с RTX 2080 Ti, новый антиалиасинг DLSS продемонстрировал свое преимущество и по скорости, и по качеству. Плюс есть огромный задел для использования разработчиками игр технологии трассировки лучей, а также ИИ с помощью тензорных ядер (наглядный пример такой реализации — как раз DLSS). Новый ускоритель предлагает обновленный интерфейс VirtualLink для связи с устройствам виртуальной реальности нового поколения (VR никуда не делся, не умер, просто ожидается очередной скачок технологий). Если найдутся фанаты, которым будет мало даже такого ускорителя, они могут купить два и соединить их в SLI (тогда производительность в разрешении 4К должна стать просто сказочной). Стоит заметить, что прошлые «мостики» SLI тут уже не подойдут: нужны новые NVLink.

    Еще раз хочется похвалить обновленный дизайн карты Founder’s Edition. Не секрет, что компания Nvidia решила более активно выводить на рынок карты под собственным брендом, создавая, по сути, конкуренцию своим партнерам. И тут пока ситуация непонятная, поскольку карты Founder’s Edition имеют частоты, повышенные относительно некоего референса, которого никто в глаза не видел. В результате партнерские карты разогнанных серий, типа Asus Strix и Aorus OC, будут находиться на одном уровне производительности с картами Nvidia Founder’s Edition, которые мы привыкли считать эталоном и как раз референсными.

    Стоит также отметить мечту оверклокеров средней руки (матерых, стремящихся к установке рекордов с жидким азотом и помиранием «железа», мы не считаем) — Nvidia Scanner. Технология простая, как пробка: нажал на кнопку — и жди, оно само покрутит колесики и выдаст вам максимум скорости в разгоне.

    В номинации «Оригинальный дизайн» карта Nvidia GeForce RTX 2080 (Founder’s Edition) получила награду:

    Благодарим компанию Nvidia Russia
    и лично Ирину Шеховцову
    за предоставленную на тестирование видеокарту

    Для тестового стенда:
    блок питания Seasonic Prime 1000 W Titanium предоставлен компанией Seasonic

    RTX 2080 Ti появилась в продаже, 2080 продолжает дешеветь

    monk70

    Старт продаж видеокарт RTX 2080 Ti и RTX 2080 официально состоялся 20 сентября, однако российским игрокам была доступна только младшая модель, да и та не отличалась демократичной ценой. К счастью, дефицит удалось быстро преодолеть. "Королева видеокарт" RTX 2080 Ti сегодня добралась до московских прилавков. Обеспеченные энтузиасты прямо сейчас могут приобрести её через сайт за 98.000 рублей. Правда, магазин уже закрыт, поэтому самым нетерпеливым из них придётся встать рано утром, одеться потеплее и к 10 часам отправиться на штурм ТЦ "Савёловский".

    Для ценителей карт из "зелёного лагеря", которым такая сумма не по карману или возможности 2080 Ti кажутся избыточными, тоже есть хорошая новость. Модель RTX 2080 продолжает дешеветь. Ещё в воскресенье её стоимость начиналась от 66.600 руб, а сейчас упала почти на 4000 руб. Таким образом, цена впервые опустилась ниже 64.000 руб, которые просит NVidia в своём фирменном магазине.

    Nvidia представила новые графические карты RTX 2080 и 2080 Ti: сроки и цены

    Сегодня компания представила новейшие видеокарты линейки «Founders edition» 20-й серии и подтвердила официальный выход на рынок 20 сентября для двух моделей (RTX 2080 и 2080 Ti). «Урезанный» вариант модели под названием RTX 2070 будет доступен позднее. Цены на комплектующие распределились таким образом: 47 990 рублей производитель просит за RTX 2070, 63 990 за RTX 2080 и 95 990 за RTX 2080 Ti.

    Новые видеокарты можно предзаказать уже сейчас. Почти за сто тысяч рублей 2080 Ti Founders Edition предлагает 11 ГБ оперативной памяти GDDR6, работающей на базовых тактовых частотах 1350 МГц с разгоном до 1635 МГц. Кроме того, карта получила 4352 ядра CUDA и 352-битную шину памяти со скоростью 616 ГБ/с.

    Более доступная 2080 Founders Edition на самом деле работает даже быстрее — с тактовой частотой 1800 МГц, но получила всего 8 ГБ оперативной памяти GDDR6. Эта память имеет 256-битную шину со скоростью 448 ГБ/с, а карта — 2944 ядра CUDA. Nvidia обещает «шестикратно возросшую производительности по сравнению с предыдущем поколением» и трассировку лучей в реальном времени.

    Эта технология позволяет в реальном времени обрабатывать отражения световых лучей и другие кинематографические эффекты, которые помогут сделать игры намного более похожими на фильмы. Ray-tracing —это то, что геймерам обещают уже годами, и теперь Nvidia, похоже, наконец донесла технологию до масс.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *