Подробнее об архитектуре Ada Lovelace и DLSS 3.0

Предыдущее поколение под называнием Ampereмногие справедливо называли революцией. NVIDIA одной из первых стала подвязывать к своему железу нейросети и алгоритмы машинного обучения, а результатом этих экспериментов стала шикарная штука под названием Deep Learning Super Sampling (или просто DLSS). Это так называемый алгоритм суперсемплирования, который апскейлит изображение в стиле современных ТВ-процессоров, одновременно увеличивает количество FPS и повышает четкость и разрешение картинки. При разработке Ada Lovelace инженеры NVIDIA сосредоточились на доработке имеющихся технологий.

В частности была представлена третья версия DLSS со встроенным оптимайзером NVIDIA Reflex, которая, по словам представителей NVIDIA, способа искусственно поднять частоту кадров в 2 – 4 (!) раза. В отличие от старых версия, DLSS 3.0 не просто дорисовывает пиксели в уже имеющихся кадрах, но и самостоятельно генерирует целые промежуточные кадры. Для этого DLSS научили работать с четырьмя типами данных (кадры, оптический поток, векторы движения и глубины), благодаря чему выросла точность и эффективность движка. Затем встроенный в DLSS 3 алгоритм анализирует данные всех четырех типов и выбирает самые подходящие для каждого конкретного кадра.

Производительность DLSS 3.0 в играх.

Нужно отметить, что поле оптического потока — это совершенно новый концепт в сфере масштабирования, за который отвечает отдельный аппаратный ускоритель. Его суть сводится к поиску и выявлению связей между перемещениями пикселей и объектов в последующих кадрах. Сопоставление этих данных с данными о движении и динамике позволит более точно воссоздавать изменения в геометрии сцены. Именно из-за этой фичи поддержку DLSS добавили только новым видеокартам. По словам представителей NVIDIA, геймеры с карточками RTX 30XX во время бета-тестов регулярно сталкивались с лагами и артефактами при активации DLSS 3.0, поэтому эту опцию решили убрать. На время ли или навсегда ― пока не знают даже в NVIDIA.

Работу DLSS 3.0 продемонстрировали на примере Cyberpunk 2077 и Microsoft Flight Simulator. В первом случае частоту кадров удалось повысить в 4 раза, во втором — в 2. Связано это с тем, что производительность Flight Simulator сильно зависима от процессора. А вот что вообще непонятно, почему на флагманской видеокарте 2022 года Cyberpunk 2077 выдает 22 FPS? Есть подозрение, что в NVIDIA включили лагающий overdrive raytracing mode, чтобы сравнения выглядело более эффектно.

Во время анонса нового поколения ребята из NVIDIA решили немного схитрить, воспользовавшись своим опытом разработки мобильных видеокарт. Поэтому некоторые важные технические детали попали в прессу лишь спустя сутки после анонса. Изначально было известно, что флагманская RTX 4090 построена на базе графического чипа AD102. И из этого следовало предположение, что обе версии RTX 4080 основаны на том же GPU, верно? Так ведь?

Как оказалось, нет. Следим за руками. Версия RTX 4080 12GB включает в себя 7680 ядер CUDA, разрядность шины составляет 192-бита. В свою очередь RTX 4080 16GB несет на борту 9728 CUDA-ядер, а разрядность шины повышена до 256-бит. То есть по факту это, как бы, разные видеокарты с одинаковой фамилией. И если заглянуть под капот, то основаны они на разных GPU. Версия на 16 ГБ построена на чипе AD103, а 12-гигабайтная вариация базируется на чипе прошлого поколения GA104, который использовался в RTX 3070.

С целью сокрытия мухлежа, в NVIDIA слегка задрали тактовые частоты 12-гигабайтной версии, чтобы она смотрелась более выгодно на фоне старшего брата. Так в штатном режиме она работает на частоте 2.31 ГГц, а при необходимости может автоматически разгоняться до 2.61 ГГц. Для сравнения RTX 4080 16 GB оперирует на частотах в диапазоне от 2.21 до 2.51 ГГц, но у нее шире другое ядро, шире шина и больше CUDA-ядер, поэтому и производительность повыше. Но если этого не знать и привычно смотреть лишь на частоты, то может показаться, что младшая модель даже мощнее. Хотя на самом деле версию на 12 ГБ честнее было бы назвать RTX 4070 и не лукавить, но в таком случае ее было бы сложно продавать за 900 долларов.

RTX 4080 c 16 ГБ видеопамяти относится к среднему уровню, во многом обходя младшую версию RTX 4080 c 12 ГБ, но при этом существенно уступая флагманской RTX 3090 с 24 ГБ видеопамяти G6X. При производстве инженеры NVIDIA использовали новые потоковые мультипроцессоры и тензорные ядра четвертого поколения, благодаря которым вдвое выросла эффективность встроенных алгоритмов суперсемплинга.

Несмотря на новую архитектуру (Ada Lovelace, техпроцесс TSMC 5 нм) с точки зрения дизайна RTX 4080 во многом повторяет предшественника в лице RTX 3080. Массивную печатную плату накрывает комплексная система охлаждения, сама карточка занимает несколько слотов материнской платы, а для обработки освещения и отражения в ней предусмотрены отдельные RT-ядра третьего поколения. А вот в качестве основы используется совершенно новый кристалл AD103 с 9728 ядрами CUDA, буфером GDDR6X и пропускной способностью на уровне 720 Гбайт/с. По заявлению все это добро оказывается в 2 – 3 раза быстрее предшественника RTX 3080 Ti. Рекомендованная стоимость модели составляет $1199.

Версия RTX 4080 16GB в исполнении MSI в техническом плане соответствует референсному образцу, а вот все остальное переделали. В частности штатную систему охлаждения заменили радиатором с тремя вентиляторами Torx Fan четвертого поколения, конструкцию усилили металлическими бекплейтами, а всю подсветку отправили под нож, чтобы не смущать геймеров ценниками.

+6 фото
+1 видео

RTX 4090 ― это флагманская видеокарта с запредельной производительностью по меркам 2022 года. В ней использует новый кристалл AD102 с 16 384 ядрами CUDA, и поддержкой 384-разрядной шиной памяти. Объем видеобуфера достигает внушительных 24 ГБ памяти GDDR6X c пропускной способностью 1008 Гбайт/с.

При ее производстве были использовали новые потоковые мультипроцессоры, тензорные ядра четвертого поколения и RT-ядра класса 3.0, благодаря которым существенно выросла эффективность трассировки лучей и искусственного масштабирования изображения. Вычислительная мощность этой махины достигает 83 Тфлопс, а преимущество в игровой производительности над картами прошлого поколения может быть четырехкратным.

Во время анонса Дженсен Хуанг сделал акцент на том, что это идеальная карточка не только для геймеров, но и для создателей контента. Поэтому RTX 4080 может похвастаться наличием энкодеров NVIDIA, поддержкой приложения NVIDIA Broadcast и интеграцией с графической платформой NVIDIA Studio. Также в драйверы видеокарты вшили поддержку комплексной технологии NVIDIA Reflex для снижения задержки ввода. Все это вылилось в довольно высокую рекомендованную цену ― $1599.

Для модификации GAMING TRIO инженеры MSI переработали кожух и систему охлаждения, добавив в конструкцию массивный металлический бэкплейт и три фирменных вентилятора TORX Fan пятого поколения. Дополнительно видеокарту украсили светодиодами с поддержкой системы MSI Mystic Light и двойным BIOS для быстрого переключения между настройками.

Производительность в играх

Сравнение производительности с прошлым поколением видеокарт NVIDIA.

Игровая производительность новинок определенно впечатляет, но пока нет честных тестов, а только официальная инфа, воспринимать ее лучше с долей скептицизма. В частности, в комментариях под одним из демо-роликов Cyberpunk у людей буквально полыхает от того, что в NVDIA намеренно включают ненужные графические настройки типа RT Override, чтобы намерено снизить частоту кадров, а потом искусственно повысить ее с помощью DLSS 3.0 и гордо заявить, что «карточки RTX 40XX в 4 раза мощнее предшественников, бегом в магазин. Извините за брюзжание.

Согласно предварительным данным RTX 4090 показывает результаты в 1.5 – 2 раза выше, чем RTX 3090 Ti. Тесты проводились в Assassin’s Creed Valhalla, Resident Evil Village и Microsoft Flight Simulator. В некстген играх с акцентом на освещении и трассировки лучей RTX 4090 имеет почти четырехкратное преимущество над RTX 3090 Ti. Связано ли это с DLSS 3.0 или нет в NVIDIA не уточнили.

RTX 4080 с 16 ГБ в играх старого поколения без рейтрейсинга опережает RTX 3090 Ti в среднем в полтора раза. С включенным рейтрейсингом и DLSS разница в производительности может быть двух или трехкратной. Серьезный результат. По сути настоящей альтернативой старичку RTX 3090 Ti является младшая модель GeForce RTX 4080 с 12 ГБ видеопамяти. В обычных тестах они идут ноздря в ноздрю, а разница в FPS редко превышает 10 кадров. При активации рейтрейсинга и DLSS 3.0 новинка включает форсаж и уносится вперед на вдвое большей скорости.

Прочие технические нюансы

Эволюция видеокарт RTX.

После публикации всех технических характеристик на сайте NVIDIA оказалось, что новинки будут совместимы со старыми блоками питания. Согласно предварительным сливам следующее поколение RTX должно было перейти на блоки питания нового формата с разъёмом PCI-E пятого поколения. На деле оказалось, что RTX 4090 и RTX 4080 рассчитаны и на использование старых 8-пиновых разъемов, и на новые разъёмы PCI-E 5.

Энергопотребление карточек выросло, но далеко не так сильно, как пугали инсайдеры. Согласно официальным данным флагманская RTX 4090 с 24 ГБ видеопамяти потребляет 450 Вт (прим: для всей системы рекомендуется БП на 850 Вт), в то время как RTX 4080 требуется от 285 до 320 Вт (зависит от объема видеопамяти). И это хорошие новости, ведь видеокарты RTX 30XX потребляли практически такое же количество энергии, поэтому большинству людей не придется заморачиваться с апгрейдом блока питания. Также в NVIDIA упомянули, что не исключают появление специальных разгонных версий с энергопотреблением под 600 Вт, однако если это случится, то это будет штучная продукция для энтузиастов.

Все новинки оснащены современными портами HDMI 2.1a и поэтому способны на передачу HDR-видео в разрешении 4K с частотой обновления 120 Гц, что полностью отвечает требованиям некстген игр. А вот обещанного инсайдерами интерфейса DisplayPort 2.0 тут не оказалось, вместо него используется версия DP 1.4a.

Послесловие

Тот же дизайн, что и в прошлом поколении.

У NVIDIA в очередной раз получилась линейка технически продвинутых видеокарт с серьезной производительностью и кучей дополнительных плюшек на борту (DLSS, Ray Tracing, Reflex и т.д.). А конкурентам в очередной раз придется копировать, упрощать и догонять. Проблема в том, что NVIDIA слишком долго сидит на троне, слегка забронзовела и, судя по ценам, окончательно потеряла связь с игроками. Комментарии под новостями и первыми обзорами буквально завалены хейтом от бывших поклонников бренда, которые искренне не понимают, как потребительская, пускай и очень мощная, видеокарта может стоить почти 2 тысячи долларов, хотя еще в доковидные времена за эти деньги можно было собрать серьезный игровой ПК, да еще немного осталось бы на монитор.