Nvidia gtx titan


Nvidia Geforce Titan:

Новый однопроцессорный флагман 3D-графики игрового класса

Содержание

Несмотря на самые мрачные прогнозы, предвещающие рынку ПК тяжелые времена, бизнес продолжается и даже развивается. Пусть в IT-индустрии доля, выпадающая на производство комплектующих для ПК, уменьшается, но она еще очень велика, да и не упадет так катастрофично, как уже кричат истеричные аналитики и псевдоэксперты. Выпуск новинок для этого сегмента рынка был, есть и будет.

И вот сегодня мы будем изучать новый флагман Nvidia — однопроцессорное решение, призванное не только победить всех конкурентов среди ускорителей с одним GPU, но и вплотную приблизиться к производительности нынешних двухпроцессорных королей. Почему «королей», а не «короля» (в условиях официального выпуска только одного продукта — Geforce GTX 690)? Потому что уже есть Asus ARES II (два Radeon HD 7970 GHz на одной плате), да и официальный выпуск Radeon HD 7990 очень близок. Итак, о новинке расскажет Алексей Берилло.

Часть 1: Теория и архитектура

Ну вот мы и дождались настоящего топового решения компании Nvidia. Анонсированная недавно модель Geforce GTX Titan, которую мы сегодня рассматриваем, основана на самом мощном графическом процессоре и предназначена для экстремальных игровых ПК максимальной мощности. Компания Nvidia делает серьезную ставку на энтузиастов, предполагая широкое распространение и многочиповых систем, в том числе 3-way SLI из трех видеокарт Geforce GTX Titan, но также предполагается и применение новой модели в компактных игровых ПК — так называемых моделях small form factor (SFF).

Новая видеокарта базируется на долгожданном графическом чипе Nvidia GK110, который еще давно должен был стать основой топовых решений компании, но по некоторым причинам так и не стал. В свое время представители Nvidia высказывались на тему того, что на рынке игровых видеокарт для успешной конкуренции им хватит и графического процессора, предназначавшегося изначально для верхнего/среднего ценового уровня — GK104. Собственно, практика показала, что они не ошиблись, Geforce GTX 660 Ti, GTX 670 и GTX 680 успешно конкурировали с предложениями AMD на рынке видеокарт, а двухчиповая GTX 690 стала быстрейшей видеокартой вообще.

Но время шло, конкурент успел вывести на рынок свое наиболее мощное одночиповое решение — Radeon HD 7970 GHz, и Nvidia все-таки решила выпустить решения на базе GK110 и на игровой рынок. Ранее такие платы вышли для профессиональных применений в неграфических вычислениях в виде продуктов серии Tesla, а теперь и время Geforce подошло. Вероятно, и с производством сложных чипов на TSMC стало попроще, да и заинтересовывать застоявшийся рынок какими-то новыми продуктами нужно, даже если у них нет конкурентов.

Естественно, что у Nvidia получилась весьма производительная видеокарта. Если немного забежать вперед, то можно выделить, что чип GK110 отличается огромной вычислительной мощью, он включает 14 мультипроцессоров SMX, содержащих 2688 потоковых вычислительных ядер, что в итоге дает пиковую производительность до 4,5 терафлопс для расчетов с одинарной точностью (FP32) и до 1,3 терафлопс для расчетов с двойной точностью (FP64). Но возросли не только вычислительные способности, Geforce GTX Titan также имеет 6 гигабайт видеопамяти, соединенной с GPU при помощи 384-битной шины памяти, что дает возможность использования сверхвысоких разрешений и максимальных уровней полноэкранного сглаживания, а также максимальных графических настроек в любых приложениях.

Кроме этого, для Geforce GTX Titan была улучшена технология GPU Boost, получившая в итоге версию 2.0, а также разработано новое высокоэффективное устройство охлаждения, которое отличается улучшенными акустическими характеристиками. Обещается, что все это обеспечивает не только высочайшую производительность, но и тихую работу при высокой энергоэффективности. Но давайте обо всем по порядку…

Так как рассматриваемая сегодня видеокарта Nvidia основана на базе графического процессора архитектуры «Kepler», о которой мы уже не раз подробно рассказывали и которая близка к родственной архитектуре «Fermi», то читателям будет полезно ознакомиться со статьями и о более ранних моделях графических решений компании:

  • [31.10.12] Nvidia Geforce GTX 650 Ti — соперник GTX 560, значительно опережающий GTX 550 Ti
  • [13.09.12] Nvidia Geforce GTX 660 — хороший добротный современный середнячок
  • [10.05.12] Nvidia Geforce GTX 670 — 7/8 от однопроцессорного лидера GTX 670: много это или мало?
  • [22.03.12] Nvidia Geforce GTX 680 — новый однопроцессорный лидер 3D-графики
  • [09.11.10] Nvidia Geforce GTX 580 — новый король 3D-графики на закате 2010 года
  • [27.03.10] Nvidia Geforce GTX 480 — архитектура нового графического процессора изнутри; как реализована поддержка DirectX 11

А сейчас давайте рассмотрим подробные характеристики недавно анонсированной видеоплаты Geforce GTX Titan, основанной на топовом графическом процессоре GK110.

Графический ускоритель Geforce GTX Titan

  • Кодовое имя чипа GK110;
  • Технология производства 28 нм;
  • 7,1 миллиардов транзисторов;
  • Унифицированная архитектура с массивом процессоров для потоковой обработки различных видов данных: вершин, пикселей и др.;
  • Аппаратная поддержка DirectX 11 API, в том числе шейдерной модели Shader Model 5.0, геометрических и вычислительных шейдеров, а также тесселяции;
  • 384-битная шина памяти, шесть независимых контроллеров шириной по 64 бита каждый, с поддержкой GDDR5-памяти;
  • Частота ядра 836 (турбочастота — 876) МГц;
  • 15 потоковых мультипроцессоров, включающих 2880 скалярных ALU для расчетов с плавающей запятой одинарной точности (FP32) и 960 скалярных ALU для расчетов двойной точности (FP64) в рамках стандарта IEEE 754-2008;
  • 240 блоков текстурной адресации и фильтрации с поддержкой FP16- и FP32-компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
  • 6 широких блоков ROP (48 пикселей) с поддержкой режимов сглаживания до 32 выборок на пиксель, в том числе при FP16- или FP32-формате буфера кадра. Каждый блок состоит из массива конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг;
  • Интегрированная поддержка RAMDAC, двух портов Dual Link DVI, а также HDMI и DisplayPort;
  • Интегрированная поддержка 4 мониторов, включая два порта Dual Link DVI, а также HDMI 1.4a и DisplayPort 1.2;
  • Поддержка шины PCI Express 3.0.
Спецификации референсной видеокарты Geforce GTX Titan
  • Частота ядра 836 (876) МГц;
  • Количество универсальных процессоров 2688;
  • Количество текстурных блоков — 224, блоков блендинга — 48;
  • Эффективная частота памяти 6000 (1500×4) МГц;
  • Тип памяти GDDR5, 384-битная шина памяти;
  • Объем памяти 6 ГБ;
  • Пропускная способность памяти 288,4 ГБ/с;
  • Вычислительная производительность (FP32/FP64) 4,5/1,3 терафлопс;
  • Теоретическая максимальная скорость закраски 40,1 гигапикселей в секунду;
  • Теоретическая скорость выборки текстур 187,3 гигатекселей в секунду;
  • Два разъема Dual Link DVI-I, один mini HDMI, один DisplayPort 1.2;
  • Шина PCI Express 3.0;
  • Энергопотребление до 250 Вт;
  • Один 8-контактный и один 6-контактный разъемы питания;
  • Двухслотовое исполнение;
  • Рекомендуемая цена для рынка США — $999 (для России — 34990 руб).

Nvidia отошла от своего принципа наименования видеокарт для Titan, но в подобной эксклюзивной модели вполне можно пойти на такой шаг. Единственная исключительная модель получила слово, а не цифры в конце названия, что отличает новинку от всех видеокарт линейки Geforce GTX 600. Ускоритель вычислений Nvidia Tesla K20X также основан на наиболее мощном чипе семейства Kepler, содержащем 2688 вычислительных CUDA-ядер, и вообще — это почти что близнец вышедшей игровой карты на этом же GPU, который применяется в быстрейшем суперкомпьютере мира под названием Titan. Поэтому неудивительно, что Nvidia решила назвать свою игровую карту Geforce GTX Titan, чтобы рынок ассоциировал их игровые решения с успешными суперкомпьютерными.

На рынке Geforce GTX Titan не заменяет никакую модель видеокарты в линейке компании Nvidia, а будет сосуществовать с двухчиповой Geforce GTX 690 в самых верхних ее строчках. Модель GTX 690 будет продолжать производиться и продаваться, так как эти две видеокарты друг другу ничуть не мешают — они очень разные. Geforce GTX 690 лучше подходит для одних целей, когда важен максимальный FPS, несмотря на объективные недостатки мультичипового AFR-рендеринга, а Titan лучше подойдет в качестве универсального решения с большим объемом локальной памяти и быстрым к ней доступом, что скажется в сверхвысоких разрешениях. Кроме того, Titan компактнее и требует меньше энергии, поэтому подойдет для большего количества систем, а еще он тише и предлагает дополнительные возможности вроде GPU Boost 2.0 и полноскоростных вычислений с двойной точностью.

Что касается решений конкурента — компании AMD — то вполне понятно, что новая Geforce GTX Titan осталась без прямого соперника. У AMD просто нет чипов такой сложности, да даже и официальной двухчиповой платы на менее сложных пока что не существует, хотя партнеры компании и предлагают подобные модели, в т. ч. совсем уж экстремальные варианты, вроде Asus Ares II с тремя 8-контактными (!!!) разъемами питания. Прямого соперника для Titan в линейке Radeon HD 7000 можно и не ждать, хотя официальная двухчиповая модель вроде Radeon HD 7990 все же ожидается.

В отличие от предыдущих быстрейших видеокарт на базе одного GPU компании Nvidia последнего поколения, Titan сделан на базе чипа GK110 и имеет 384-битную шину памяти. Поэтому объем установленной на нее видеопамяти теоретически мог быть равен 3 или 6 ГБ. В случае столь дорогой и элитной модели установка 6 ГБ памяти совершенно оправдана, хотя из практических соображений было бы вполне достаточно и 3 ГБ. Но ведь это ровно как у лучших моделей конкурента, ставить с которыми Titan на одну полку Nvidia явно не хочет. Ну и для серьезных вычислений объем в 6 ГБ может быть вполне актуальным. Так что даже в условиях самых требовательных приложений и максимальных настроек качества с полноэкранным сглаживанием любого уровня видеопамяти у Titan всегда хватит.

Конструкция платы и системы охлаждения

Длина платы Geforce GTX Titan — 10,5 дюймов (267 мм), для питания она использует один 8-контактный и один 6-контактный разъемы от блока питания. Для вывода изображения используется стандартный набор из двух разъемов Dual-Link DVI, одного HDMI и одного разъема DisplayPort.

Дизайн корпуса Geforce GTX Titan схож с дизайном другой топовой видеокарты Nvidia — Geforce GTX 690. Выглядит плата в целом очень солидно, и качество сборки и материалов на уровне. Понятно, что для премиум-сегмента принято использовать соответствующие материалы, и инженеры Nvidia решили накрыть конструкцию «Титана» алюминиевой крышкой. В центре крышки есть прозрачное пластиковое окно, открывающее пытливому взору чудесный вид на испарительную камеру и двухслотовый алюминиевый радиатор, участвующий в охлаждении чипа GK110.

Логотип Geforce GTX на боковом торце видеокарты имеет светодиодную подсветку. Она служит также индикатором включения, а интенсивность подсветки светодиодами можно отрегулировать вручную, используя специальное ПО от партнеров Nvidia. Можно даже настроить светодиоды так, чтобы интенсивность их свечения изменялась в зависимости от нагрузки на GPU.

Так как Geforce GTX Titan спроектирован и предназначен для энтузиастов и любителей выжать из системы все до последнего, это не могло не сказаться на некоторых технических решениях, примененных в конструкции. Сам чип GK110 снабжает энергией 6-фазная схема питания с защитой от перенапряжения, а дополнительная схема с двумя фазами используется для питания GDDR5 видеопамяти. 6+2-фазная схема обеспечивает плату питанием даже с учетом возможного разгона, процесс которого стал еще легче благодаря возможности повышения напряжения (читайте об этом ниже). К слову, сама Nvidia уверяет, что при стандартном охлаждении для графического процессора возможно достижение тактовой частоты выше 1 ГГц.

Для своей новой видеокарты высшего класса инженеры Nvidia разработали новую систему охлаждения, которая отличается высокой эффективностью. В кулере используется технология испарительной камеры, которая отлично рассеивает тепло, были увеличены ребра радиатора, а также в очередной раз улучшена схема управления вентилятором, изменяющая рабочее напряжение и частоту его вращения для достижения оптимального сочетания акустического и температурного режимов.

Медная испарительная камера в кулере Geforce GTX Titan работает как тепловая трубка, но она более мощная и эффективная. Кроме того, для улучшения работы камеры используется новый материал термоинтерфейса от компании Shin-Etsu, который обеспечивает двукратное преимущество перед тем, что применялся ранее в Geforce GTX 680. В результате, новая испарительная камера и термоинтерфейс позволяют отводить больше тепла от GK110, давая возможность работы на более высокой тактовой частоте.

Тепло от испарительной камеры отводится при помощи большого двухслотового радиатора из алюминиевого сплава. По сравнению с предыдущими решениями линейки Geforce GTX 600, в кулере Titan применяются удлиненные ребра радиатора, что увеличивает площадь рассеивания и повышает его эффективность. На Geforce GTX Titan также установлена алюминиевая пластина с обратной стороны, которая дополнительно охлаждает печатную плату и компоненты на ней. В конструкции вентилятора используются те же демпфирующие материалы, что и в Geforce GTX 680 — они служат для снижения уровня шума.

К слову, о шуме. Nvidia приводит цифры собственных акустических замеров, но не для одночиповых видеосистем, а для экстремальных многочиповых — чтобы разница была ощутимей. Так вот, при запуске бенчмарка Unigine Heaven в разрешении 1920×1080 с полноэкранным сглаживанием и экстремальным уровнем тесселяции различные системы на базе трех видеокарт показали следующий уровень шума:

Как видите, кулер Geforce GTX Titan справляется с работой просто отлично. Мало того, что работа трех GK110 должна обеспечивать заметно более высокую производительность (об это читайте далее), так эти три видеокарты GTX Titan еще и тише работают, по сравнению как с тремя GTX 680, так и с тремя Radeon HD 7970. Причем, если замеры корректны, разница в шуме между лучшими решениями AMD и Nvidia должна быть просто колоссальной!

Графическая архитектура

Новая модель Geforce GTX Titan основана на базе самого сложного видеочипа Nvidia, да и вообще в мире. Интересно, что первое практическое применение процессор GK110 впервые получил в суперкомпьютере Окриджской национальной лаборатории, который получил имя собственное — Titan. Еще в ноябре прошлого года этот суперкомпьютер был включен в «суперкомпьютерный» список TOP500 как самое быстрое подобное устройство. Всего в конструкции Titan используется 18668 профессиональных вычислительных систем Nvidia Tesla K20X, что позволило суперкомпьютеру показать рекордный результат в 17,59 петафлопс (речь о вычислениях двойной точности) в общепризнанном тесте Linpack.

Топовый GPU компании поддерживает все возможности, появившиеся в GK104 (Geforce GTX 680), и все особенности архитектуры Kepler относятся и к нему, включая организацию мультипроцессоров SMX, хотя есть и явные отличия. Графический процессор GK110 имеет в своем составе пять (нечетное число, что необычно) кластеров графической обработки Graphics Processing Cluster (GPC), состоящих из трех (снова нечетное!) мультипроцессоров SMX каждый, то есть схема 5×3, в отличие от схемы 4×2 для GK104. Видимо, при схеме 8×2 чип получался слишком сложным. Для наглядности рассмотрим диаграмму топового чипа:

Кроме нечетных чисел, вроде бы все почти привычно для Kepler — примерно те же мультипроцессоры SMX, но есть отличия. Как и GK104, GK110 состоит из мультипроцессоров SMX, содержащих по 192 вычислительных блока (самые маленькие зеленые квадратики), но что это за оранжевые блоки в количестве 64 штуки на каждый SMX? Таким образом Nvidia выделяет ALU, способные вычислять с двойной точностью (FP64), в отличие от FP32-точности «зеленых». Это основное отличие устройства SMX в GK110 от всех других чипов.

В остальном все ровно так же, как и в GK104, каждый SMX имеет по движку PolyMorph Engine, 64 КБ общей памяти, 48 КБ текстурной кэш-памяти и по 16 блоков текстурной фильтрации (всего 240 TMU в чипе физически). Подсистема памяти GK110, лежащего в основе Geforce GTX Titan, содержит шесть 64-битных каналов памяти, что в сумме дает 384-битный доступ к ней. И так как блоки растровых операций ROP «привязаны» к контроллерам памяти, то их количество в данном GPU равно 48 блокам. Объем кэш-памяти второго уровня на весь чип составляет 1,5 МБ.

Как мы уже писали, объем локальной GDDR5 видеопамяти для Titan равен 6 ГБ. Столь огромный даже по нынешним меркам объем памяти явно предназначен для энтузиастов. Компания Nvidia неоднократно получала запросы об увеличенном объеме памяти от пользователей — они хотят еще более высокой производительности в высоких разрешениях с применением нескольких мониторов в современных играх и проектах будущего. Пожалуй, в случае продукта премиум-класса и такой объем памяти вполне оправдан. А практически он может понадобиться разве что в расчетных GPGPU-задачах да при появлении первых мультиплатформенных игр, предназначенных для будущего поколения консолей, которые будут иметь довольно большой объем памяти. 6 ГБ памяти с 384-битным интерфейсом должны дать Geforce GTX Titan все необходимое для достижения высокой частоты кадров во всех возможных играх и условиях, даже в ближайшие годы.

Как и другие старшие модели, Geforce GTX Titan поддерживает фирменную технологию GPU Boost, теперь уже второй версии (подробнее см. ниже). Это комбинация программно-аппаратных решений, позволяющая автоматически увеличивать рабочие частоты GPU в зависимости от его энергопотребления для достижения максимальной производительности. Базовая тактовая частота графического процессора GK110 в Geforce GTX Titan равна 836 МГц, а средняя турбочастота (Boost Clock) равна 876 МГц, что немногим больше. Как и в случае предыдущих решений, это лишь средняя частота, которая изменяется в зависимости от игры и нагрузки, а реальные частоты GPU в играх могут быть и выше. Частота памяти GDDR5 в Geforce GTX Titan составляет традиционные 6008 МГц, как и в предыдущей топовой плате компании. Результирующей пропускной способности в 187 ГБ/с должно быть достаточно даже для такого мощного решения, но в некоторых случаях ее может и не хватить.

Технология GPU Boost 2.0

В Geforce GTX Titan внедрена поддержка второй версии технологии GPU Boost. Она включает все возможности GPU Boost 1.0 и служит для того же самого — автоматически увеличивает рабочую частоту GPU в зависимости от нагрузки, потребления и температуры. Технология GPU Boost впервые появилась в Geforce GTX 680, и она динамически управляет частотой в зависимости от условий работы видеочипа, а главной целью является достижение максимально возможной производительности в рамках определенного потребления (и выделения) энергии. К примеру, частота GPU в GTX 680 автоматически повышается, если уровень потребления не превышает 170 Вт.

Но в Titan инженеры пошли дальше. Они определили, что уровень потребления GPU не всегда ограничивает производительность при низких рабочих температурах видеочипа. И во второй версии GPU Boost ограничителем для роста частоты служит уже не уровень потребления, а рабочая температура GPU, установленная для Titan на 80 градусов.

В случае модели Geforce GTX Titan, частота видеочипа автоматически увеличивается, пока температура ядра остается равной или ниже 80 градусов. Сам GPU отслеживает температуру, изменяя частоту и напряжение так, чтобы поддерживать этот уровень нагрева. Такое изменение в GPU Boost 2.0 сказывается и на уровне шума от вентилятора системы охлаждения — при выборе целевой температуры ее проще контролировать, и частота вращения вентилятора изменяется в меньших пределах, что снижает общий уровень шума.

В дополнение к переходу от контроля потребления к температурному пределу, Nvidia дала энтузиастам широкие возможности по настройке работы GPU Boost. При использовании программного обеспечения, разработанного партнерами Nvidia, счастливые пользователи видеокарт Titan могут изменять целевую температуру GPU на свой вкус. К примеру, если пользователь хочет достичь большей производительности от Geforce GTX Titan, то он может изменить температурный предел с 80 до 85 градусов. Тогда у GPU будет больше возможностей для поднятия частоты и напряжения, пока им не достигнута измененная целевая температура.

Из-за этих изменений в логике работы GPU Boost 2.0 целевой уровень потребления (power target) уже не показывает типичное потребление в среднем, а является максимально возможным значением для данной модели видеокарты. При установке целевого потребления в 100% максимальное потребление будет ограничено значением в 250 Вт, а максимально возможное значение в 106% установит этот уровень на планке в 265 Вт. Типичный же уровень потребления видеокартой будет изменяться в зависимости от температуры среды.

К слову, поэтому GPU Boost 2.0 хорошо подходит для экстремального разгона с применением водяного охлаждения, ведь оно обеспечивает температуру ядра GPU значительно ниже целевой, что в результате должно привести к возможности достижения более высоких частот и напряжений. Иными словами, если раньше некоторые энтузиасты разгона ругались на то, что GPU Boost 1.0 им мешает, то теперь они будут недовольны чуть меньше, как минимум. Более того, для них есть еще одна хорошая новость, связанная с возможностью повышения напряжения.

Пользователям Geforce GTX Titan доступна еще одна новая настройка GPU Boost 2.0 — управление перенапряжением (overvoltage). Так как в Titan турбочастота и уровень напряжения теперь зависят от рабочей температуры GPU, то теперь нет причин ограничивать напряжение видеочипа слишком строго. А возможность повышения напряжения серьезно упрощает достижение высоких тактовых частот. По умолчанию напряжение графического процессора Titan ограничено рамками, установленными в Nvidia. Этот предел напряжения нужен для того, чтобы предотвратить необратимые повреждения кристалла, обеспечив работоспособность и надежную работу видеокарты. Ведь подача слишком высокого напряжения на GPU может привести к быстрой деградации чипа и вызвать поломку.

Но экстремальных энтузиастов разгона это не страшит, они всегда хотят получить максимальные возможности по повышению напряжения. И GPU Boost 2.0 дает им эту возможность, открывая настройку «перенапряжения». Естественно, она отключена по умолчанию и при попытке включения покажет устрашающее предупреждение о риске повреждения видеокарты. Полной демократии нет и тут, каждый из производителей видеокарт может ограничивать возможности по повышению напряжения для моделей, вышедших под их маркой. Да и в целом поддержка этой возможности необязательна и может быть заблокирована производителем в BIOS видеокарты.

Разумеется, при повышенном напряжении Geforce GTX Titan сможет достичь еще более высоких частот, особенно при условии соответствующего экстремального охлаждения. Да и в некоторых случаях простое повышение предела частоты GPU не вызывает роста реальной частоты, что случается тогда, когда прирост ограничен недостатком питания. Именно в этих случаях повышение предела напряжения для GPU поможет достичь более высокой частоты работы.

Нововведения GPU Boost 2.0 позволили Nvidia достичь более высокой производительности и в типичных условиях без пользовательского разгона, позволяя выставить более высокое напряжение и частоту GPU. При включении возможности превышения стандартного напряжения GPU появляется дополнительная возможность увеличить производительность, но повышается и риск повреждения GPU и выхода его из строя.

Еще одним интересным нововведением GPU Boost 2.0 можно назвать «разгон дисплея», как его называет сама Nvidia. Многим игрокам нравится играть с включенной вертикальной синхронизацией (VSync), потому что это позволяет избежать артефактов вроде разрыва картинки, когда VSync выключен. Но при включении вертикальной синхронизации, частота кадров ограничивается сверху частотой обновления монитора, обычно равной 60 Гц для всех современных устройств вывода изображения. В результате, производительность игры ограничена на уровне 60 FPS, несмотря на то, что видеочип может рендерить сцену и на более высокой скорости.

И только увеличение частоты обновления экрана соответственно скажется и на итоговой частоте кадров в секунду. Скажем, если GPU может отрендерить 90 FPS, то при включенном VSync монитор сможет показать лишь 60 FPS, но если повысить частоту обновления до 80 Гц, то GPU получит возможность работать быстрее — на 80 FPS при том же отсутствии артефактов разрыва картинки.

В GPU Boost 2.0 была добавлена возможность «разгона дисплея». При помощи соответствующих утилит от производителей видеокарт, пользователь Geforce GTX Titan получает возможность увеличения частоты следования пикселей (pixel clock) для собственного дисплея, что позволяет добиться более высокой частоты обновления экрана, а соответственно и увеличения итоговой частоты кадров. Естественно, не все мониторы поддерживают такой разгон, так что тут у пользователей есть богатое поле для экспериментов.

Вычисления с двойной точностью на Geforce GTX Titan

Интересно, что компания Nvidia решила сделать из Geforce GTX Titan первую игровую видеокарту серии Geforce, которая обеспечивает неграфические вычисления двойной точности с полной скоростью, предусмотренной архитектурой графического процессора, да еще и не ограниченную программно. Не секрет, что предыдущие видеокарты Geforce имеют весьма низкую скорость вычислений с двойной точностью (double-precision, DP). К примеру, каждый мультипроцессор в GK104, применяемый в Geforce GTX 680, имеет по 192 потоковых ядра для вычислений с одинарной точностью (single-precision, SP) и лишь 8 ядер для DP-вычислений. Поэтому скорость вычислений с двойной точностью была равна лишь 1/24 от скорости SP-вычислений. В случае чипа GK110, который лежит в основе Geforce GTX Titan, на каждый SMX приходится по 64 ядер, способных на вычисления с двойной точностью (и те же 192 SP-ядра), так что производительность в DP-вычислениях составляет 1/3 от SP-скорости, что заметно выше.

Еще до выхода Titan в Сети появились слухи о том, что в Geforce на основе чипа GK110 скорость вычислений с двойной точностью будет искусственно ограничена, чтобы не создавать конкуренцию с линейкой Tesla. К счастью, слухи остались лишь слухами и Nvidia решила оставить производительность DP-вычислений на полноценном уровне, чтобы обеспечить разработчиков ПО, инженеров и студентов недорогим аппаратным обеспечением, которое способно обеспечить производительность выше 1 терафлопса при DP-вычислениях. Вероятно, компания рассчитывает, что распространение сравнительно недорогого (по меркам профессиональных решений) Geforce GTX Titan в среде разработчиков, использующих неграфические вычисления на GPU, позволит им разрабатывать и оптимизировать свои приложения под процессоры Nvidia, что увеличит распространение GPGPU задач, столь желанное компанией.

Включение возможности полноскоростных DP-вычислений на Geforce GTX Titan возможно из настроек драйвера. По умолчанию Geforce GTX Titan запускает DP-вычисления лишь на 1/24 от скорости вычислений с одинарной точностью (количество соответствующих мультипроцессоров SMX меньше втрое, но они еще и работают в 8 раз медленнее), аналогично Geforce GTX 680. Чтобы включить возможность полноскоростных вычислений, нужно открыть панель управления Nvidia и в панели «Управление параметрами 3D» («Manage 3D Settings») найти настройку «CUDA — Double Precision» и пометить галочку напротив строки «Geforce GTX Titan». При включении настройки она будет применена сразу же, без необходимости перезагрузки. Причем, записывается в BIOS видеокарты и не требует постоянного включения после каждой перезагрузки.

Зачем нужны столь сложные телодвижения, не лучше ли было просто включить быстрые DP-вычисления на постоянной основе? Секрет кроется в том, что при полноскоростной работе DP-ядер графический процессор GK110 потребляет больше энергии и не может работать на частоте, выбранной для «игрового» режима Geforce. Компания Nvidia обошла проблему очень просто — при включении этой настройки видеочип Geforce GTX Titan будет всегда работать на пониженной частоте и при меньшем напряжении.

Соответственно, если вы не используете никаких специфических GPGPU-приложений, использующих расчеты с двойной точностью, то в настройке нет никакого смысла — она только снизит производительность в игровых приложениях и других 3D-задачах. Игр, использующих такие вычисления, просто не существует (да и не факт, что они появятся в обозримом будущем). Поэтому, чтобы отключить полноскоростные DP-вычисления, нужно проделать обратное действие, сняв «галочку» в настройке «CUDA — Double Precision» в панели управления Nvidia.

Оценка производительности

Переходим к вопросу предварительной оценки производительности нового решения — модели Geforce GTX Titan. По сравнению с Geforce GTX 680, в Titan значительно больше вычислительных ядер и текстурных блоков, поэтому скорость шейдерных вычислений, обработки геометрии и текстурной фильтрации серьезно выросла. Правда, с учетом пониженной до 836(876) МГц тактовой частоты для GPU, реальный теоретический прирост по этим параметрам не превысит 45%. По теоретической скорости заполнения преимущество перед GTX 680 еще меньше — лишь 25%, зато показатель эффективного филлрейта вырос ощутимее. Так как Geforce GTX Titan имеет 384-битную шину памяти, а ее микросхемы работают на эффективной частоте в 6 ГГц, то общая пропускная способность памяти Geforce GTX Titan выросла на 50%, по сравнению с лучшим решением, основанным на чипе GK104.

В данной теоретической части статьи мы приводим только собственные данные тестов самой компании Nvidia. Понятно, что Geforce GTX Titan должен стать быстрейшим одночиповым решением на рынке видеокарт, но насколько он быстрее? Подробные тесты будут далее, а мы приведем оценку Nvidia, которая утверждает, что три видеокарты Geforce GTX Titan — единственная возможность поиграть в одну из самых современных игр Crysis 3 с максимальными настройками на трех дисплеях в итоговом разрешении 5760×1080, да еще с применением полноэкранного сглаживания методом мультисэмплинга MSAA 2x. В таком режиме три карты обеспечили 46 FPS.

Естественно, что тут свою роль играют как огромный объем локальной видеопамяти в 6 ГБ, так и 384-битная шина, обеспечивающая высокую ПСП. Но не только Crysis 3 выделяется, во многих современных играх три GTX Titan быстрее, чем четыре GTX 690. Хотя в некоторых проектах производительность таких систем весьма близка, что тоже неплохо:

Данное тестирование проводилось на системе с процессором Intel Core i7 3960X, работающим на частоте 3,3 ГГц, а также при включенном 4x MSAA-сглаживании и максимальных настройках. Похоже, что именно три Geforce GTX Titan, работающие в связке 3-Way SLI стали максимально производительной видеосистемой, так как в среднем они превосходят две Geforce GTX 690, работающие в режиме Quad SLI.

Но Geforce GTX Titan подходит не только для энтузиастов и любителей разгона, имеющих просторные корпуса. У них то и с двухчиповыми Geforce GTX 690 никаких проблем не было. А вот у тех, кому нужна максимальная мощь в компактном корпусе, возможности установки таких «горячих» ускорителей просто не было. К примеру, для так называемых моделей small form factor (SFF), имеющих малые размеры и сравнительно тихое охлаждение, видеокарта Geforce GTX 690 слишком крупная по размеру, потребляет слишком много энергии и выделяет столь же много тепла, да еще и кулер шумит ощутимо. Поэтому в них приходилось обходиться одночиповыми Geforce GTX 680.

Теперь же в такие системы можно установить и Geforce GTX Titan, обладающий производительностью, близкой к Geforce GTX 690, но имеющий остальные указанные параметры, близкие к GTX 680. Такая видеокарта вполне помещается в SFF-системы и обеспечивает рост производительности по сравнению с GTX 680, оставаясь при этом даже немного более тихой!

Тесты проводились на системе с центральным процессором Intel Core i7-3770K, работающим на частоте 3,5 ГГц, в разрешении 1920×1080, с максимальными настройками и включенным полноэкранным сглаживанием 4x MSAA. Немудрено, что производители подобных систем просто в восторге от такой мощи в столь малом размере и уже нацелились на применение новой видеокарты в SFF-системах. Компактные игровые ПК стали еще мощнее.

Итак, Geforce GTX Titan — это экстремальная видеокарта для тех энтузиастов компьютерных игр и любителей разгона, кто не стеснен в средствах. Перед двухчиповыми решениями вроде GTX 690 у нее есть важное преимущество в том, что некоторые игры предпочитают одночиповые решения, да и в целом игры работают на одном GPU лучше, чем на двух и более (проблемы AFR-рендеринга и их причины мы не раз называли в своих материалах). Кроме того, можно установить три штуких таких карт, и это будет очень быстрая система, а вот двухчиповых три — уже не поставить.

Естественно, что Titan поддерживает все современные технологии компании Nvidia, о которых мы ранее неоднократно писали, в том числе Adaptive VSync и PhysX. Обо всех этих технологиях подробно написано в базовом обзоре Geforce GTX 680 — первой видеокарты семейства Kepler. И так как Geforce GTX Titan имеет в своей основе топовый графический процессор GK110 на основе этой архитектуры, то новая модель предлагает все современные возможности в виде DirectX 11, PhysX, TXAA, адаптивного VSync и других технологий.

Следующая часть нашей статьи посвящена практической части исследования в привычном наборе синтетических тестов, в которых мы сравним производительность новой топовой видеокарты на базе одного графического чипа Geforce GTX Titan со скоростью остальных решений компаний Nvidia и AMD.

Nvidia Geforce Titan — Часть 2: видеоплаты и синтетические тесты →

www.ixbt.com

Титанический обзор GeForce GTX Titan / Overclockers.ua

Представленный в прошлом году GeForce GTX 680 был немного неожиданным по своим параметрам. Вместо очередного решения на базе сложного монструозного чипа мы получили флагман, который по своим характеристикам изначально должен был стать чем-то вроде GTX 660. Однако благодаря мощной архитектуре и высоким тактовым частотам у NVIDIA получился очень достойный продукт. Их видеоадаптер при 256-битной шине уверенно обходил конкурента в лице Radeon HD 7970 с более сложным графическим процессором и широкой шиной в 384 бита. AMD даже была вынуждена через некоторое время выпустить разогнанную версию своего флагмана — Radeon HD 7970 GHz Edition, который все же сумел потеснить конкурента и восстановил лидерство в категории однопроцессорных игровых решений. Делать свой ответ на этот ход «зеленые» не стали. Они пошли иным путем и наконец-то выпустили видеокарту на базе того самого топового чипа, о котором все слышали, но в игровых видеокартах мы его так и не получили. Справедливости ради надо сказать, что реальные продукты на базе этого процессора у NVIDIA уже были. В конце прошлого года была выпущена профессиональная карта Tesla K20X для специализированных задач, которая нашла себе применение во многих суперкомпьютерах. В частности, детище NVIDIA использовалось при создании самого мощного на данный момент суперкомпьютера для научных расчетов в Oak Ridge National Laboratory с пиковой мощностью до 27000 терафлопс. Эта система включает 18000 GPU Tesla K20X. А название у этого суперкомпьютера весьма громкое — Titan. Возможно, отсюда маркетологи NVIDIA и позаимствовали имя для своего нового игрового детища, лишив его принадлежности к какой-либо серии. Такая отстраненность от порядковых номеров подчеркивает уникальный статус данного продукта, который должен значительно превзойти все однопроцессорные решения и продемонстрировать совершенно новый уровень производительности, недоступный существующим игровым видеокартам. Заявленная цена GeForce GTX Titan тоже является уникальной. За новоявленного зеленого монстра просят $1000, что вполне соответствует стоимости двухпроцессорного GeForce GTX 690. Насколько Titan оправдывает свой элитный статус, мы сейчас попытаемся разобраться.

Особенности GK110

Для начала посмотрим не схему нового процессора GK110. В его основе пять процессорных кластеров GPC, каждый из которых включает по три мультипроцессорных блока SMX. У GK104, на котором базируется GeForce GTX 680, четыре GPC по два SMX.


Один из SMX не активен. Пустые места на схеме тоже немного смущают, но в реальности никаких скрытых «резервов» в виде еще одного GPC у GK110 больше нет. Небольшое «урезание» чипа, возможно, связано с необходимостью вписаться в разумные рамки энергопотребления и тепловыделения. Не стоит забывать и технологические проблемы с производством столь сложного графического чипа. Вероятно, процент выхода полноценных рабочих чипов до сих пор не очень высокий, поэтому NVIDIA решила экономически более целесообразным выпустить Titan на слегка урезанном чипе. В свое время в подобной ситуации оказался GeForce GTX 480, который значительно припозднился со сроками появления да еще и «потерял» по пути часть вычислительных блоков.

Структура блоков SMX мало чем отличается от привычных SMX у других GPU семейства Kepler. Каждый насчитывает 192 потоковых процессора и 16 текстурных блока. Главное преимущество над более простыми видеокартами NVIDIA у этих SMX — в большéм количестве специальных блоков (DP Unit) для выполнения вычислений двойной точности FP64. Их 64, в то время как у GK104 один SMX насчитывал всего лишь восемь таких юнитов. Так что в специализированных неграфических вычислениях преимущество Titan над GeForce GTX 680 должно быть колоссальным. Размеры блока текстурного кэша на нижней схеме наводят на мысли о некотором его увеличении, но официальных данных на этот счет у нас нет.


14 SMX дают в итоге 2688 потоковых процессоров и 224 текстурных блоков. Это на 75% больше чем у GK104! Увеличилось и количество ROP, теперь их 48 против 32. Шина памяти расширена с 256 до 384 бит. Все это звучит очень внушительно. Но реализовать такие преимущества в полной мере не удастся из-за невысоких рабочих частот GK110. Так что не стоит ожидать роста производительности 75% относительно GeForce GTX 680. А вот частота

www.overclockers.ua

в этот раз было нелегко / Видеокарты

Двухпроцессорная графическая карта была обязательным пунктом в списке планов NVIDIA начиная с серии GeForce 7000. Запуск видеоадаптера на базе двух GPU GK110 был ожидаем с тех пор, как появились первые потребительские продукты на базе этого процессора. Однако с точки зрения человека, не посвященного в планы NVIDIA, перспективы такого устройства выглядели неоднозначно. Уж слишком велики и цена, и энергопотребление столь крупных GPU, изготовленных по техпроцессу 28 нм.

Топовые видеоадаптеры NVIDIA в текущем поколении стали беспрецедентно дорогими. Если рекомендованная цена GeForce GTX 780 Ti составляет $699, то сколько же должен стоить двухпроцессорный флагманский адаптер? Неудивительно, что в конце концов видеокарта с двумя чипами GK110 так и не появилась в игровой линейке GeForce 700, но вышла под маркой TITAN.

Семейство GeForce GTX TITAN имеет для NVIDIA двойное назначение. С одной стороны, в «Титаны» попадают продукты для геймеров-энтузиастов, обладающие максимальной игровой производительностью. Оригинальный GTX TITAN какое-то время был единственным продуктом на базе GK110. Сменивший его GTX TITAN Black просто работает на более высоких частотах по сравнению с GeForce GTX 780 Ti.

С другой стороны, TITAN — это высокопроизводительные устройства для вычислений в профессиональных областях. В то время как концепция GPGPU получает все более широкое распространение и признание, покупатель уже не может получить максимальную производительность в «счетных» задачах в нагрузку к игровому GPU, как это было в предыдущие годы.

NVIDIA заложила разделение по расчетным возможностям в саму архитектуру GPU. Операции с плавающей точкой двойной точности (FP64) в чипах Kepler выполняются специальными ядрами CUDA. И только GK110 из всей линейки имеет 64 FP64-совместимых ядра CUDA в каждом блоке SMX (Streaming Multiprocessor). Поскольку SMX содержит 192 обычных ядра, выполняющих операции одинарной точности, производительность GK110 в расчетах FP64 составляет 1/3 от производительности в расчетах FP32.

Все остальные GPU в линейке Kepler довольствуются восемью FP64-совместимыми ядрами CUDA в каждом SMX, что дает производительность на уровне всего лишь 1/24 от FP32. Но кроме того, в игровых моделях GeForce на базе GK110 ядра FP64 работают на частоте 1/8 от частоты GPU, что приводит все к тому же соотношению производительности FP64 к FP32 — 1/24. Только «Титаны» лишены этого ограничения, обладая максимальным для GK110 быстродействием в FP64.

Фактически по вычислительным возможностям TITAN Black не уступает профессиональным ускорителям Quadro K6000 и Tesla K40, которые также основаны на полностью функциональной ревизии чипа GK110, только стоят свыше 4 тыс. долларов.

Таким образом, видеоадаптер с двумя GK110 должен позиционироваться в качестве ускорителя для научных, финансовых и инженерных вычислений — всех тех задач, в которых используются операции двойной точности. И для него вполне оправданно четырехзначное число на ценнике. С другой стороны, мы имеем новый фетиш для энтузиастов и статусный продукт, который поддерживает заявку NVIDIA на лидерство в традиционной сфере применения GPU — 3D-графике и компьютерных играх.

В этом качестве GeForce GTX TITAN Z встретил сильного конкурента в лице Radeon R9 295X2 на базе двух чипов Hawaii. Двухпроцессорный флагман AMD не уступает в производительности двум отдельным адаптерам Radeon R9 290X и одновременно стоит вдвое дешевле, чем TITAN Z. Единственное слабое место R9 295X2 в противостоянии с TITAN Z ­– скорость вычислений двойной точности.

Процессор Hawaii включает полностью аппаратные планировщики, выполняющие разрешение зависимостей и формирование очереди операций — в отличие от архитектуры Kepler, в которой эти функции возложены на драйвер. Подход AMD более эффективен для расчетных задач, кроме того, в архитектуре GCN все потоковые процессоры способны исполнять FP64-операции за два такта, что дает производительность на уровне 1/2 от скорости вычислений одинарной точности. Но в десктопных устройствах на базе Hawaii искусственно установлено соотношение 1/8. Полная скорость зарезервирована для профессиональных ускорителей FirePro. Даже собрав систему из двух Radeon R9 295X2 за цену единственного TITAN Z, мы получим 1/4 производительности отдельной двухголовой видеокарты в режиме FP64.

⇡#Технические характеристики

Мощность GK110 была главной проблемой для разработчиков GeForce GTX TITAN Z. В прошлый раз, когда флагманским GPU NVIDIA был относительно компактный GPU GK104, удалось создать двухпроцессорную карту — GeForce GTX 690, которая практически не уступала в производительности паре отдельных GTX 680. Повторить это достижение с чипами GK110, которые в составе отдельных адаптеров развивают мощность 250 Вт, — серьезная задача.

AMD решила эту проблему для Radeon R9 295X2 за счет системы водяного охлаждения. Но GeForce GTX TITAN Z использует воздушный кулер, явно неспособный отвести от платы 500 Вт тепла. Карта имеет TDP 375 Вт — ровно столько, сколько по спецификациям могут обеспечить два восьмиконтактных разъема питания, которыми оснащена карта, в сочетании с разъемом PCI-E x16.

Как следствие, компромисс в тактовых частотах был неизбежен. TITAN Z имеет наименьшую базовую частоту среди всех моделей на базе GK110 — 706 МГц. С другой стороны, у него наибольшая дельта между базовой частотой и boost clock — 180 МГц, которая дает карте пространство для ускорения в благоприятных условиях. GPU даже способен на короткие броски к частоте 1058 МГц — на 352 МГц выше базовой! Видеопамять общим объемом 12 Гбайт работает на эффективной частоте, характерной для GTX 780 Ti и TITAN Black, — 7000 МГц.

Модель Графический процессор Видеопамять Шина ввода/вывода Вывод изображения TDP, Вт
Кодовое название Число транзисторов,
млн
Техпроцесс,
нм
Тактовая частота,
МГц: Base Clock / Boost Clock
Число ядер CUDA Число текстурных блоков Число ROP Разрядность шины,
бит
Тип микросхем Тактовая частота: реальная (эффективная),
МГц
Объем,
Мбайт
Интерфейсы (макс разрешение@частота кадров,
Гц)
Порты вывода
GeForce GTX 780 GK110 7 100 28 863/900 2304 192 48 384 GDDR5 SDRAM 1502 (6008) 3072 PCI-Express 3.0 x16 VGA ([email protected]),
DL DVI ([email protected]),
HDMI 1.4a (4096х[email protected]),
DisplayPort 1.2 ([email protected])
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX 780 Ti GK110 7 100 28 875/928 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 3072 PCI-Express 3.0 x16 VGA ([email protected]),
DL DVI ([email protected]),
HDMI 1.4a (4096х[email protected]),
DisplayPort 1.2 ([email protected])
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX TITAN Black GK110 7 100 28 889/980 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 6144 PCI-Express 3.0 x16 VGA ([email protected]),
DL DVI ([email protected]),
HDMI 1.4a (4096х[email protected]),
DisplayPort 1.2 ([email protected])
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX TITAN Z GK110 7 100 28 705/876 2880 240 48 2 x 384 GDDR5 SDRAM 1750 (7000) 2 x 6144 PCI-Express 3.0 x16 VGA ([email protected]),
DL DVI ([email protected]),
HDMI 1.4a (4096х[email protected]),
DisplayPort 1.2 ([email protected])
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
375

Судя по объявленным спецификациям, понижение базовой частоты существенно сказалось на скорости карты. Пиковая расчетная производительность GTX TITAN Z составляет 8 TFLOPS, притом что GTX TITAN Black выдает на-гора 5 TFLOPS в FP32.

По конфигурации вычислительных блоков GPU TITAN Z не отличается от TITAN Black. Про графический процессор GK110 более подробно вы можете прочитать в статье, посвященной оригинальному GeForce GTX TITAN, а архитектура Kepler в целом описана в обзоре GeForce GTX 680.

⇡#Конструкция

Общие принципы дизайна TITAN Z унаследовал от предыдущей двухголовой видеокарты NVIDIA — GeForce GTX 690, только на этот раз кулер не двух-, а трехслотовый. Кожух системы охлаждения металлический, с прозрачными окошками, в которых видно черные радиаторы GPU. Задняя поверхность платы покрыта толстой алюминиевой пластиной, которая добавляет изрядную долю к общему немаленькому весу устройства. Назначение пластины не только декоративное. Она охлаждает микросхемы памяти, расположенные под ней.

Чисто эстетически «двухголовый Титан» производит сильное впечатление. Топовые однопроцессорные адаптеры NVIDIA, выполненные в таком же дизайне, прекрасно выглядят, но, держа в руках TITAN Z, чувствуешь настоящую мощь. Внешность, достойная такого дорогого и совершенного устройства.

Аксиальный вентилятор продувает воздух сквозь отдельные радиаторы, расположенные по сторонам. Не в пример турбинным кулерам, применяемым в однопроцессорных картах NVIDIA референсного дизайна, часть горячего воздуха он выбрасывает внутрь корпуса ПК. Кроме того, аксиальный вентилятор не позволяет разместить никакую другую плату вплотную к видеоадаптеру, тогда как турбинка при необходимости это допускает. Следовательно, в корпусе TITAN Z оккупирует не три, а все четыре слота расширения. В этом плане двухголовая карта не дает никакого выигрыша по сравнению с двумя GeForce GTX TITAN Black, установленными вплотную друг к другу.

Выхлопная решетка занимает половину крепежной пластины. Оставшаяся площадь использована для видеовыходов — в такой же конфигурации, как и на прочих топовых адаптерах NVIDIA: два порта DVI плюс полноформатные разъемы HDMI и DisplayPort. Поскольку один GPU может использовать четыре порта одновременно, возможности второго остаются незадействованными. В таком классе устройств (и за такие деньги) хотелось бы видеть больше разъемов DisplayPort 1.2 (пусть и в Mini-варианте, как на Radeon R9 295X2). Возможность подключить к одному ПК больше четырех мониторов не так уже важна, но в существующем варианте только один из них может иметь разрешение Ultra HD.

GPU охлаждают довольно компактные радиаторы, но в основание каждого вмонтирована испарительная камера. Металлическая рама покрывает лицевую поверхность платы. Платформа, на которой закреплен вентилятор, представляет собой еще один отдельный радиатор, прижатый к транзисторам системы питания и коммутатору шины PCI-E.

⇡#Плата

По сравнению с GeForce GTX 690 разводка платы радикально усложнилась. Неудивительно, если принять во внимание 384-битную шину памяти каждого GPU и 12 Гбайт RAM. Графические процессоры соединяет коммутатор PCI-E 3.0 PLX PEX8747, который мы ранее видели на том же GTX 690. Чипы памяти SK hynix H5GQ2h34BFR-R2C рассчитаны на эффективную частоту 7 ГГц.

Система питания не отличается по конфигурации фаз от того, что было в GeForce GTX 690. Каждый GPU получил по пять фаз, две фазы отданы для питания чипов памяти, и еще одна фаза — для PLL. Особенность TITAN Z в том, что принадлежность фаз к отдельным GPU не фиксирована. Один из чипов может в какой-то момент времени пользоваться большим числом фаз, чем другой, если его энергопотребление выше.

Контроллеры питания используются те же, что и в других референсных картах на базе GK110, — ON NCP4206.

⇡#Тестовый стенд, методика тестирования

Конфигурация тестовых стендов
CPU Intel Core i7-3960X @ 4,6 ГГц (100x46) Intel Core i7-3970X @ 4,6 ГГц (100x46)
Материнская плата ASUS P9X79 Pro
Оперативная память DDR3 Kingston HyperX 4x2 Гбайт @ 1600 МГц, CL9
ПЗУ Intel SSD 520 240 Гбайт
Блок питания Corsair AX1200i, 1200 Вт Seasonic Platinum-1000, 1000 Вт
Охлаждение CPU Thermalright Archon
Корпус CoolerMaster Test Bench V1.0
Операционная система Windows 7 Ultimate X64 Service Pack 1
ПО для GPU AMD AMD Catalyst 14.4 WHQL
ПО для GPU NVIDIA 340.52 WHQL

Для измерения мощности системы используется стенд с блоком питания Corsair AX1200i. Энергосберегающие технологии CPU во всех тестах отключены. Шина PCI-Express работает в режиме 3.0. Для активации PCI-E 3.0 на видеокартах серий GeForce 600 и 700 в системе на чипсете X79 применяется патч от NVIDIA.

В настройках драйвера NVIDIA всегда в качестве процессора для вычисления PhysX выбирается CPU. В настройках AMD всегда настройка Tessellation переводится из состояния AMD Optimized в Use application settings. В CrossFire-конфигурациях остается включенной опция Frame Pacing.

Набор бенчмарков
Программа API Настройки Анизотропная фильтрация, полноэкранное сглаживание Разрешение
3DMark 2011 DirectX 11 Профиль Extreme
3DMark DirectX 11 Тест Fire Strike (не Extreme)
Unigine Heaven 4 DirectX 11 DirectX 11, макс. качество, тесселяция в режиме Extreme AF 16x, MSAA 4x 2560х1440 / 3840x2160
DiRT Showdown . Встроенный бенчмарк DirectX 11 Макс. качество, Global Illumination вкл. Трасса Shibuya, 8 машин AF, AA 4х 2560х1440 / 3840x2160
Far Cry 3 + FRAPS DirectX 11 DirectX 11, макс. качество, HDAO. Начало миссии Secure the Outpost AF, MSAA 4x 2560х1440 / 3840x2160
Tomb Raider. Встроенный бенчмарк DirectX 11 Макс. качество AF 16x, SSAA 4x 2560х1440 / 3840x2160
Bioshock Infinite. Встроенный бенчмарк DirectX 11 Макс. качество. Postprocessing: Normal AF 16x, FXAA 2560х1440 / 3840x2160
Crysis 3 + FRAPS DirectX 11 Макс. качество. Начало миссии Post Human AF 16x, MSAA 4x 2560х1440 / 3840x2160
Metro: Last Light. Встроенный бенчмарк DirectX 11 Макс. качество AF 16x, SSAA 4x 2560х1440 / 3840x2160
Company of Heroes 2. Встроенный бенчмарк DirectX 11 Макс. качество AF, SSAA 4x 2560х1440 / 3840x2160
Batman: Arkham Origins. Встроенный бенчмарк DirectX 11 Макс. качество AF, MSAA 4x 2560х1440 / 3840x2160
Battlefield 4 + FRAPS DirectX 11 Макс. качество. Начало миссии Tashgar AF 16x, MSAA 4x + FXAA 2560х1440 / 3840x2160
Thief. Встроенный бенчмарк DirectX 11 Макс. качество AF 16x, SSAA 4x + FXAA 2560х1440 / 3840x2160
Набор бенчмарков
Программа Настройки
LuxMark 2.0 X64 Сцена Room (Complex Benchmark)
CompuBench CL Desktop Edition X64, Ocean Surface Simulation
CompuBench CL Desktop Edition X64, Particle Simulation — 64K
SiSoftware Sandra 2014 SP3, Scientific Analysis Open CL, FP64

⇡#Участники тестирования

В тестировании производительности приняли участие следующие видеокарты:

⇡#Энергопотребление, температура, разгон

Как уже сказано выше, в редкие моменты графические процессоры TITAN Z могут достигать частоты 1058 МГц — на 352 МГц выше базовой. Любопытно, что вместе с лесенкой частот увеличился и диапазон соответствующих отдельным шагам напряжений. Верхнему значению соответствует напряжение 1,2 В, что намного выше, чем 1,162-1,187, которыми GK110 довольствуется на однопроцессорных платах референсного дизайна.

Под нагрузкой в тяжелых играх после прогрева карты частоты GPU стабилизируются в районе 862 МГц, а напряжение составляет 0,975-0,987 В. Это, прямо скажем, довольно мало для 28-нанометрового GPU под нагрузкой. NVIDIA, конечно же, отбирает для TITAN Z наиболее качественные кристаллы. Не говоря уже о том, что в GTX 780 Ti, TITAN Black и TITAN Z используются GPU нового степпинга B1.

Как ни странно, TITAN Z вполне подлежит разгону. Базовую частоту GPU удалось безопасно увеличить до 846 МГц. В динамике частота поднималась вплоть до 1189 МГц и стабилизировалась на уровне 1071 МГц при напряжении 1,025 В. BIOS дает возможность поднять максимальное напряжение на 75 мВ, но на практике эта функция, как и на GTX 780 Ti, не работает. Частота чипов памяти достигла 8 ГГц.

Разгону поспособствовал запас мощности карты: лимит энергопотребления можно поднять вплоть до 120%. Предельная температура была увеличена с 82 до 95 °C, вентилятор системы охлаждения запущен на максимальные обороты.

Base Clock, МГцМакс. Boost Clock, МГцBase Clock, МГц (разгон)Макс. зарегистрированная Boost Clock, МГц (разгон)
GeForce GTX TITAN Z 706 1058 (+352) 846 1189 (+343)
GeForce GTX TITAN Black 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)

В этом обзоре мы применили новый способ замера мощности вместо использования бытового ваттметра. Регистрируется мощность на выходе блока питания Corsair с помощью устройства Corsair Link, вычисляется среднее и максимальное значение.

Неразогнанный TITAN Z потребляет на добрых 80-100 ватт меньше, чем Radeon R9 295X2, что соответствует разнице между их TDP (375 и, предположительно, 500 Вт соответственно). Нечего и говорить, насколько много потребляет компьютер, если обменять TITAN Z на два R9 295X2 в режиме CrossFire. Резерв энергопотребления TITAN Z также достаточно велик, чтобы при разгоне карта приблизилась по мощности к своему конкуренту.

Прим.: для тандема R9 295X2 отсутствуют результаты в FurMark. При этой конфигурации тест не запускается в полноэкранном режиме, что необходимо для работы CrossFire.

Без разгона температура GPU упирается в установленный по умолчанию лимит, достигая 83 °C. Для поддержания такой температуры не требуется высоких оборотов крыльчатки. Как следствие, видеокарта работает довольно тихо для своей мощи. Вентилятор на СВО Radeon R9 295X2 шумит явно сильнее. Запуск кулера на полных оборотах позволяет удержать температуру GPU в пределах 71 °C.

⇡#Производительность: синтетические тесты

3DMark 2011

  • Производительность GK110 в SLI прекрасно масштабируется, но о двукратном превосходстве TITAN Z над TITAN Black речи все же не идет.
  • TITAN Z заметно уступает по графическому баллу своему конкуренту Radeon R9 295X2.
  • Quad CrossFire также работает безупречно, обеспечивая двукратный прирост балла по сравнению с одиночным R9 295X2.

3DMark

  • В новой версии бенчмарка сохранился крупный зазор между TITAN Z и R9 295X2.
  • Кроме того, TITAN Z не настолько быстрее одиночного TITAN Black, как в предыдущем тесте. Речь идет разве что о 30% прироста графического балла.
  • Однако и Quad CrossFire, в отличие от 3DMark 2011, не только не приносит дополнительных очков, но и снижает производительность по сравнению с одиночным R9 295X2.

Unigine Heaven 4

  • Между TITAN Z и R9 295X2 установился паритет в обоих разрешениях.
  • TITAN Z также почти в два раза производительнее, чем TITAN Black.
  • Но и в CrossFire быстродействие прекрасно масштабируется, обеспечивая двукратное превосходство тандема R9 295X2 над одиночным R9 295X2, а следовательно — над TITAN Z.

⇡#Производительность: игры

Far Cry 3

  • Результаты R9 295X2 и TITAN Z мало различаются, хотя последний имеет чисто символическое преимущество в обоих разрешениях.
  • Масштабируемость быстродействия в SLI также на высоте, хотя и не достигает 100%.
  • Quad CrossFire в режиме 4K дает мизерный эффект, а в WQHD просто бесполезен.

Tomb Raider

  • TITAN Z уступает R9 295X2 при разрешении WQHD, но выходит вперед в 4К.
  • Налицо неплохая, хотя и не достигающая 100% масштабируемость в SLI.
  • Quad CrossFire опять-таки не дает никакого преимущества команде AMD.

Bioshock Infinite

  • К масштабируемости в SLI претензий нет, особенно при разрешении 4K.
  • В режиме WQHD TITAN Z чуть-чуть уступает Radeon R9 295X2, но в 4К имеет вполне существенное преимущество.
  • Bioshock Infinite стал первым реальным тестом, где заработал Quad CrossFire. И хотя прирост быстродействия довольно скромный, он все же обеспечил этой конфигурации лидерство в обоих разрешениях.

Crysis 3

  • TITAN Z и R9 295X2 имеют примерно одинаковую производительность в WQHD, но в 4К TITAN Z берет верх с небольшим отрывом.
  • Кроме того, производительность в SLI великолепно масштабируется, достигая двукратного прироста у TITAN Z по сравнению с TITAN Black.
  • В Crysis 3 также прекрасно работает Quad CrossFire. Тандем Radeon R9 295X2 в этой игре, до сих пор одной из самых ресурсоемких среди всех существующих, обеспечивает в среднем 40 кадров/с при разрешении 3840х2160. Впечатляющий результат.

Metro: Last Light

  • В этой игре победа осталась на стороне Radeon R9 295X2 — вне зависимости от разрешения.
  • SLI обеспечивает хорошее масштабирование, которое стремится к 100% в режиме 4K.
  • Толку от Quad CrossFire вновь нет.

Batman: Arkham Origins

  • В целом Radeon R9 295X2 и TITAN Z одинаково хороши. Только в WQHD карта NVIDIA имеет мизерное преимущество.
  • На масштабирование в SLI также нельзя пожаловаться, в особенности при разрешении 3840x2160.
  • Quad CrossFire не помогает адаптерам AMD при разрешении WHQD. В 4K есть небольшой эффект, который вывел тандем R9 295X2 в лидеры.

Thief

  • Thief довольно странно работает с CrossFire. Radeon R9 295X2 даже хуже, чем одиночный Radeon R9 290X, но тандем R9 295X2 реально увеличивает производительность в режиме WQHD. Однако в 4К на двух R9 295X2 игра вылетает при попытке продвинуться дальше меню.
  • SLI дает прирост производительности в районе 50%, но этого достаточно, чтобы TITAN Z одержал победу над R9 295X2, в котором, кажется, реально работает только один GPU из двух.

Примечание: мы вынуждены были опустить ряд тестов, которые обычно используем, — DiRT Showdown, Company of Heroes 2 и Battlefield 4, — из-за проблем с поддержкой 4К-разрешения на всех использованных видеокартах. Впрочем, первые два — небольшая потеря, поскольку DiRT уже недостаточно ресурсоемкая игра для таких конфигураций, а CoH 2 не поддерживает ни SLI, ни CrossFire.

На следующей странице мы рассмотрим производительность героев этого обзора в вычислительных приложениях и выясним, какие из них лучшим образом подходят для постройки рабочих станций.

⇡#Производительность: вычисления

Luxmark: Room (Complex Benchmark)

  • Тест создания изображений методом Ray Tracing великолепно разделяет нагрузку на несколько GPU. Поэтому TITAN Z имеет практически вдвое большую производительность, чем одиночный TITAN Black.
  • Однако Radeon R9 295X2 работает быстрее, и намного.
  • Кроме того, при добавлении второго R9 295X2 результат также удваивается. Производительность такого кластера GPU более чем на 150% выше, чем у TITAN Z.

CompuBench CL: Ocean Surface Simulation

  • Этот бенчмарк не умеет использовать несколько ускорителей одновременно, поэтому TITAN Z, работающий с одним GPU, нисколько не отличается от TITAN Black.
  • То же относится и к видеоадаптерам AMD, которые показывают практически одинаковые результаты — вне зависимости от количества GPU в системе.
  • Любая «красная» плата существенно превосходит по производительности устройства NVIDIA.

CompuBench CL: Particle Simulation

  • Следующий тест также сводится к оценке одиночных GPU.
  • И снова TITAN Z практически не уступает своему однопроцессорному собрату.
  • Характер нагрузки более благоприятен для архитектуры NVIDIA, чем симуляция водной поверхности. В результате TITAN Z выступил ничуть не хуже всех своих соперников.

SiSoftware Sandra: Scientific Analysis, FP64

  • Тест вычислений двойной точности благоприятствует GPU NVIDIA, которые могут производить операции FP64 на скорости 1/3 от FP32. Обе видеокарты показали более высокий результат по сравнению с процессором AMD Hawaii в различных конфигурациях.
  • Sandra также не поддерживает одновременную работу нескольких GPU, но на этот раз TITAN Black получил преимущество перед одним GPU в составе TITAN Z.

⇡#Производительность: разгон

Разгон TITAN Z принес прекрасные плоды. Сказался и неслабый подъем базовой частоты, и увеличение пропускной способности памяти, и ослабление ограничений по энергопотреблению и температуре.

3DMark 2011

3DMark

Игровые тесты + Unigine Heaven 4

⇡#Выводы

NVIDIA блестяще преодолела трудности, связанные с размещением двух процессоров GK110 в одном видеоадаптере. Печатная плата невероятно сложная, и для охлаждения понадобилась трехслотовая конструкция, но GPU в составе GTX TITAN Z сохранили довольно высокую производительность по сравнению с одиночными чипами. Базовые частоты TITAN Z намного ниже, чем у остальных продуктов на базе GK110, но не все так просто. TITAN Z имеет большое пространство для динамического увеличения частоты и напряжения питания GPU. Возможно, именно поэтому в некоторых тестах мы наблюдали практически двукратную разницу в производительности между TITAN Z и TITAN Black. В условиях длительной тяжелой нагрузки TITAN Z работает на довольно-таки консервативных частотах, но грамотная поддержка SLI по-прежнему обеспечивает прирост производительности, которого мы вправе ожидать от двухпроцессорной видеокарты.

Практический смысл в покупке любого «Титана» связан с FP64-вычислениями. Даже два Radeon R9 295X2, которые можно купить за цену одного TITAN Z, теоретически не могут обеспечить такую же производительность в расчетах двойной точности. Для игр TITAN Z будет совершенно нерациональным вложением денег — вдвое меньшей суммы достаточно, чтобы купить пару GeForce GTX 780 Ti либо один Radeon R9 295X2. Последняя карта практически эквивалентна TITAN Z по производительности в большинстве игровых тестов и, как правило, существенно превосходит его в FP32-вычислениях, на которых основаны популярные расчетные задачи (трассировка лучей, рендеринг видео и так далее).

Как любопытную альтернативу для игровой машины мы рассмотрели тандем двух Radeon R9 295X2, равный по цене одному TITAN Z. Но со того времени, как мы в последний раз обращались к теме четырех GPU в SLI/CrossFire, ситуация не изменилась. Разделение нагрузки между четырьмя графическими процессорами работает из рук вон плохо и подчас приводит даже к падению производительности.

А вот в вычислениях FP32 кластер из четырех GPU Hawaii обладает колоссальной производительностью. Кроме того, и скорость выполнения операций FP64 достигает уровня 1/4 от одного Radeon R9 295X2: не так уж плохо по сравнению с 1/3 у TITAN Z. В результате если речь идет исключительно о счетных задачах, то два R9 295X2 — вполне разумный выбор при смешанной нагрузке и однозначно лучший, если преобладает FP32.

Два TITAN Black в режиме SLI также представляют соблазнительную альтернативу TITAN Z. Все-таки это не столь безупречная двухпроцессорная видеокарта, какой в свое время был GeForce GTX 690. Как ни крути, а в целом TITAN Z медленнее, чем две отдельные платы. И даже преимущество компактности сводится на нет трехслотовой системой охлаждения. Два «Титана» также позволят подключить два 4К-монитора, что недоступно для TITAN Z.

Но главная претензия к «двухголовому Титану» — по поводу цены. Адаптер стоит на добрую тысячу долларов дороже двух TITAN Black. Трудно придумать оправдание для такой наценки. Если бы не это, TITAN Z можно было бы считать удачным нишевым продуктом для геймеров-энтузиастов и пользователей профессионального софта. Но при текущей цене это, пожалуй, не более чем своеобразное произведение инженерного искусства и свидетельство возможностей NVIDIA на нынешнем этапе противостояния с AMD.

Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

3dnews.ru

Серия TITAN | Всё о видеокартах NVIDIA GeForce

Для настольных ПК

Очередной «титановый» флагман был представлен компанией NVIDIA в начале декабря 2018 года. На момент своего выхода графический ускоритель NVIDIA TITAN RTX является самым мощным и в то же

Для настольных ПК

В этот раз компания NVIDIA решила устроить сюрприз для компьютерного мира, так сказать, под Новый год. Без каких-либо подготовительных и интригующих заявлений, она представила на суд публике абсолютно

Для настольных ПК

В начале апреля 2017 года неожиданно для своих почитателей компания NVIDIA объявила о выходе очередного самого мощного в мире графического ускорителя — TITAN Xp, тем самым «списав» еще

Для настольных ПК

NVIDIA TITAN X (Pascal) — ультимативная модель графического ускорителя от NVIDIA, выпущенная в 2016 году. Процессор видеокарты основан на новой архитектуре Pascal, первым образцом которой явилась модель GeForce

Для настольных ПК

Компания NVIDIA не так часто отступает от сформировавшихся годами традиций. Так и в 2015 году по сложившейся весенней традиции «зеленые» представляют нового одночипового флагмана в лице GeForce GTX

Для настольных ПК

Анонс нового «двуглавого монстра» под названием GeForce GTX TITAN Z состоялся в конце марта на конференции GTC (GPU Technology Conference) 2014 года. Корпорация NVIDIA гордо именует своё детище

gtx-force.ru

TITAN | GEFORCE-GTX.com

Видеокарты NVIDIA GeForce серии TITAN:
Подробные характеристики, драйверы для видеокарт NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal), GeForce GTX TITAN X, GeForce GTX TITAN, GeForce GTX TITAN Black, GeForce GTX TITAN Z

Серия видеокарт NVIDIA TITAN

Таблица производительности серии видеокарт NVIDIA TITAN

ВидеокартаЯдер CUDAЧастота
Базовая / Boost
Память
Объем / Тип / Шина
Модель GPU
46081350 / 1770 MHz24 Gb GDDR6 384-bit TU102
38401480 / 1582 MHz12 Gb GDDR5X 384-bit GP102-450
35841431 / 1531 MHz12 Gb GDDR5X 384-bit GP102-400
30721000 / 1075 MHz12 Gb GDDR5 384-bit GM200-400
51201200 / 1455 MHz12 Gb HBM2 3072-bit GV100-400
5760705 / 876 MHz12 Gb GDDR5 2× GK110-350
2880889 / 980 MHz6 Gb GDDR5 384-bit GK110-430
2688837 / 876 MHz6 Gb GDDR5 384-bit GK110-400

Серия видеокарт NVIDIA TITAN это самые высокопроизводительные графические ускорители для персональных компьютеров в мире.

Видеокарты серии ТИТАН построены на различных архитектурах, но их объединяет высокая производительность как во всех современных играх, так и в профессиональных приложениях для работы с графикой.

На сайте представлены все видеокарты серии TITAN: NVIDIA TITAN RTX, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal), NVIDIA GTX TITAN X, NVIDIA TITAN V, NVIDIA GeForce GTX TITAN Z, NVIDIA GeForce GTX TITAN Black, NVIDIA GeForce GTX TITAN, а так же их характеристики и драйверы.

geforce-gtx.com

GeForce GTX TITAN X | Обзор и тестирование видеокарт NVIDIA

Компания NVIDIA не так часто отступает от сформировавшихся годами традиций. Так и в 2015 году по сложившейся весенней традиции «зеленые» представляют нового одночипового флагмана в лице GeForce GTX TITAN X. На начало лета 2015 года это самая мощная в мире видеокарта, базирующаяся на одном графическом процессоре.

Новый графический адаптер является четвертым по счёту в модельном ряду «Титанов» и, логически, идет на смену GTX TITAN Black. В основании новинки лежит графическое ядро с маркировкой GM200, созданное на микроархитектуре Maxwell второго поколения. В отношении базовых характеристик, GM200 является «расширенным» в полтора раза ядром GM204, на котором основан недавний одночиповый флагман GeForce GTX 980. Точнее, именно в полтора раза увеличено количество ядер CUDA, блоков ROP и TMU, а также объем кэша. Рассмотрим подробнее характеристики этих двух видеокарт.

GeForce GTX TITAN X GeForce GTX 980
Кодовое имя чипа GM200 GM204
Архитектура Maxwell 2.0 Maxwell 2.0
Техпроцесс 28 нм 28нм
Количество транзисторов 8 млрд. 5,2 млрд.
Тактовая частота GPU, МГц: базовая/ Boost 1000/1070 1126/1216
Текстурных блоков (TMU) 192 128
Универсальных процессоров 3072 2048
Блоков растеризации (ROP) 96 64
Тип видеопамяти GDDR5 GDDR5
Объем видеопамяти 12 ГБ 4 ГБ
Разрядность шины, бит 384 256
Эффективная частота памяти 7000 МГц 7000 МГц
Интерфейс PCI-Express 3.0 PCI-Express 3.0
Потребляемая мощность 250 Вт 165 Вт

Потребление энергии нового флагмана оказалось заметно более, чем энергопотребление GTX 980. Естественно, что это связано с более высокой производительностью TITAN X, которая в сравнении с 980-й моделью может достигать 30%. По рекомендации производителя мощность блока питания для системы должна быть не менее 600 Вт.

Здесь, пожалуй, нужно обратить внимание на систему охлаждения новинки. А именно на то, что GeForce GTX TITAN X официально будет поставляться исключительно с эталонным кулером, который должен обеспечить высокую производительность при невысоком уровне шума.

При тестировании в бенчмарке 3DMark 11 новинка набирает 22980 очков. Для сравнения GTX 980 – 17980, а TITAN Black – 15670 соответственно. Посмотрим и на результаты тестов в популярных требовательных играх (среднее количество FPS).

*Максимально возможное качество графики

Вполне очевидно, что новинка поддерживает все существующие ныне технологии NVIDIA — SLI®, G-Sync™, GameStream™, ShadowPlay™, 2.0 GPU Boost™, Dynamic Super Resolution, MFAA, GameWorks™, OpenGL 4.5. Также поддерживается Microsoft DirectX 12 API с последующим обновлением до 12.1.

Цена на рассматриваемую модель на момент старта продаж была анонсирована производителем в размере $999. Собственно, это такая же сумма, как и у «черного Титана». Но если обратить внимание на колоссально возросшую производительность новой видеокарты в сравнении с предшественницей, то здесь NVIDIA опять сделала большой и своевременный шаг вперёд.

gtx-force.ru

NVIDIA TITAN V — новая высота в производительности

В этот раз компания NVIDIA решила устроить сюрприз для компьютерного мира, так сказать, под Новый год. Без каких-либо подготовительных и интригующих заявлений, она представила на суд публике абсолютно новый продукт — видеокарту NVIDIA Titan V, базирующуюся на графической архитектуре последнего поколения Volta. И вновь с анонсом своего флагманского продукта калифорнийская компания поднимает планку производительности среди графических ускорителей. Представленный образец является на конец 2017 года самой мощной одночиповой видеокартой в мире.

Базируется новая карта на чипе GV100, произведенном по 12-нм технологии и имеющем более 21 миллиарда транзисторов. Данное ядро впервые было представлено на конференции GTC 2017 и лежало в основании графического ускорителя Tesla V100, предназначенного для использования в дата-центрах. Видеочип имеет 5120 ядер программно-аппаратной архитектуры CUDA, 320 текстурных блоков, а также 640 ядер Tensor Cores, которые повышают производительность матричных вычислений и используются в задачах машинного обучения. Процессор новой видеокарты работает на частотах от 1200 МГц до 1455 МГц в «разгоне», а вычислительная мощность способна достигать отметки в 15 TFLOPS. Новинка оснащена 12 ГБ видеопамяти интерфейса HBM2, работающей на частоте 850 МГц, и 3072-разрядной шиной. В результате итоговая пропускная способность составляет 652,8 ГБ/с.

При удивительной производительности не меньшее удивление вызывает совсем небольшое энергопотребление Titan V, а именно 250 Вт. Это значение точно такое же, как и у прошлого флагмана Titan Xp. Таким образом, NVIDIA в очередной раз удалось увеличить производительность своих продуктов и при этом снизить потребление энергии. Охладительная система, как и весь внешний вид новинки, выполнена в стиле последних флагманов Founders Edition. В наличии медный радиатор, имеющий в основании испарительную камеру, центробежный вентилятор и металлический кожух с чёрно-золотистой расцветкой. Адаптеру необходимо подключение только двух разъёмов питания PCI-E Power, и они 6- и 8-контактные. Подсистема питания состоит из 19 фаз. Изображение выводится посредством одного порта HDMI и тремя интерфейсами DisplayPort.

Первые обладатели NVIDIA Titan V уже поделились с общественностью результатами тестирования видеокарты. Согласно одному из тестов в бенчмарке 3DMark Fire Strike 1.1, новинка при работе на номинальных частотах набрала 32744 очка. В результате «разгона» этот показатель достиг 35990 баллов. В свою очередь Titan Xp при штатных частотах в приведенном тесте получил около 28 тысяч баллов.

Видеокарты серии Titan всегда позиционировались, прежде всего, как адаптеры для профессионального использования, а не как игровые модели. И цены на них всегда были соответствующе высокими. Но если прошлый флагман TITAN Xp стоил (и до сих пор стоит) 1200 долларов США, то новинка на архитектуре Volta оценена в 3000 долларов.

Что касается обычных пользователей, то анонс нового «монстра» от NVIDIA позволяет уже сейчас представить, на что будут способны следующие модели серии GeForce на новой Volta. И перспективы, надо сказать, рисуются весьма оптимистичные.

gtx-force.ru

NVIDIA TITAN Xp | Обзор и тестирование видеокарт NVIDIA

В начале апреля 2017 года неожиданно для своих почитателей компания NVIDIA объявила о выходе очередного самого мощного в мире графического ускорителя — TITAN Xp, тем самым «списав» еще недавно самый мощный TITAN X Pascal. Почему новинка получила наименование именно «Xp» — компания не объясняет.

Внешне новая видеокарта полностью копирует уже упомянутый TITAN X Pascal. Интересно, что даже надпись на корпусе осталась прежней, и не имеет строчной «р», как на коробке. Не претерпела изменений и система охлаждения — радиатор, имеющий испарительную камеру, и вентилятор достались в наследство от предыдущего «Титана».

В основании новинки положен полнофункциональный чип GP102-450-A1 графической архитектуры Pascal, наделенный большим, нежели у TITAN X количеством потоковых процессоров — 3840. Такое же количество процессоров имеет профессиональное решение Quadro P6000.

NVIDIA TITAN Xp содержит 224 текстурных блока. Вместе с этим видеокарта наделена 96 блоками растровых операций и 11-ю гигабайтами  видеопамяти стандарта GDDR5X со скоростью передачи данных 11,4 Гбит/с. Разрядность шины памяти осталась такой же, как и у «ТИТАН Икс» — 384 бита. Пропускная способность подсистемы памяти составляет 547,7 гигабит в секунду. Величина тактовой частоты в режиме Boost находится на отметке в 1582 МГц, что позволяет вычислительной мощности достигать 12 TFLOPS.

Энергопотребление новинки составляет 250 Вт. Рекомендованная производителем мощность питания для системы составляет 600 Вт. Видеокарте необходимо подключение пары 6- и 8-контактных разъема дополнительного питания. Размеры видеокарты следующие: высота 4.376 дюйма,  длина 10.5 дюймов, а ширина составляет 2 слота.

Технические характеристики NVIDIA TITAN Xp

NVIDIA TITAN Xp NVIDIA TITAN X (Pascal) GeForce GTX 1080 Ti
Кодовое имя чипа GP102 GP102 GP102
Архитектура Pascal 1.0 Pascal 1.0 Pascal 1.0
Техпроцесс 16 нм 16 нм 16 нм
Количество транзисторов 12 млрд. 12 млрд. 12 млрд.
Тактовая частота Boost, МГц   1582 1531 1584
Текстурных блоков (TMU) 224 224 224
Универсальных процессоров 3840 3584 3584
Блоков растеризации (ROP) 96 96 96
Тип видеопамяти GDDR5X GDDR5X GDDR5X
Объем видеопамяти 12 ГБ 12 ГБ 11 ГБ
Разрядность шины, бит 384 384 352
Эффектитвная частота памяти 11 ГГц 10 ГГц 11 ГГц
Производительность, TFLOPS 12,15 10,97 11,34
Пропускная способность, Гбайт/с 547,7 480 484
Разъем доп. питания 6+8 6+8 6+8
Потребляемая мощность 250 Вт 250 Вт 250 Вт
Максимальная температура 94 °С 94 °С 91 °С

По результатам тестирования в 3DMark Fire Strike, превосходство TITAN Xp в производительности над GeForce GTX 1080 Ti составляет примерно 3-5%. А над TITAN X Pascal в среднем до 10%.

Ценник на NVIDIA TITAN Xp находится на том же уровне, что и некогда TITAN X, а именно $1200. В российских рублях стоимость составляет 88900. Новинка будет продаваться только на тех рынках, где возможна покупка через онлайн-магазин NVIDIA. Позиционируется новая модель, прежде всего, как видеокарта для профессионального использования, и ориентирована на тех, кто не готов выложить «кругленькую» сумму за Quadro или Tesla.

gtx-force.ru


Смотрите также



© 2010- GutenBlog.ru Карта сайта, XML.