1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Обзор NVIDIA GeForce GTX TITAN Z: в этот раз было нелегко

Титанический обзор GeForce GTX Titan

Представленный в прошлом году GeForce GTX 680 был немного неожиданным по своим параметрам. Вместо очередного решения на базе сложного монструозного чипа мы получили флагман, который по своим характеристикам изначально должен был стать чем-то вроде GTX 660. Однако благодаря мощной архитектуре и высоким тактовым частотам у NVIDIA получился очень достойный продукт. Их видеоадаптер при 256-битной шине уверенно обходил конкурента в лице Radeon HD 7970 с более сложным графическим процессором и широкой шиной в 384 бита. AMD даже была вынуждена через некоторое время выпустить разогнанную версию своего флагмана — Radeon HD 7970 GHz Edition, который все же сумел потеснить конкурента и восстановил лидерство в категории однопроцессорных игровых решений. Делать свой ответ на этот ход «зеленые» не стали. Они пошли иным путем и наконец-то выпустили видеокарту на базе того самого топового чипа, о котором все слышали, но в игровых видеокартах мы его так и не получили. Справедливости ради надо сказать, что реальные продукты на базе этого процессора у NVIDIA уже были. В конце прошлого года была выпущена профессиональная карта Tesla K20X для специализированных задач, которая нашла себе применение во многих суперкомпьютерах. В частности, детище NVIDIA использовалось при создании самого мощного на данный момент суперкомпьютера для научных расчетов в Oak Ridge National Laboratory с пиковой мощностью до 27000 терафлопс. Эта система включает 18000 GPU Tesla K20X. А название у этого суперкомпьютера весьма громкое — Titan. Возможно, отсюда маркетологи NVIDIA и позаимствовали имя для своего нового игрового детища, лишив его принадлежности к какой-либо серии. Такая отстраненность от порядковых номеров подчеркивает уникальный статус данного продукта, который должен значительно превзойти все однопроцессорные решения и продемонстрировать совершенно новый уровень производительности, недоступный существующим игровым видеокартам. Заявленная цена GeForce GTX Titan тоже является уникальной. За новоявленного зеленого монстра просят $1000, что вполне соответствует стоимости двухпроцессорного GeForce GTX 690. Насколько Titan оправдывает свой элитный статус, мы сейчас попытаемся разобраться.

Особенности GK110

Для начала посмотрим не схему нового процессора GK110. В его основе пять процессорных кластеров GPC, каждый из которых включает по три мультипроцессорных блока SMX. У GK104, на котором базируется GeForce GTX 680, четыре GPC по два SMX.

Один из SMX не активен. Пустые места на схеме тоже немного смущают, но в реальности никаких скрытых «резервов» в виде еще одного GPC у GK110 больше нет. Небольшое «урезание» чипа, возможно, связано с необходимостью вписаться в разумные рамки энергопотребления и тепловыделения. Не стоит забывать и технологические проблемы с производством столь сложного графического чипа. Вероятно, процент выхода полноценных рабочих чипов до сих пор не очень высокий, поэтому NVIDIA решила экономически более целесообразным выпустить Titan на слегка урезанном чипе. В свое время в подобной ситуации оказался GeForce GTX 480, который значительно припозднился со сроками появления да еще и «потерял» по пути часть вычислительных блоков.

Структура блоков SMX мало чем отличается от привычных SMX у других GPU семейства Kepler. Каждый насчитывает 192 потоковых процессора и 16 текстурных блока. Главное преимущество над более простыми видеокартами NVIDIA у этих SMX — в большéм количестве специальных блоков (DP Unit) для выполнения вычислений двойной точности FP64. Их 64, в то время как у GK104 один SMX насчитывал всего лишь восемь таких юнитов. Так что в специализированных неграфических вычислениях преимущество Titan над GeForce GTX 680 должно быть колоссальным. Размеры блока текстурного кэша на нижней схеме наводят на мысли о некотором его увеличении, но официальных данных на этот счет у нас нет.

14 SMX дают в итоге 2688 потоковых процессоров и 224 текстурных блоков. Это на 75% больше чем у GK104! Увеличилось и количество ROP, теперь их 48 против 32. Шина памяти расширена с 256 до 384 бит. Все это звучит очень внушительно. Но реализовать такие преимущества в полной мере не удастся из-за невысоких рабочих частот GK110. Так что не стоит ожидать роста производительности 75% относительно GeForce GTX 680. А вот частота памяти осталась без изменений — это 6008 МГц. Так что тут мы сразу получаем увеличение пропускной способности памяти на 50% относительно флагмана шестисотой серии.

Прежде чем говорить о частотах ядра, нужно немного разобраться в особенностях работы обновленного GPU Boost 2.0. Эта технология обеспечивает разгон графического процессора до определенного уровня. Разгон этот работает так, чтобы не были превышены определенные лимиты по мощности и температуре. И если раньше GPU Boost зависел в первую очередь именно от мощности, то теперь не менее важную роль играет температура. На практике, нагрев карты для итогового значения частоты теперь даже важнее того, насколько близко видеокарта подобралась к лимиту по мощности. Для температуры установлен порог в 80 °C. Чем ниже температура, тем выше будет частота Boost. При превышении порога частота пойдет на спад, но ниже базового уровня упасть не должна. Для GeForce GTX Titan базовое значение 836 МГц, а Boost Clock (среднее значение авторазгона) — 876 МГц. Напомним, что у GeForce GTX 680 эти частоты равны 1006 МГц и 1059 МГц.

В специализированных утилитах пользователю доступны настройки лимита мощности и температуры. При этом можно изменять приоритетное значение. Повысить температурный лимит можно до внушительного значения в 106 °C, по мощности больше 6% сверх нормы не накинуть. А еще мы наконец-то получили возможность повышать напряжение, чего так не хватало у старших моделей GeForce шестисотой серии.

Стоит еще упомянуть, что указанные значения частот актуальны для игрового режима, в котором Titan не в полную силу работает в среде вычислений FP64. Фактически он не использует все свои DP Unit. Для их активации нужно войти в «Панель управления NVIDIA» и в параметрах 3D выбрать пункт «CUDA — double precision». Но в таком режиме видеокарта не вписывается в свои ограничения по мощности и изначально работает на более низких частотах. Не очень честно, но поскольку продукт рассчитан по большей мере на игроков, то ничего страшного в таких ухищрениях нет. Геймеры от более медленных по умолчанию вычислений FP64 ничего не теряют.

Объем памяти расширен до внушительных 6 ГБ. Загрузить их все сейчас будет весьма проблематично. Это явно залог на будущее. Нынче 6 ГБ могут быть востребованы в мультимониторных конфигурациях, особенно для 3D-режима. А если мощности одного GPU для такого режима не хватит, то можно использовать SLI. Для мощнейшей связки из двух или трех GeForce GTX Titan эффективный объем буфера в 6 ГБ будет очень кстати. Кстати, по данным NVIDIA три Titan в SLI обеспечивают примерно 46 fps в Crysis 3 при максимальном качестве графики со сглаживанием MSAA 2x в итоговом разрешении 5760×1080 (три монитора 1920×1080). Фантастический результат для самой красивой и ресурсоемкой современной игры. Плюс ко всему нам обещают самый низкий шум в сравнении с тройной конфигурацией из GeForce GTX 680 или Radeon HD 7970.

Сравнить характеристики нового видеоадаптера с топовыми представителями последних серий можно в нижней таблице.

Блог Евгения Крыжановского

Я научу вас ремонтировать свой компьютер!

Обзор NVIDIA GeForce GTX TITAN Z: в этот раз было нелегко

Видеокарта с двумя процессорами всегда была обязательным пунктом в списке планов компании NVIDIA начиная с GeForce 7000. Запуска видеоадаптера, выполненного на базе двух GPU GK 110, ждали с той поры, как в продаже появилась продукция, выполненная на базе одного процессора GPU GK 110.

С точки зрения пользователя, который ничего не знает о планах NVIDIA, перспектива подобной видеокарты выглядит неоднозначно. Энергопотребление и стоимость крупных GPU, выполненных по технологическому процессу 28 нм, чересчур велики.

В текущем поколении топовые видеоадаптеры от NVIDIA стали слишком дорогими. Рекомендованная стоимость GeForce GTX 780 Ti равняется 699 долларам. Сколько же будет стоить двухпроцессорный флагманский адаптер? Видеокарта, выполненная на основе двух чипов GK 110, в игровой линейке GeForce 700 так и не появилась. Однако она вышла под маркой TITAN.

У семейства GeForce TITAN есть двойное назначение. В семейство TITAN с одной стороны попадают продукты для отъявленных геймеров. Подобные видеокарты обладают максимальной производительностью. Какое-то время оригинальный GTX TITAN был единственным продуктом, выполненным на базе GK 110. Его сменил GTX TITAN Black. Устройство работает на более высоких частотах, чем GeForce GTX 780 Ti. Но с другой стороны, TITAN представляет собой довольно высокопроизводительное устройство, предназначенное для профессиональных вычислений. Концепция GPGPU получила довольно широкое распространение. Сегодня покупатель не сможет получить максимум производительности при расчетах в нагрузку к игровым задачам.

Компания NVIDIA решила использовать разделение по расчетным возможностям в самой архитектуре графического процессора. В чипах Kepler операции с плавающей точкой двойной точности выполняются ядрами CUDA. Из всей линейки только GK 110 имеет 64 FP 64 – совместимых ядра в каждом SMX блоке. SMX включает 192 обычных ядра, которые выполняют операции одинарной точности.

Таким образом производительность GK 110 в расчетах FP 32 в три раза превышает производительность в расчетах FP 64. Остальные GPU, которые присутствуют в линейке Kepler, довольствуются только FP 64 совместимыми ядрами CUDA в каждом блоке SMX. Это обеспечивает производительность на уровне всего 1/24 от FP 32. Также в игровых моделях, выполненных на базе GK110, ядра FP 64 работают на частоте, равной 1/8 от частоты GPU. Это приводит к получению такого же соотношения производительности FP 64 к FP 32, равному 1/24. Данного ограничения лишены только TITAN. Они обладают максимальным быстродействием в FP 64 для GK 110.

Читать еще:  Рынок умных часов в первом квартале вырос на 20,2 %, лидируют Apple Watch

TITAN BLACK по своим вычислительным возможностям фактически не уступает ускорителям Tesla K40 и Quadro K 6000. Они также основаны на функциональной ревизии GK 110, однако их стоимость превышает 4000 долларов.

Подведем предварительные итоги: видеоадаптер с двумя процессорами GK 110 будет позиционироваться как ускоритель для научных, финансовых и инженерных вычислений, в общем, во всех тех задачах, где используются операции двойной точности. Поэтому наличие четырехзначной цифры на ценнике можно считать вполне оправданным. Однако с другой стороны, данный продукт можно назвать статусным.

Он поддерживает заявку компании NVIDIA на лидерство в 3D-графике и компьютерных играх, т.е. в традиционных сферах применения GPU. В этом смысле у GeForce GTX TITAN Z есть довольно сильный конкурент. Это видеокарта Radeon R9 295X2, построенная на базе двух чипов Hawaii. Этот двухпроцессорный флагман по производительности ни в чем не уступает двум отдельным Radeon R9 290X. В то же время, видеокарта стоит в два раза дешевле, чем TITAN Z. Единственным слабым местом R9 295 X2 является скорость вычислений двойной точности.

Hawaii включает полностью аппаратные планировщики, которые выполняют формирование очереди операций и разрешение зависимостей. В архитектуре Kepler данные функции возложены на драйвер. Для выполнения расчетных задач, подход AMD является довольно эффективным. Все потоковые процессоры в архитектуре GCN могут выполнять операции FP 64 всего за два такта.

Это обеспечивает производительность устройства на уровне половины скорости вычислений одинарной точности. В десктопных версиях устройств, построенных на базе Hawaii, искусственно было установлено соотношение 1/8. Для профессиональных ускорителей Fire Pro зарезервирована полная скорость. Если система будет собрана из единственного TITAN Z и двух Radeon R9 295 X2, то удастся получить четверть производительности отдельной двухголовой видеокарты в FP 64 режиме.

GeForce GTX TITAN Z: технические характеристики

Для разработчиков GeForce GTX TITAN Z главной проблемой была мощность GK 110. Ранее флагманским процессором у NVIDIA был компактный GPU GK 104. На базе него было создана двухпроцессорная карта GeForce GTX 690. По производительности она практически на уступала паре отдельных GTX 680. Чтобы повторить это достижение на основе чипов GK 110, развивающих мощность 250 Вт, придется серьезно постараться. Компания AMD для решения этой проблемы в видеокарты Radeon R9 295 X2 использовала систему водяного охлаждения.

Однако в GeForce GTX TITAN Z используется воздушный кулер. Он явно не способен отвести от платы 500 Вт тепла. TDP карты равен 375 Вт. Это ровно столько, сколько согласно спецификациям могут обеспечить два восьмиконтактых разъема питания. Ими в сочетании с PCI-E x16 разъемом была оснащена видеокарта. В результате был неизбежен компромисс в тактовых частотах. У GeForce GTX TITAN Z наименьшая базовая частота среди моделей, построенных на базе GK110. Она равняется 706 МГц. Однако максимальная дельта между boost clock и базовой частотой составляет 180 МГц.

Это дает карте пространство для возможного ускорения при благоприятных условиях. Процессор способен даже на броски до частоты 1058 МГц, что на 352 МГц выше базовой. Общий объем видеопамяти составляет 12 Гб. Она работает на эффективной частоте, которая характерная для TITAN Black и GTX 780 Ti.

Согласно объявленной спецификации, снижение базовой частоты сказалось на скорости карты. Максимальная расчетная производительность GTX TITAN Z равняется 8 TFLOPS. GTX TITAN Black выдает 5 TFLOPS в FP 32. Вычислительные блоки GPU TITAN Z по конфигурации практически не отличается от TITAN Black.

GeForce GTX TITAN Z: конструкция

Основные принципы конструкции TITAN Z унаследовал от предыдущей двухпроцессорной видеокарты NVIDIA GeForce GTX 690. Однако на этот раз использовался трехслотовый кулер, вместо двухслотового. Кожух системы охлаждения выполнен из металла и оснащен прозрачными окошками. Через них можно увидеть черные радиаторы GPU. С задней стороны поверхность платы покрыта алюминиевой пластиной. Она добавляет изрядную долю общему весу устройства. Пластина имеет скорее чисто декоративное предназначение. Она используется для охлаждения расположенных на ней микросхем памяти.

С эстетической точки зрения, двухпроцессорный TITAN выглядит довольно сильно. В том же дизайне выполнены и топовые графические процессоры от NVIDIA, оснащенные одним процессором. Однако, TITAN Z производит впечатление по-настоящему мощного устройства. Видеокарта имеет достойный и дорогой внешний вид.

Для охлаждения карты используется аксиальный вентилятор. Он продувает воздух через отдельные радиаторы, которые расположены по сторонам. Это сильно отличается от турбинных кулеров, которые используются в однопроцессорных картах NVIDIA референсного дизайна. В таких моделях часть горячего воздуха кулер выбрасывает внутрь корпуса компьютера. Аксиальные вентилятор не позволит разместить вплотную к видеокарте никакую другую плату. Турбина допускает такую комплектацию при необходимости. Это значит, что TITAN Z занимает в корпусе компьютера не три, а целых четыре слота. Карта с двумя процессорами в этом плане не дает выигрыша по сравнению с установленными вплотную друг к другу GeForce GTX TITAN Black.

Половину крепежной пластины занимает выхлопная решетка. Остаток площади используется под видеовыходы. На адаптере имеется два порта DVI, полноформатные разъемы HDMI и порт Display Port. Так как один GPU может использовать одновременно все четыре порта, то возможности второго не будут задействованы. Хотелось бы, чтобы в данном классе присутствовало больше разъемов Display Port 1.2. Для охлаждения GPU используются довольно компактные радиаторы.

На основании каждого радиатора вмонтирована испарительная камера. Лицевая поверхность платы покрыта металлической рамой. Платформа, используемая для закрепления кулера, представляет собой отдельный радиатор, который прижат к коммутатору PCI-E шине и транзисторам системы.
Разводка платы сильно усложнилась по сравнению с GeForce GTX 690. В этом нет ничего удивительного, если учесть, что в ней имеется 12 Гб памяти RAM и 384-битная шина памяти GPU. Для соединения графических процессоров используется коммутатор PCI-E 3.0 PLX PEX 8747. Ранее данный разъем уже встречался на GTX 690.

По конфигурации система питания не отличается от той, что была использована в GeForce GTX 690. На каждый GPU выделено пять фаз. Две фазы зарезервированы для питания чипов памяти. Одна фаза используется для PLL. Основная особенность TITAN Z состоит в отсутствии фиксированной принадлежности фаз к отдельным GPU. В какой –то момент один из чипов может использовать большее число фаз, если уровень его энергопотребления является более высоким.

Запись опубликована 11.10.2015 автором katrinas11 в рубрике Видеокарты. Отблагодари меня, поделись ссылкой с друзьями в социальных сетях:

Nvidia Geforce GTX Titan Z

Содержание

Представляем базовый детальный материал с исследованием Nvidia Geforce GTX Titan Z на основе референс-карты.

Справочные материалы

Объект исследования: Ускоритель трехмерной графики (видеокарта) Nvidia Geforce GTX Titan Z 2×6144 МБ 2×384-битной GDDR5 PCI-E

Сведения о разработчике: Компания Nvidia Corporation (торговая марка Nvidia) основана в 1993 году в США. Штаб-квартира в Санта-Кларе (Калифорния). Разрабатывает графические процессоры, технологии. До 1999 года основной маркой была Riva (Riva 128/TNT/TNT2), с 1999 года и по настоящее время — Geforce. В 2000 году были приобретены активы 3dfx Interactive, после чего торговые марки 3dfx/Voodoo перешли к Nvidia. Своего производства нет. Общая численность сотрудников (включая региональные офисы) около 5000 человек.

Часть 1: Теория и архитектура

В самом конце лета, в преддверии выпуска новых GPU, хотя и на основе уже известных архитектур, мы рассматриваем решение компании Nvidia, созданное для узкой прослойки ультра-энтузиастов — двухпроцессорную модель Geforce GTX Titan Z, наиболее производительное графическое решение компании. Эта модель была анонсирована еще в марте, на конференции GPU Technology Conference 2014, посвященной высокопроизводительным вычислениям. Тогда стало известно, что двухчиповая плата на основе пары процессоров GK110 будет иметь 5760 вычислительных ядер производительностью в 8 терафлоп и 12 ГБ памяти, и она должна была начать продаваться в апреле по цене аж 3000 долларов.

Надо сразу отметить, что мощнейшие видеокарты на базе двух графических процессоров — это «вещь в себе» сразу по нескольким причинам. Мы уже неоднократно писали и об их излишней сложности и дороговизне, а также обо всех проблемах рендеринга, использующего возможности двух GPU. Как правило, в последнее время в таких конфигурациях используется исключительно единственный метод — AFR-рендеринг, когда каждый из видеочипов работает над своим кадром. И в таком случае никуда не деться от некоторых сопутствующих сложностей и проблем. Так, для обеспечения совместимости двухчиповых конфигураций необходима дополнительная доработка драйверов, а иногда не обойтись без изменения кода игры. Если же таких оптимизаций нет, то двухчиповая видеокарта зачастую работает как одночиповая, и никаких преимуществ от второго GPU просто нет. Ну или AFR работает, но крайне неэффективно, не обеспечивая значительного роста FPS.

Но даже если все прекрасно оптимизировано со стороны драйвера, AFR-рендеринг не всегда обеспечивает максимальную плавность смены кадров по понятным причинам — двухчиповая конфигурация всегда будет работать менее плавно, чем одночиповая. Ведь драйверу надо обеспечивать совместную работу двух GPU, раздавая им работу над кадрами, в каждом из которых могут требоваться какие-то данные из предыдущего, и тогда возможны дополнительные сложности. Кроме этого, на двухчиповой видеокарте при вдвое выросшей частоте смены кадров, задержка между действием игрока и его отображением на экране не снижается ровно вдвое, как можно было бы подумать.

В общем, сплошные ложки дегтя. А где же бочка меда? Зачем вообще тогда платить бешеные деньги за такое безобразие? Все очень просто — при использовании пары топовых GPU в двухчиповой конфигурации можно получить почти вдвое большую частоту кадров, и это — единственная возможность получения большей производительности, когда более мощных GPU просто не существует. Зачем нужна сверхвысокая частота кадров при не всегда комфортной плавности — вопрос отдельный. Кому-то — для установки рекордов в бенчмарках, кому-то — еще и для экстремального разгона, кто-то просто использует монитор с разрешением 3840×2160, да и не один, а кто-то сочетает вместе все вышеперечисленное.

Читать еще:  Обзор процессоров AMD Ryzen 5 3600X и Ryzen 5 3600: шестиядерник здорового человека

Главное, что возможность получить экстремально высокую частоту кадров есть, как существуют и желающие заплатить за такую возможность очень много денег. Или, как в случае с Geforce GTX Titan Z — неприлично много. Да, таких желающих чуть ли не по пальцам пересчитать можно, но они есть, и они очень «громкие» — в том смысле, что такие ультра-энтузиасты и в Интернете много пишут о новинках, и своим друзьям рассказывают. То есть, для производителя такие решения нужны скорее не для получения прямой прибыли (на продаже нескольких сотен или тысяч экземпляров много денег не заработать, с точки зрения финансов гораздо важнее массовые продукты), а работа на имидж среди энтузиастов. И вот тут главное сделать все правильно, не допустив ошибок. Получилось ли из Geforce Titan Z ультрапроизводительное решение, стоящее своих денег, и насколько успешно новинка конкурирует с AMD Radeon R9 295X2 — мы и попытаемся разобраться в нашем материале.

Хотя на момент анонса Nvidia указала время выхода Geforce GTX Titan Z как апрель, эта видеокарта задержалась с выходом на рынок до конца мая. Причиной этой задержки был явно неожиданный выпуск конкурентом двухчиповой видеокарты AMD Radeon R9 295X2, основанной на базе пары топовых графических процессоров Hawaii, но предложенной рынку по цене вдвое меньшей — всего лишь $1499! Причем, так как чипы Hawaii очень горячие и в равной по теплопотреблению борьбе они не смогли бы конкурировать с парой GK110, компания AMD решила сделать хитрый шаг, подняв уровень энергопотребления платой до 500 Вт и обеспечив свое двухчиповое решение водяным охлаждением. Поэтому Radeon R9 295X2 получился очень производительным, но при этом и недорогим, а у Nvidia просто не было шансов на быстрое изменение планов.

Несмотря на вдруг возникшие трудности в конкурентной борьбе, Nvidia все же не стала ничего менять и выпустила Titan Z, и даже по обозначенной ранее цене. Это решение предназначено не только для энтузиастов ПК-игр, но и для CUDA-разработчиков, и у них есть совершенно четкая необходимость в получении максимальной производительности при минимальном уровне потребления энергии и занимаемом физическом пространстве, и по этим параметрам Titan Z очень хорош. И даже с учетом того, что для игроков соотношение производительности и цены явно будет уступать конкуренту, Titan Z в любом случае можно считать отличным топовым решением, так как в этой нише по цене выбирают далеко не всегда.

С момента формального анонса на GTC 2014 публике оставались неизвестны лишь цифры рабочей тактовой частоты GPU и памяти, а также уровень потребления энергии новым двухчиповым решением. И в мае Nvidia раскрыла и эти данные: базовая частота GPU равна 705 МГц, а турбо-частота может доходить до 876 МГц. Столь большой разрыв между этими частотами (171 МГц!) говорит о том, что производительность карты ограничена не возможностями чипов по работе на высокой частоте, а насильном ограничении показателя энергопотребления (TDP). Так что скорость GTX Titan Z в реальности будет зависеть от общего потребления энергии видеокартой, и в тяжелых ситуациях частота будет скатываться к базовому значению, хотя во многих играх частота GPU будет близка скорее к турбо-частоте.

К слову об ограничении энергопотребления. TDP для новой платы был назначен равным 375 Вт — давно привычному значению для двухчиповых карт, получающих питание по паре 8-контактных разъемов питания PCI-E, и это число лишь наполовину больше TDP топового одночипового варианта GTX Titan Black, и заметно ниже, чем у Radeon R9 295X2. Вероятно, для работы на столь низком напряжении, отбор годных GPU для Titan Z должен быть достаточно жестким.

Так как рассматриваемая нами видеокарта Nvidia несет на себе два графических процессора архитектуры «Kepler», о которой мы уже не раз подробно рассказывали и которая родственна архитектуре «Fermi», читателям будет полезно ознакомиться со статьями о ранних моделях графических решений компании:

  • [23.05.13] Nvidia Geforce GTX 780 — урезанная версия GTX Titan, ускоритель премиум-класса
  • [18.03.13] Nvidia Geforce Titan — новый однопроцессорный флагман 3D-графики игрового класса
  • [22.03.12] Nvidia Geforce GTX 680 — новый однопроцессорный лидер 3D-графики
  • [27.03.10] Nvidia Geforce GTX 480: архитектура нового графического процессора изнутри; как реализована поддержка DirectX 11

Далее рассмотрим подробные характеристики анонсированной в мае видеоплаты Geforce GTX Titan Z, основанной на паре графических процессоров GK110.

Обзор NVIDIA GeForce GTX TITAN Z: в этот раз было нелегко

Двухпроцессорная графическая карта была обязательным пунктом в списке планов NVIDIA начиная с серии GeForce 7000. Запуск видеоадаптера на базе двух GPU GK110 был ожидаем с тех пор, как появились первые потребительские продукты на базе этого процессора. Однако с точки зрения человека, не посвященного в планы NVIDIA, перспективы такого устройства выглядели неоднозначно. Уж слишком велики и цена, и энергопотребление столь крупных GPU, изготовленных по техпроцессу 28 нм.

Топовые видеоадаптеры NVIDIA в текущем поколении стали беспрецедентно дорогими. Если рекомендованная цена GeForce GTX 780 Ti составляет $699, то сколько же должен стоить двухпроцессорный флагманский адаптер? Неудивительно, что в конце концов видеокарта с двумя чипами GK110 так и не появилась в игровой линейке GeForce 700, но вышла под маркой TITAN.

Семейство GeForce GTX TITAN имеет для NVIDIA двойное назначение. С одной стороны, в «Титаны» попадают продукты для геймеров-энтузиастов, обладающие максимальной игровой производительностью. Оригинальный GTX TITAN какое-то время был единственным продуктом на базе GK110. Сменивший его GTX TITAN Black просто работает на более высоких частотах по сравнению с GeForce GTX 780 Ti.

С другой стороны, TITAN — это высокопроизводительные устройства для вычислений в профессиональных областях. В то время как концепция GPGPU получает все более широкое распространение и признание, покупатель уже не может получить максимальную производительность в «счетных» задачах в нагрузку к игровому GPU, как это было в предыдущие годы.

NVIDIA заложила разделение по расчетным возможностям в саму архитектуру GPU. Операции с плавающей точкой двойной точности (FP64) в чипах Kepler выполняются специальными ядрами CUDA. И только GK110 из всей линейки имеет 64 FP64-совместимых ядра CUDA в каждом блоке SMX (Streaming Multiprocessor). Поскольку SMX содержит 192 обычных ядра, выполняющих операции одинарной точности, производительность GK110 в расчетах FP64 составляет 1/3 от производительности в расчетах FP32.

Все остальные GPU в линейке Kepler довольствуются восемью FP64-совместимыми ядрами CUDA в каждом SMX, что дает производительность на уровне всего лишь 1/24 от FP32. Но кроме того, в игровых моделях GeForce на базе GK110 ядра FP64 работают на частоте 1/8 от частоты GPU, что приводит все к тому же соотношению производительности FP64 к FP32 — 1/24. Только «Титаны» лишены этого ограничения, обладая максимальным для GK110 быстродействием в FP64.

Фактически по вычислительным возможностям TITAN Black не уступает профессиональным ускорителям Quadro K6000 и Tesla K40, которые также основаны на полностью функциональной ревизии чипа GK110, только стоят свыше 4 тыс. долларов.

Таким образом, видеоадаптер с двумя GK110 должен позиционироваться в качестве ускорителя для научных, финансовых и инженерных вычислений — всех тех задач, в которых используются операции двойной точности. И для него вполне оправданно четырехзначное число на ценнике. С другой стороны, мы имеем новый фетиш для энтузиастов и статусный продукт, который поддерживает заявку NVIDIA на лидерство в традиционной сфере применения GPU — 3D-графике и компьютерных играх.

В этом качестве GeForce GTX TITAN Z встретил сильного конкурента в лице Radeon R9 295X2 на базе двух чипов Hawaii. Двухпроцессорный флагман AMD не уступает в производительности двум отдельным адаптерам Radeon R9 290X и одновременно стоит вдвое дешевле, чем TITAN Z. Единственное слабое место R9 295X2 в противостоянии с TITAN Z ­– скорость вычислений двойной точности.

Процессор Hawaii включает полностью аппаратные планировщики, выполняющие разрешение зависимостей и формирование очереди операций — в отличие от архитектуры Kepler, в которой эти функции возложены на драйвер. Подход AMD более эффективен для расчетных задач, кроме того, в архитектуре GCN все потоковые процессоры способны исполнять FP64-операции за два такта, что дает производительность на уровне 1/2 от скорости вычислений одинарной точности. Но в десктопных устройствах на базе Hawaii искусственно установлено соотношение 1/8. Полная скорость зарезервирована для профессиональных ускорителей FirePro. Даже собрав систему из двух Radeon R9 295X2 за цену единственного TITAN Z, мы получим 1/4 производительности отдельной двухголовой видеокарты в режиме FP64.

⇡#Технические характеристики

Мощность GK110 была главной проблемой для разработчиков GeForce GTX TITAN Z. В прошлый раз, когда флагманским GPU NVIDIA был относительно компактный GPU GK104, удалось создать двухпроцессорную карту — GeForce GTX 690, которая практически не уступала в производительности паре отдельных GTX 680. Повторить это достижение с чипами GK110, которые в составе отдельных адаптеров развивают мощность 250 Вт, — серьезная задача.

AMD решила эту проблему для Radeon R9 295X2 за счет системы водяного охлаждения. Но GeForce GTX TITAN Z использует воздушный кулер, явно неспособный отвести от платы 500 Вт тепла. Карта имеет TDP 375 Вт — ровно столько, сколько по спецификациям могут обеспечить два восьмиконтактных разъема питания, которыми оснащена карта, в сочетании с разъемом PCI-E x16.

Как следствие, компромисс в тактовых частотах был неизбежен. TITAN Z имеет наименьшую базовую частоту среди всех моделей на базе GK110 — 706 МГц. С другой стороны, у него наибольшая дельта между базовой частотой и boost clock — 180 МГц, которая дает карте пространство для ускорения в благоприятных условиях. GPU даже способен на короткие броски к частоте 1058 МГц — на 352 МГц выше базовой! Видеопамять общим объемом 12 Гбайт работает на эффективной частоте, характерной для GTX 780 Ti и TITAN Black, — 7000 МГц.

Тестируем топы: обзор видеокарты NVIDIA GeForce GTX Titan Z

Страницы материала

Оглавление

Вступление

Видеокарта стоимостью 100 000 рублей? Сон это или реальность? Может быть, она из линейки профессиональных графических ускорителей? Ответы лежат на поверхности.

Читать еще:  Обновлённая версия Call of Duty: Modern Warfare 2 была замечена в немецком PS Store — игра выйдет сегодня

Немного истории

Первые двухпроцессорные графические решения в ассортименте NVIDIA появились в далеком 2006 году.

Седьмое поколение графических процессоров компании являлось наследником линейки GeForce 6. Оно не получило каких-либо революционных изменений, а небольшая модернизация лишь немного оживила спрос. Правда, в то время было грех жаловаться на потребительский спрос, видеокарты продавались как горячие пирожки.

Благодаря удачной архитектуре, NVIDIA провела модернизацию путем внутренних оптимизаций. Графический процессор G70 превратился в G71, порядком уменьшившись в размерах (от 110 нм к 90 нм). Созданный запас мощности, а проще говоря – большая энергоэффективность, позволил компании выпустить видеокарты с двумя GPU на одной печатной плате.

реклама

Видеокарта существовала в двух версиях: полноформатной (во всю длину корпуса) и для обыкновенных компьютеров. Соответственно они назывались GeForce 7900 GX2 и GeForce 7950 GX2.

По меркам 2006 года графический процессор был относительно шустрым и содержал: 48+16 шейдеров (до появления унифицированной архитектуры шейдеры различались по типу вычислений – пиксельные и вершинные), 48 текстурных блоков и 32 блока растеризации. Частота GPU составляла 500 МГц. Стоила она $500, не так уж и много. Слабыми местами модели стали шумная система охлаждения, перегревающийся мост и низкая оптимизация драйверов для поддержки пары GPU в играх.

Тем не менее, первый шаг был сделан.

реклама

Компоновка модели была оригинальной: два куска текстолита с мостиком между ними, а вентилятор располагался внутри «бутерброда». Воздух поступал через сделанные в текстолите вырезы. G92 в исполнении GeForce 9800 GX2 наделял видеокарту 256 потоковыми процессорами (универсальными, используемыми и сейчас), 128 текстурными блоками и 32 блоками растеризации. Частоты поднялись до 600 МГц. за прошедшие два года NVIDIA подтянула драйвера и могла заявить о превосходстве над решением конкурента.

Но главные недостатки никуда не делись и передались по наследству: высокое энергопотребление и тепловыделение, шумная референсная система охлаждения. Зато G92 обладал неплохим разгонным потенциалом, позволяющим надеяться на частоты около 720-780 МГц на «воздухе» и почти 800 МГц «на воде».

Через год компания выкатила оружие массового поражения – GeForce GTX 295. Благодаря GT200b, который содержал сразу два GPU, NVIDIA всерьез надеялась подвинуть конкурента. Приставка b в конце наименования графического процессора означала «шринк». В конкретно этом случае G200 изначально выпускался с соблюдением 65 нм техпроцесса, а позже был переведен на 55 нм. Для справки, графический процессор GT200 обладал самой большой площадью из всех кристаллов, когда-либо серийно производившихся на заводе TSMC.

Дизайн и конструкция системы охлаждения осталась прежней. Только теперь кожух был выполнен из перфорированного железа. Общее число задействованных транзисторов возросло до 2х1400 млн штук. Столь резкий скачок при не очень эффективной СО немного помешал планам компании выпустить продукт с изначально запланированными частотами под 700 МГц. В итоге пришлось остановиться на 570 МГц, что даже меньше, чем у предшественника.

Не стоит забывать, что тогда у всех GPU NVIDIA частота шейдеров работала с определенным коэффициентом относительно других блоков. Зато по остальным фронтам у GTX 295 было все в порядке: 480 потоковых процессоров (1242 МГц), 160 текстурных блоков и 56 блоков растеризации.

В системе охлаждения использовался единый радиатор, расположенный посередине двух частей видеокарты. Воздух по традиции поступал через прорези в текстолите. Суммарное энергопотребление 2800 млн транзисторов было настолько высоко, что GTX 295 в работе больше напоминала турбину самолета во время взлета. Да и со скоростью были вопросы, поскольку производительность напрямую зависела от качества драйверов. В итоге видеокарта получилась мощной на бумаге, но спорной в реальных приложениях. К тому же ее преследовали проблемы теплоотвода, из-за которых многие выпущенные модели не пережили гарантийный срок.

Позже NVIDIA кардинально переработала дизайн и систему охлаждения, выпустив GTX 295 v2.

Теперь вентилятор, находящийся в центре, выдувал воздух по обе стороны от графических процессоров. А печатная плата больше не напоминала бутерброд. Отсутствовали на текстолите и характерные вырезы.

Только революции не состоялось, ведь максимальные частоты и температуры остались на прежнем уровне. Разве что немного снизился уровень шума.

реклама

В 2011 году после долгих и мучительных ожиданий в свет вышла видеокарта GeForce GTX 590. Мучительных, потому что рожденный GPU GF100 выделял несчитанное количество тепла, плохо разгонялся и был недостаточно быстр.

Упущениями NVIDIA воспользовалась AMD, двухпроцессорный графический ускоритель которой был быстрее и… шумнее. Первая компания, понимая обреченность ситуации, решила сделать ставку на комфорт. Драйверы тщательно оптимизировали, а систему охлаждения настроили на оптимальную тишину. В результате проигрыш в скорости сказался на акустическом комфорте.

Технические характеристики GeForce GTX 590 были следующими: частота ядра – 608/1216 МГц (для разных блоков все еще использовалась двойная частота), число потоковых процессоров – 1024, текстурных блоков – 128, блоков растеризации – 96.

Стабильность – залог успеха! В 2012 году пользователи получили GeForce GTX 690, основанную на паре GK104. Это графическое решение по праву можно считать одной из самых удачных двухпроцессорных видеокарт на рынке.

реклама

По конструкции система охлаждения схожа с той, что устанавливалась на GeForce GTX 590. Но есть и важные отличия. Радиаторы, как и раньше, состоят из алюминиевых ребер, напаянных на испарительные камеры. Основная пластина получила аэродинамичные ребра для охлаждения силовых цепей и моста. А площадь теплорассеивателей заметно возросла.

Но никуда не делась и давняя проблема всех двухпроцессорных моделей – не до конца отлаженный драйвер, не дающий реализовать потенциал устройства в некоторых тестах. К этой проблеме добавилась вторая – цена! Тысяча долларов, в которую оценили GeForce GTX 690, стала неподъемной суммой для многих энтузиастов.

Лишь через два года компания NVIDIA представила следующее поколение – GeForce GTX Titan Z, о котором и пойдет речь в этом обзоре.

Первый обзор GeForce GTX Titan Z

Многие ожидали официальный анонс двухпроцессорной видеокарты GeForce GTX Titan Z 29 апреля, но в назначенный срок графический ускоритель так и не был представлен, а в Сети появилась информация о задержке до 8 мая из-за некоторых проблем с драйверами. Похоже, решить их NVIDIA не удалось до сих пор – пока сроки выхода GeForce GTX Titan Z окутаны туманом неизвестности.

Между тем, издание E-Zone опубликовало первый обзор GeForce GTX Titan Z, материалы из которого были сохранены благодаря участникам форума LinusTechTips. Образец видеокарты, попавший к китайским журналистам, работает на известных частотах (706-876 МГц), но в реальных условиях видеокарта автоматически разгоняется вплоть до 1058 МГц.

Интересно, что «проблемы с драйверами» не связаны с уровнем шума, температурным режимом или любой другой аппаратной неисправностью – в действительности GeForce GTX Titan Z проигрывает Radeon R9 295X2 по уровню производительности. Впрочем, подбор тестовых приложений не слишком удачен, и делать окончательные выводы пока рано.

GeForce GTX Titan Z расходует меньше энергии, чем Radeon R9 295X2, но во время работы нагревается заметно сильнее.

Главным недостатком GeForce GTX Titan Z – за эти деньги можно приобрести четыре GeForce GTX 780 Ti, хотя даже две такие видеокарты способны обеспечить более высокий уровень быстродействия.

GeForce GTX Titan Z расходует меньше энергии, чем Radeon R9 295X2, но во время работы нагревается заметно сильнее.
А как же: AMD ГОРЯЧИЕ. 1!11!11

Vinni-Pukh
NVIDIA всегда была дороже AMD и будет дороже, а разницы никакойfixed

GeForce GTX Titan Z проигрывает Radeon R9 295X2 по уровню производительности.
GeForce GTX Titan Z — 3000 $
Radeon R9 295X2 — 1500 $
помимо того, что Radeon R9 295X2 по производительности лучше так еще и цена приятнее.

Главным недостатком GeForce GTX Titan Z R11; за эти деньги можно приобрести четыре GeForce GTX 780 Ti, хотя даже две такие видеокарты способны обеспечить более высокий уровень быстродействия.
GeForce GTX 780 Ti не такая уж дорогая, можно купить 2 и все равно будет дешевле чем Radeon R9 295X2.

Вывод: GeForce GTX Titan Z кал не стоящий своих денег.

GeForce GTX Titan Z проигрывает Radeon R9 295X2 по уровню производительности

XBoy360
Только и слышно с твоей стороны -Пердак рвать. Ты либо новое что-то придумай, либо начни уже аргументами подкреплять. Пока что я вижу зависть в лице нвидияребенка.

Я не говорю, что АМД говно, но нвидия производительнее
Запруфай, не тестами, эмпирически пожалуйста.

АМД молодцы — продвигают тот самый каловый графон на консольках, который ты наверняка не раз обсирал, вот их ниша — совать свои видяшки в миддл-класс.
Нулевая логика нвидияребенка. нВидия просто обосралась что им не предложили использовать чипы в консолях. Уже как-то писали что использовать AMD в разы выгоднее потому что они производят и ЦП и ГП сразу, что в разы дешевле соответсвенно. Ясен пень что после такого поворота нВидия сразу начала кукарекать о слабых консолях, какие там слабые железки стоят и прочее-прочее. Будь нВидия на месте АМД сама бы впихнула туда парашу вроде GTX750/760 и кукарекала бы о невероятных мощностях консоли (мы то знаем).
В конце концов PS3/Xbox 360 выдают хорошую графику для такого-то гавеного железа. Из такой-же мидл-параши нынешнего времени можно так же с легкостью выжать невероятную графику. Тебя же, как нвидияребенка, который видимо работает на подсосе у Хуанга, такой фактор мало заботит, и ты, в силу своей некомпетентности в данном вопросе, и малом опыте использовании видеокарт двух вендоров, единственное что можешь, так это кукарекать, как это нынче модно среди остолопов, на АМД. Стоит заметить что ни один АМДшник не унижает Хуангонят, зато последние в каждой теме любят просраться первыми.
Тебе даже строка написана: GeForce GTX Titan Z проигрывает Radeon R9 295X2 по уровню производительности — смешно наблюдать за человеком (если он таковым вообще является), как он уверяет что нВидия лучше, за цену в двое бОльшую, чем аналог конкурента, который плюс ко всему вышел раньше.

Ссылка на основную публикацию
Статьи c упоминанием слов:
Adblock
detector