0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Современные графические процессоры

Что такое графический процессор и как он работает

GPU (Graphics Processing Unit) — это процессор, предназначенный исключительно для операций по обработке графики и вычислений с плавающей точкой. Он в первую очередь существует для того, чтобы облегчить работу основного процессора, когда дело касается ресурсоемких игр или приложений с 3D-графикой. Когда вы играете в какую-либо игру, GPU отвечает за создание графики, цветов и текстур, в то время как CPU может заняться искусственным интеллектом или расчетами механики игры.


На что мы смотрим в первую очередь, выбирая себе смартфон? Если на минутку отвлечься от стоимости, то в первую очередь мы, конечно, выбираем размер экрана. Затем нас интересует камера, объем оперативной, количество ядер и частота работы процессора. И тут все просто: чем больше, тем лучше, а чем меньше, тем, соответственно, хуже. Однако в современных устройствах используется еще и графический процессор, он же GPU. Что это такое, как он работает и почему про него важно знать, мы расскажем ниже.

Архитектура графического процессора не сильно отличается от архитектуры CPU, однако она более оптимизирована для эффективной работы с графикой. Если заставить графический процессор заниматься любыми другими расчетами, он покажет себя с худшей стороны.


Видеокарты, которые подключаются отдельно и работают на высоких мощностях, существуют только в ноутбуках и настольных компьютерах. Если мы говорим об Android-устройствах, то мы говорим об интегрированной графике и том, что мы называем SoC (System-on-a-Chip). К примеру, в процессоре Snapdragon 810 интегрирован графический процессор Adreno 430. Память, которую он использует для своей работы, это системная память, в то время как для видеокарт в настольных ПК выделяется доступная только им память. Правда, существуют и гибридные чипы.

В то время как процессор с несколькими ядрами работает на высоких скоростях, графический процессор имеет много процессорных ядер, работающих на низких скоростях и занимающихся лишь вычислением вершин и пикселей. Обработка вершин в основном крутится вокруг системы координат. GPU обрабатывает геометрические задачи, создавая трехмерное пространство на экране и позволяя объектам перемещаться в нем.

Обработка пикселей является более сложным процессом, требующим большой вычислительной мощности. В этот момент графический процессор накладывает различные слои, применяет эффекты, делает все для создания сложных текстур и реалистичной графики. После того как оба процесса будут обработаны, результат переносится на экран вашего смартфона или планшета. Все это происходит миллионы раз в секунду, пока вы играете в какую-нибудь игру.

Конечно же, этот рассказ о работе GPU является весьма поверхностным, но его достаточно для того, чтобы составить правильное общее представление и суметь поддержать разговор с товарищами или продавцом электроники либо понять — почему ваше устройство так сильно нагрелось во время игры. Позднее мы обязательно обсудим преимущества тех или иных GPU в работе с конкретными играми и задачами.

По материалам AndroidPit

Складные смартфоны ворвались в нашу жизнь чуть больше года назад, когда с минимальной разницей во времени в рамках одного мероприятия нам показали Samsung Galaxy Fold и Huawei Mate X. Не так давно у меня появился Huawei Mate X и не могу сказать, что мне было удобно им пользоваться. В целом я изменил свое мнение относительно подобного типа устройств, но есть некоторые моменты, которые не дают мне покоя и мешают принять окончательное решение о том, стоит ли пользоваться такими устройствами. В любом случае, я хочу поделиться своими наблюдениями и услышать ваше мнение относительно складного смартфона в целом и Huawei за 200 000 рублей в частности. Хотя, по второму вопросу двух мнений быть не может.

Сейчас у меня на тестировании находится складной смартфон, о котором я обязательно расскажу чуть позже, а пока просто хочется поговорить о том, как производители стараются продвигать эти устройства. Вот мы думаем, что это какая-то непонятная штука, которая раскрадывается, стоит дорого, но при этом не дает никакого результата с точки зрения практического использования. Я, признаться честно, сам пока не определился с юзеркейсами, но понимаю, что в этом что-то есть и надо как-то развивать это направление технологий. Не исключено, что совсем скоро мы сможем стоять перед витриной магазина и всерьез выбирать между классическим моноблоком и складным смартфоном. Впрочем, для этого еще должна сравняться их цена.

Несмотря на то что рынок Android-смартфонов довольно обширен, методик выбора нового аппарата не так уж и много. Чаще всего люди просто видят ту или иную модель у своих друзей или коллег, вертят её в руках и, получив одобрительный отзыв владельца, идут покупать себе то же самое. Этот подход нельзя назвать плохим, однако его ключевым недостатком является случайность. Ведь если бы вам на глаза попался не этот, а другой знакомый с другим аппаратом, вероятность того, что вы выбрали бы именно его, увеличивается в геометрической прогрессии. Другое дело, что есть такие смартфоны, которые встречаются чаще других. Например, Galaxy A51.

Архитектура современных графических процессоров

Предисловие

Появление видеокарт на основе графических процессоров NVIDIA G80 и ATI R600 обозначило начало нового этапа развития индустрии компьютерных игр: появилась поддержка нового интерфейса прикладного программирования (API, Application Programming Interface) от Microsoft — DirectX 10.

Ключевым условием поддержки DirectX 10 является унифицированная шейдерная архитектура графического процессора. Первой видеокартой, соответствовавшей данному требованию, была GeForce 8800 GTX на основе графического процессора G80 с его 128-ю унифицированными шейдерными конвейерами. Ответом компании ATI стал продукт под названием Radeon HD 2900 XT на основе графического процессора R600, обладающего 320-ю шейдерными конвейерами.

Исходя из характеристик вышеупомянутых видеокарт, несложно определить их теоретическую пиковую шейдерную производительность. Шейдерная подсистема R600 работает с той же тактовой частотой, что и остальная логика (740 МГц), в то время как у G80 частота этой подсистемы значительно выше (1,35 ГГц). Теоретическая пиковая шейдерная производительность Radeon HD 2900 XT равна 236,8 млрд. условных скалярных операций в секунду, а GeForce 8800 GTX — только 172,8 млрд. операций в секунду. Однако по результатам первых тестов, несмотря на преимущество в шейдерной производительности, видеокарта на основе R600 проиграла конкуренту от NVIDIA.

Многие пользователи, не ориентирующиеся в особенностях архитектуры современных графических процессоров, озадачены одним и тем же вопросом: почему видеокарта, обладающая в 2,5 раза большим количеством шейдерных конвейеров, проигрывает своему конкуренту? Ответом на данный вопрос послужит эта небольшая статья.

Читать еще:  Sony Xperia SmartWatch: волшебные часы. Попытка №2

Архитектура графического процессора NVIDIA G80

Cвой новый графический процессор под кодовым названием G80 компания NVIDIA спроектировала на основе принципов скалярной унифицированной шейдерной архитектуры. Что характерно, каждый из его 128-и потоковых скалярных конвейеров (процессоров; см. справочник) может обрабатывать всего лишь по одной операции (команде) за такт. Несмотря на то, что ещё несколько лет назад казалось, что и 20-и конвейеров вполне достаточно, но необходимость в столь большом количестве всё же возникла. Особенность скалярных конвейеров состоит в том, что они могут производить вычисления лишь над одним операндом в некоторый момент времени, а традиционные конвейеры проектируются для одновременной параллельной (векторизированной) обработки 4 операндов.

Собственно, архитектура на основе унифицированных (универсальных) шейдерных конвейеров уже сама по себе способствует увеличению реальной производительности графического процессора. При использовании специализированных конвейеров, то есть когда одни предназначены исключительно для обработки вершинных (геометрических) шейдеров, а другие — пиксельных (см. справочник), часто возникают ситуации, когда при расчёте сцены основная нагрузка ложится на пиксельные конвейеры, а вершинные частично простаивают. Или наоборот. Унифицированная архитектура избавлена от этих недостатков, так как каждый шейдерный конвейер может обрабатывать как вершинные, так и пиксельные команды.

Блок-схема графического процессора NVIDIA G80 выглядит следующим образом:

Как уже было сказано выше, G80 — это первый графический процессор с поддержкой DirectX 10. Вслед за ним NVIDIA выпустила графические процессоры под кодовыми названиями G86, G84, а также серии G9x и GT200. Все они обладают унифицированной скалярной шейдерной архитектурой.

Сравнительная таблица видеокарт GeForce 8 Series:

Большой тест AMD против Nvidia — Tom’s Hardware выявляет лучшие графические процессоры в 2020 году

При сборке нового компьютера каждый пользователь хочет получить максимальную производительность при минимальных вложениях, и зачастую перед ним встаёт вопрос: какого же производителя комплектующих выбрать. Самыми распространёнными противостояниями за долгие годы стали Intel vs AMD в сфере центральных процессоров и AMD vs NVIDIA в области графических чипов. Конечно, существует ещё и встроенная графика от Intel, но сегодня мы сосредоточимся именно на битве красных с зелёными.

Их вражда длится уже несколько десятилетий и с точки зрения финансовой успешности компания Дженсена Хуанга находится в куда более выгодной позиции. Nvidia превосходит своего конкурента по капитализации, активам, операционной и чистой прибыли, и это при том что большая часть доходов AMD приходится на продажи центральных процессоров. Но экономика мало интересует простых покупателей. Им важно знать, чья продукция будет лучше конкретно для них и прямо сейчас.

реклама

Игровая производительность

реклама

реклама

Мощный GPU это конечно хорошо, но мало кому захочется иметь под своим столом печку и ежемесячно разоряться на счетах за электричество. Поэтому не менее важной характеристикой видеокарт является энергоэффективность. И почти все последние годы карты от AMD были весьма горячими и потребляли электроэнергию как не в себя. С выходом 7-нм Navi ситуация конечно немного изменилась, но в плане производительности на ватт красные всё ещё отстают. Да и ко всему прочему актуальные карты Nvidia всё ещё используют 12-нм техпроцесс, умудряясь при этом побеждать.

реклама

Эксклюзивные технологии
Понятное дело, что многие графические технологии, такие как HairWorks или PhysX могут показаться не сильно нужной мишурой, но всё же они пошли в массы и дают разработчикам игр новые интересные инструменты (см. действие PhysX в недавно вышедшей Control). А уж трассировка лучей, благодаря активному продвижению Nvidia готовится стать новым индустриальным стандартом. Также не стоит забывать и о активно развивающемся алгоритме апскейла картинки DLSS. С другой стороны, без активной конкуренции со стороны AMD многие разработки Nvidia так и остались бы закрытым проприетарным ПО. Они создавали многие интересные технологии, вроде FidelityFX, FreeSync и API Mantle, которые двигали индустрию вперёд. Но в данный момент Nvidia по инновационности явно впереди.

Драйверы и поддержка

Тут определит явного лидера оказалось затруднительно. С выходом новых карт оба производителя испытывают проблемы с сыростью своего ПО. Но проблемы исправляются, а новые версии драйверов стабильно выпускаются по разу в месяц. А как именно выглядят и используются программы Radeon Adrenalin и GeForce Experience, а также их детальные сравнения друг с другом уже относится к категории вкусовщины.

Ценовая политика

Внимательный читатель уже должен был заметить, что почти во всех категориях победу одержала Nvidia. Но каким же образом при таких обстоятельствах AMD умудряется оставаться на плаву? Ответ прост: грамотная ценовая политика. Они стараются подстраивать свои цены таким образом, чтобы за чуть меньшую цену вы получали примерно ту же производительность. Если они чувствуют, что предложение конкурента более выгодно, то тут же снижают цены на свои позиции. При этом не стоит забывать об ультрабюджетном сегменте, в котором AMD всегда были лучшим выбором.

Выводы

Nvidia продолжает быть королём на рынке GPU. Однако это не значит что нужно отключать голову и слепо бежать в магазин за их продукцией. В любой ситуации необходимо применять рациональный подход и делать выбор только исходя из конкретных характеристик и цены товара. AMD пока что отстаёт, но это не помешало ей в борьбе с Intel на рынке CPU. Ещё каких-то 5 лет назад они безнадёжно отставали от синих со своими процессорами, но смогли переломить ход событий и уже почти сравнялись со своим визави. Есть вероятность что на рынке графических чипов они могут сотворить нечто подобное.

В чем разница между CPU и GPU?

В чем разница между CPU и GPU?

    Статьи , 10 ноября 2015 в 20:43

Все мы знаем, что у видеокарты и процессора несколько различные задачи, однако знаете ли вы, чем они отличаются друг от друга во внутренней структуре? Как CPU (англ. — central processing unit), так и GPU (англ. — graphics processing unit) являются процессорами, и между ними есть много общего, однако сконструированы они были для выполнения различных задач. Подробнее об этом вы узнаете из данной статьи.

Основная задача CPU, если говорить простыми словами, это выполнение цепочки инструкций за максимально короткое время. CPU спроектирован таким образом, чтобы выполнять несколько таких цепочек одновременно или разбивать один поток инструкций на несколько и, после выполнения их по отдельности, сливать их снова в одну, в правильном порядке. Каждая инструкция в потоке зависит от следующих за ней, и именно поэтому в CPU так мало исполнительных блоков, а весь упор делается на скорость выполнения и уменьшение простоев, что достигается при помощи кэш-памяти и конвейера.

Основная функция GPU — рендеринг 3D графики и визуальных эффектов, следовательно, в нем все немного проще: ему необходимо получить на входе полигоны, а после проведения над ними необходимых математических и логических операций, на выходе выдать координаты пикселей. По сути, работа GPU сводится к оперированию над огромным количеством независимых между собой задач, следовательно, он содержит большой объем памяти, но не такой быстрой, как в CPU, и огромное количество исполнительных блоков: в современных GPU их 2048 и более, в то время как у CPU их количество может достигать 48, но чаще всего их количество лежит в диапазоне 2-8.

Основные отличия

CPU отличается от GPU в первую очередь способами доступа к памяти. В GPU он связанный и легко предсказуемый — если из памяти читается тексел текстуры, то через некоторое время настанет очередь и соседних текселов. С записью похожая ситуация — пиксель записывается во фреймбуфер, и через несколько тактов будет записываться расположенный рядом с ним. Также графическому процессору, в отличие от универсальных процессоров, просто не нужна кэш-память большого размера, а для текстур требуются лишь 128–256 килобайт. Кроме того, на видеокартах применяется более быстрая память, и в результате GPU доступна в разы большая пропускная способность, что также весьма важно для параллельных расчетов, оперирующих с огромными потоками данных.

Читать еще:  Vampyr: пить или не пить? Рецензия

Есть множество различий и в поддержке многопоточности: CPU исполняет 12 потока вычислений на одно процессорное ядро, а GPU может поддерживать несколько тысяч потоков на каждый мультипроцессор, которых в чипе несколько штук! И если переключение с одного потока на другой для CPU стоит сотни тактов, то GPU переключает несколько потоков за один такт.

В CPU большая часть площади чипа занята под буферы команд, аппаратное предсказание ветвления и огромные объемы кэш-памяти, а в GPU большая часть площади занята исполнительными блоками. Вышеописанное устройство схематично изображено ниже:

Разница в скорости вычислений

Если CPU — это своего рода «начальник», принимающий решения в соответствии с указаниями программы, то GPU — это «рабочий», который производит огромное количество однотипных вычислений. Выходит, что если подавать на GPU независимые простейшие математические задачи, то он справится значительно быстрее, чем центральный процессор. Данным отличием успешно пользуются майнеры биткоинов.

Майнинг Bitcoin

Суть майнинга заключается в том, что компьютеры, находящиеся в разных точках Земли, решают математические задачи, в результате которых создаются биткоины. Все биткоин-переводы по цепочке передаются майнерам, чья работа состоит в том, чтобы подобрать из миллионов комбинаций один-единственный хэш, подходящий ко всем новым транзакциям и секретному ключу, который и обеспечит майнеру получение награды в 25 биткоинов за раз. Так как скорость вычисления напрямую зависит от количества исполнительных блоков, получается, что GPU значительно лучше подходят для выполнения данного типа задачи, нежели CPU. Чем больше количество произведенных вычислений, тем выше шанс получить биткоины. Дело даже дошло до сооружения целых ферм из видеокарт:

Графический процессор

Графический процессор (англ. graphics processing unit , GPU) — отдельное устройство персонального компьютера или игровой приставки, выполняющее графический рендеринг. Современные графические процессоры очень эффективно обрабатывают и отображают компьютерную графику. Благодаря специализированной конвейерной архитектуре они намного эффективнее в обработке графической информации, чем типичный центральный процессор. Графический процессор в современных видеоадаптерах применяется в качестве ускорителя трёхмерной графики.

Может применятся как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).

Содержание

Описание

Отличительными особенностями по сравнению с ЦП являются:

  • архитектура, максимально нацеленная на увеличение скорости расчёта текстур и сложных графических объектов;
  • ограниченный набор команд.

Высокая вычислительная мощность GPU объясняется особенностями архитектуры. Если современные CPU содержат несколько ядер (на большинстве современных систем от 2 до 6, по состоянию на 2012 г.), графический процессор изначально создавался как многоядерная структура, в которой количество ядер может достигать сотен. Разница в архитектуре обусловливает и разницу в принципах работы. Если архитектура CPU предполагает последовательную обработку информации, то GPU исторически предназначался для обработки компьютерной графики, поэтому рассчитан на массивно параллельные вычисления [1] .

Каждая из этих двух архитектур имеет свои достоинства. CPU лучше работает с последовательными задачами. При большом объеме обрабатываемой информации очевидное преимущество имеет GPU. Условие только одно — в задаче должен наблюдаться параллелизм.

GPUs have evolved to the point where many real-world applications are easily implemented on them and run significantly faster than on multi-core systems. Future computing architectures will be hybrid systems with parallel-core GPUs working in tandem with multi-core CPUs [3] .

Некоторые модели графических процессоров (в составе видеоадаптера) также могут применяться, в некоторых случаях, и для общих вычислений (см. GPGPU). Примерами таковых могут служить чипы HD6990 (от AMD) или GTX590 (от nVidia).

История

Программное обеспечение

На программном уровне видеопроцессор для своей организации вычислений (расчётов трёхмерной графики) использует тот или иной интерфейс прикладного программирования (API).

Самые первые ускорители использовали Glide — API для трёхмерной графики, разработанный 3dfx Interactive для видеокарт на основе собственных графических процессоров Voodoo Graphics.

Поколения ускорителей в видеокартах можно считать по версиям DirectX и OpenGL, которую они поддерживают.

См. также

Примечания

  1. Гибридные вычислительные системы на основе графических процессоров NVIDIA Tesla
  2. Вычисления на GPU. Архивировано из первоисточника 31 мая 2012.Проверено 13 сентября 2011. .
  3. What is GPU Computing? (англ.) . Архивировано из первоисточника 31 мая 2012.Проверено 13 сентября 2011.

Ссылки

Wikimedia Foundation . 2010 .

Смотреть что такое «Графический процессор» в других словарях:

ГРАФИЧЕСКИЙ ПРОЦЕССОР — (Graphics Processing Unit, GPU) микропроцессор (см. МИКРОПРОЦЕССОР), специализированный для обработки графической информации. Он берет на себя часть функций по формированию трехмерного (3D) изображения и позволяет разгрузить центральный… … Энциклопедический словарь

графический процессор — grafinis procesorius statusas T sritis automatika atitikmenys: angl. graphic job processor; graphics processor vok. Graphicprozessor, m; graphische Verarbeitungseinheit, f; graphischer Jobprozessor, m rus. графический процессор, m pranc.… … Automatikos terminų žodynas

Встроенный графический процессор — Встроенные графические процессоры Основная статья: Встроенный графический процессор IGP (сокр. от англ. Integrated Graphics Processor, дословно – интегрированный графический процессор) графический процессор (GPU), встроенный… … Википедия

центральный графический процессор — Специализированный процессор в компьютерной системе, обрабатывающий графическую информацию. [http://www.morepc.ru/dict/] Тематики информационные технологии в целом EN central graphics processorCGP … Справочник технического переводчика

Графический конвейер — Графический конвейер аппаратно программный комплекс визуализации трёхмерной графики. Содержание 1 Элементы трехмерной сцены 1.1 Аппаратные средства 1.2 Программные интерфейсы … Википедия

графический сопроцессор — Микропроцессор, использующийся в дополнение к центральному процессору для обработки изображений, в то время как центральный процессор решает другие задачи. Графический процессор рассчитывает местоположение всех точек, формирующих линию или форму… … Справочник технического переводчика

Графический акселератор — Видеокарта семейства GeForce 4, с кулером Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) устройство, преобразующее изображение, находящееся в памяти компьютера, в видеосигнал для монитора.… … Википедия

Графический адаптер — Видеокарта семейства GeForce 4, с кулером Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) устройство, преобразующее изображение, находящееся в памяти компьютера, в видеосигнал для монитора.… … Википедия

Графический ускоритель — Видеокарта семейства GeForce 4, с кулером Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) устройство, преобразующее изображение, находящееся в памяти компьютера, в видеосигнал для монитора.… … Википедия

Процессор — У этого термина существуют и другие значения, см. Процессор (значения). Запрос «ЦП» перенаправляется сюда; см. также другие значения. Intel Celeron 1100 Socket 370 в корпусе FC PGA2, вид снизу … Википедия

Не играми едиными. Ускорение программ с помощью видеокарты

Что такое видеокарта, знает каждый, ведь это главный элемент ПК, отвечающий за игры. И чем он мощнее, тем лучше. Однако в словосочетание «графический адаптер» вложено намного больше смысла. И кроме умения отапливать помещение и жрать электроэнергию «майнить» видеокарты способны ускорять работу некоторых полезных программ. В их число входят приложения для видеомонтажа, графического дизайна, 3D-моделирования, VR-разработок.

Читать еще:  ASUS ROG Phone II: представлен самый мощный Android-смартфон на данный момент

Техническая сторона вопроса

Обычно основная часть нагрузки ложится на центральный процессор. Но есть задачи, с которыми GPU справится во много раз быстрее, и было бы глупо этим не воспользоваться. Логично, что чаще всего это касается программ для работы с графикой, видео и 3D-моделированием.

Во время GPU-ускорения задействуется исключительно память видеокарты. Для простой работы с FHD достаточно 2 ГБ. Однако, когда один кадр компонуется из нескольких (картинка в картинке) или используются эффекты, одновременно обрабатывающие несколько кадров (шумодавы и т. д.), расход возрастает. Для UHD/4K-видео необходимо уже минимум 4 ГБ видеопамяти.

Конечный прирост производительности зависит от правильности настройки и общих параметров системы. В случае, например, рендеринга иногда разница с CPU составляет разы, а это сэкономленное время, которое, как известно, — деньги. Гарантировать точный результат ускорения не возьмется ни один производитель, ссылаясь на индивидуальность каждой системы.

Любая видеокарта в той или иной степени способна проводить сложные вычисления и обрабатывать графику. Больше других акцентирует внимание на неигровых возможностях и технологиях своих GeForce компания nVidia.

Тензорные ядра — присутствуют в адаптерах серии RTX, повышают производительность и энергоэффективность. Поддержка ИИ ускоряет расчеты и работу с графикой.

CUDA — проприетарная технология nVidia, доступная для устройств GTX и RTX. Позволяет использовать графический процессор для вычислений общего назначения, улучшает работу с фото, видео и 3D.

NVENC — отдельный аппаратный блок, способный кодировать и декодировать видеопоток. Благодаря этому разгружаются центральный и графический процессоры для запуска игр и других ресурсоемких задач. В первую очередь это интересно стримерам, но многие программы видеомонтажа уже приспособили NVENC под себя.

NVIDIA STUDIO DRIVER — выходит для видеокарт серии 10хх и моложе. Оптимизирует работу адаптера под такие приложения, как Autodesk Maya, 3ds Max, Arnold 5, DaVinci Resolve и т. д.

Карты AMD тоже хорошо справляются с вычислениями и обработкой графики, но любит говорить об этом исключительно компания Apple. AMD использует открытые технологии OpenGL и Vulcan — альтернативу CUDA.

Программы, работающие с GPU-ускорением

О возможности ускорения программы с помощью видеокарты можно узнать на официальном сайте. Все ведущие производители софта дают четкие инструкции, какая видеокарта подойдет и как включить GPU-ускорение. А первое, что приходит на ум, когда речь идет о работе с графикой и видео, — решения студии Adobe.

Adobe Premiere Pro использует вычислительные ресурсы видеокарт, начиная с версии CS5. Текущие версии для Windows поддерживают все современные GPU (включая встроенную графику Intel). CS6 и выше имеют функцию стабилизации видео Warp Stabilizer, которая устраняет дрожание камеры. Плагин использует GPU-ускорение только при финальном рендеринге изображения. Также в CS6 появился рендер Ray-traced 3D, который обсчитывает на видеокарте 3D-слои, камеру и источники света в композиции. Adobe Premiere CC научился работать одновременно с несколькими видеокартами, причем допускается использование разных серий и даже производителей (MultipleGPU). Выигрыш зависит от общей конфигурации ПК. Интересные возможности дает использование GPU сторонними плагинами. Можно ускорять Premiere при помощи CUDA одной видеокарты, при этом его плагин будет ускоряться OpenGL другой видеокарты. Такие плагины, как Magic Bullet Looks, Elements3D и т. п. могут использовать ресурсы GPU независимо от настроек Adobe. Подробные требования приложения к видеокарте можно найти на официальном сайте.

Adobe After Effectsпредъявляет к видеокартам аналогичные с предыдущим клиентом требования.

Adobe Photoshop также активно использует видеокарты в процессе обработки изображений. Фоторедактор закрывает некоторые свои возможности, если видеокарта их не поддерживает. Яркими примерами таких функций являются «Деформация перспективы», «Умная резкость», «Размытие». Пользователю доступны три режима: базовый, обычный и расширенный. Наиболее интенсивно использует видеокарту последний. Если наблюдается снижение быстродействия, стоит переключиться на уровень ниже, воспользовавшись вкладкой Дополнительные параметры.

Кроме продукции компании Adobe нельзя не вспомнить такие программы, как 3ds Max, DaVinci Resolve и Vegas Pro.

Данные о поддержке наиболее адаптированных приложений производители видеокарт публикуют на своих официальных сайтах:

eGPU — внешний графический процессор

Этот раздел касается в первую очередь техники компании Apple. Купертиновцы любят делать упор на творческие возможности своих устройств, однако пользователи макбуков и аймаков ограничены исходной комплектацией. На помощь приходит eGPU — внешняя видеокарта, с помощью которой, по заявлению производителя, можно увеличить скорость обработки графики на Mac в несколько раз.

По сути, это обычная видеокарта в специальном боксе с блоком питания и дополнительным охлаждением. Она подключается к макам посредством Thunderbolt 3. Уже много лет Apple использует видеокарты AMD, и весь софт Apple затачивается под новый API Metal. Графические решения nVidia ощутимого прироста производительности на Apple не дают, так как из-за патологической жадности компании не смогли договориться, и весь софт на маке заточен исключительно под AMD. В отместку nVidia недавно полностью отменила поддержку CUDA на MacOS.

А что могут «профи»?

Есть заблуждение, что для работы с графикой нужно купить максимальную видеокарту, а процессор любой сойдет. Это не так. Если процессор не будет успевать давать задания видеокарте, пользователь столкнется с простоем в ресурсоемких задачах. Есть и обратная зависимость: слабая видеокарта может сдерживать процессор в финальном рендеринге. Важен баланс. Если потребности пользователя все же переросли возможности обычных моделей, можно направить свой взгляд на дорогие и узкоспециализированные решения. Технически профессиональные и потребительские видеокарты отличаются несильно, все дело в ПО.

Несколько лет назад компания nVidia выпустила первый TITAN — запредельную по производительности и цене игровую видеокарту. Но вместо того, чтобы стать нишевым продуктом, она была буквально сметена с прилавков. Оказалось, что карта прекрасно справляется с расчетами, и многие компании с удовольствием покупали ее вместо дорогих про-аналогов. Разумеется, nVidia быстро смекнула, в чем дело, и в начале 2018 года прикрыла лавочку запретила использовать графические процессоры GeForce и Titan в составе дата-центров. По словам nVidia, нельзя гарантировать их безотказную работу в жарких условиях (и это не фигуральный оборот) в режиме 24/7. В качестве альтернативы предлагается использовать, например, Tesla V100, который гораздо мощнее GeForce и стоит в десять раз больше создан специально для работы в условиях ЦоД.

nVidia имеет три линейки профессиональных видеокарт: Quadro, NVS и Tesla.

    Quadro — служит для рендеринга видео, производства VR/AR, 3D-моделирования. Быстрые и дорогие. Чтобы оправдать стоимость, производитель оснащает их самыми современными и совершенными разработками, которые появятся только в следующих сериях GeForce. Для очень богатых дизайнеров и инженеров.

NVS — многопортовые карточки, созданные для подключения большого количества мониторов в одну панель. Например, с их помощью в Макдональдсе можно выбрать бигмак с помидорами или беконом, а в аэропорте найти свой рейс. По сути, это самая обычная «затычка», на которой распаяли много портов. Очень слабые по железу и очень дорогие по соотношению цена/производительность, но ценят их не за FPS в Батле.

Tesla ­— узкоспециализированная и сверхдорогая линейка для математических и физических расчетов. Для работы требуется CPU. Портов нет, поиграть нельзя, расходимся пацаны .

Компания AMD в качестве профессионального решения предлагает серию Radeon Pro. Также у них есть вычислительные аналоги Tesla с космическим ценником под названием Instinct.

Ссылка на основную публикацию
Статьи c упоминанием слов:

Adblock
detector