1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Репортаж с NVIDIA GPU Technology Conference 2010

Репортаж с NVIDIA GPU Technology Conference

Encore

Адекват

Encore

Адекват

Основные события конференции NVIDIA GPU Technology Conference, которая проходила с 24 по 27 марта в Сан-Хосе, штат Калифорния (один из наиболее известных городов Кремниевой долины), мы кратко освещали в новостных заметках. Главный пункт мероприятия — презентация CEO и основателя компании NVIDIA Дженсена Хуанга, в ходе которой было представлено четыре продукта: графическая архитектура Pascal, видеоадаптер GeForce GTX TITAN Z, платформа Jetson TK1 и рабочая станция для рендеринга Iray VCA.

Кроме того, пользуясь возможностью лично присутствовать на GTC, мы выяснили некоторые подробности об инициативах NVIDIA, которых не найти в официальных презентациях и пресс-релизах, участвовали в сессиях для разработчиков и партнеров NVIDIA, которые используют GPU в различных научных и практических задачах. Настало время свести воедино наиболее интересное из того, что мы видели и слышали на GTC.

Дженсен Хуанг продемонстрировал рабочий прототип модуля на основе архитектуры GPU, которая придет на смену использующимся ныне Kepler и Maxwell — Pascal. Название Volta, которое ранее было зарезервировано за преемником Maxwell, отошло более поздней итерации. Если судить по графику, Pascal принесет радикальное увеличение производительности на ватт по сравнению с Kepler и Maxwell.

Плата прототипа занимает немногим больше места, чем две кредитные карты. Отсутствие видимых разъемов на ней объясняется тем, что модуль соединяется с материнской платой при помощи переходника (riser card). Это означает, что форм-фактор прототипа отличается от существующих карт расширения для шины PCI-E. NVIDIA будет выпускать компактные модули Pascal для установки в серверные корпуса, для чего нужно будет заручиться поддержкой производителей такого оборудования.

Модуль Pascal предназначен для работы с шиной NVLINK, которая в данном случае заменяет PCI-Express как средство коммуникации между GPU и CPU, обещая увеличение пропускной способности в 5-12 раз по сравнению с PCI-E 3.0 и одновременно — трехкратное увеличение энергоэффективности. Топология NVLINK строится на базе блока из восьми линий двусторонней направленности. Отдельно взятый GPU Pascal имеет несколько таких Point-to-Point-соединений, которые можно сгруппировать вместе, образовав высокоскоростной канал связи с CPU, а можно выделить часть из них для коммуникации между графическими процессорами.

Связь GPU и CPU одновременно осуществляется по интерфейсу PCI-E, дабы сохранить преемственность с существующей моделью программирования. Посредством PCI-Express осуществляются транзакции, инициированные на стороне CPU, посредством NVLINK — напротив, транзакции, инициированные GPU. Сам протокол NVLINK, как было сказано представителями разработчика, не совместим с протоколом PCI-Express, но в случае отстутствия поддержки NVLINK со стороны CPU Pascal может работать в legacy-режиме — на PCI-Express. Планируется выпуск плат для профессионального рынка как в представленном компактном форм-факторе, так и в виде привычных плат расширения PCI-E.

NVIDIA уже заручилась поддержкой IBM, которая внедрит NVLINK в будущих поколениях процессоров Power. С другими производителями CPU ведутся переговоры по этому поводу.

Такж в архитектуре Pascal NVIDIA впервые применяет Stacked DRAM (или 3D Memory, в терминологии самой NVIDIA). Такие чипы представляют собой несколько микросхем DRAM, соединенных между собой еще на стадии производства полупроводниковой пластины (wafer). Согласно одному из слайдов, посвященных Pascal, его шина будет в два-четыре раза шире по сравнению с текущим поколением GPU, вплоть до тысяч бит. Кроме того, Stacked DRAM обладает в четыре раза меньшим энергопотреблением по сравнению с обычной памятью.

Чипы размещаются на одной подложке (interposer) с GPU, что облегчает разводку сложнейшей шины. NVIDIA, по всей видимости, будет поставлять партнерам interposer с заранее установленным GPU и видеопамятью. 18 чипов, окружающих подложку GPU на плате прототипа, представляют собой компоненты системы питания.

3DRAM будет применяться во всем диапазоне продуктов на базе архитектуры Pascal, включая мобильные GPU.

Отметим, что NVIDIA пока не раскрывает никаких подробностей о потребительских продуктах на базе GPU Pascal. Будет ли в десктопных видеоадаптерах применяться шина NVLINK, остается неизвестным, как и любые подробности касательно архитектуры самого графического процессора.

GeForce GTX TITAN Z

Вслед за Pascal была анонсирована «двухголовая» видеокарта, представляющая собой комбинацию двух чипов GK110 с полностью функциональным набором ядер CUDA — 2880. Впрочем, если судить по тому, что заявленная производительность TITAN Z составляет 8 TFOPS, а единственный адаптер GeForce TITAN Black имеет вычислительную мощность 5,1 TFLOPS, сдвоенный адаптер должен работать на пониженных частотах.

На GTC мы успели сделать несколько эксклюзивных кадров TITAN Z. Адаптер выполнен в симметричном корпусе с единственным вентилятором системы охлаждения — он напоминает GeForce GTX 690, за исключением того, что TITAN Z занимает не два, а три корпусных слота. В апреле ожидается более подробная информация об устройстве и возможность получить тестовый семпл для полноценного обзора.

Рекомендованная розничная цена GeForce GTX TITAN Z для рынка США составляет $2 999. Это практически в три раза больше, чем стоимость единственной платы GTX TITAN Black. По всей видимости, TITAN Z, как и вся линейка TITAN, предназначен не столько для геймеров, сколько для тех пользователей, которые требуют поддержки расчетов с двойной точностью (FP64), но по каким-либо причинам не согласны на покупку NVIDIA Tesla, которая является специализированным акселератором вычислений.

Третий из крупных анонсов GTC — платформа для разработчиков Jetson TK1 на базе SoC Tegra K1. Цель NVIDIA — подстегнуть разработку встраиваемых систем, использующих GPU для параллельных вычислений, включая те задачи, в которых ранее использовались чипы FPGA, ASIC и DSP.

GPU в составе чипа обладает архитектурой Kepler и содержит 192 ядра CUDA. Таким образом, Jetson TK1 является идейным наследником предыдущего комплекта для разработчиков под названием Kayla, который был представлен на прошлогодней GTC и представлял собой двухчиповое решение на базе Tegra 3 и дискретного GPU GK208. К слову, в следующей итерации платформы Tegra — Erista — будет использоваться GPU на архитектуре Maxwell.

На плате Jetson TK1 распаяно 2 Гбайт RAM, 16 Гбайт flash-памяти, слот для SD-карт и порт SATA. Для коммуникации с внешними устройствами предусмотрены разъемы USB 3.0, HDMI 1.4, Gigabit Ethernet и COM-порт. На SoC нет предустановленного кулера, но благодаря тому, что энергопотребление Tegra K1 не превышает 10 Вт, разработчики могут решить эту задачу самостоятельно.

Jetson поддерживает полный набор инструментов программирования под API CUDA 6.0. Платформа работает под управлением 32-битной версии Ubuntu 13.04 для архитектуры Tegra. Кроме того, NVIDIA портировала на ARM-библиотеки VisionWorks, которые содержат алгоритмы так называемого машинного зрения — оно применяется в робототехнике, автомобильных компьютерах, системах дополненной реальности и так далее.

Jetson TK1 предназначен для разработки приложений под Tegra K1, которые затем будут перенесены на готовые устройства произвольного форм-фактора. С другой стороны, многие готовы использовать Jetson TK1 как он есть, особенно в таких случаях, когда нет ограничений на габариты. Устройство можно заказать

Читать еще:  Обзор смартфона Honor 10: старые трюки на новый лад

за $192. Поставки начнутся в апреле. Тогда же, как можно предположить, партнеры NVIDIA получат первые партии SoC Tegra K1.

Помимо платы Jetson, представленной на GTC, NVIDIA выпустила аналогичный комплект Jetson Pro, предназначенный специально для установки в автомобили. В отличие от Jetson TK1, Jetson Pro комплектуется относительно старым SoC Tegra 3, но обладает слотом PCI-E для опциональной установки дискретного GPU.

В ходе GTC были продемонстрированы примеры практического применения Tegra K1 во встраиваемых компьютерах. NVIDIA переделала приборные панели нескольких авто, полностью заменив механические органы управления бортовыми системами огромным сенсорным дисплеем. Отдельный экран занимает место приборной панели.

К слову, электрокар Tesla Model S в штатной поставке оснащается бортовым компьютером на базе Tegra с 17-дюймовым экраном.

Но CUDA во встраиваемых решениях имеет и более интересные применения, нежели рендеринг пользовательского интерфейса. На GTC мы увидели модифицированную Audi, которая обладает возможностями автопилота. С помощью библиотек VisionWorks на Tegra K1 реализуются функции машинного зрения для помощи человеку в процессе вождения. Бортовой компьютер находит свободное место для парковки в ряду машин, может отслеживать разделительные полосы на дороге. Камера, обращенная внутрь салона, наблюдает за тем, не уснул ли водитель за рулем.

Репортаж с NVIDIA GPU Technology Conference 2010

Узнайте, какие инструменты ВКонтакте помогут сохранить привычный ритм жизни, когда нужно оставаться дома.Посмотреть

NVIDIA для Разработчиков

Информация

Другое

Действия

Не ограничивайте себя во время самоизоляции!

Узнайте, какие инструменты ВКонтакте помогут сохранить привычный ритм жизни, когда нужно оставаться дома.Посмотреть

1 675 записей

Keynote CEO NVIDIA Дженсена Хуанга уже доступен на YouTube: https://bit.ly/35XCpYt

Почитать подробнее про главные анонсы, включая Ampere, DGX A100, ускорение Apache Spark и др. можно здесь: https://bit.ly/2AnhORr

CUDA 11 Features Revealed

PAC-MAN исполняется 40, NVIDIA GameGAN придает ей новый облик с помощью ИИ

NVIDIA, в сотрудничестве с Bandai Namco, отмечают 40-летие легендарной игры PAC-MAN, воссоздав классику с помощью искусственного интеллекта (ИИ). Показать полностью… Исследователи NVIDIA обучили модель ИИ, назвав ее NVIDIA GameGAN, на 50 000 эпизодах PAC-MAN и создали полностью функциональную версию игры без лежащего в ее основе игрового движка.

GameGAN – это первая нейросетевая модель, которая имитирует игровой движок с помощью генеративно-состязательных сетей (GAN). Состоящие из двух состязательных нейросетей, генератора и дискриминатора, GAN-модели учатся создавать новый контент, который выглядит настолько убедительно, что его можно принять за оригинал. Возможно, вам уже удалось попробовать NVIDIA GauGAN, модель глубокого обучения от NVIDIA, которая с легкостью превращает скетчи в фотореалистичные шедевры.

GameGAN позволит разработчикам ускорить процесс работы, так как можно будет автоматически генерировать схемы для новых уровней. С помощью GameGan можно также ускорить создание систем симуляции для обучения автономного транспорта, где ИИ может изучать правила окружения перед взаимодействием с соответствующими объектами в реальном мире.

NVIDIA GPU Tech Conference report

Posted by John Montgomery ON March 20, 2013

The GPU Technology Conference (GTC) has grown considerably over the years, a reflection of the increasing use of GPU processing. For the vfx and production community, this tech is has become an incredibly important part of the process — one could argue critical part — and its why fxguide is covering the event.

This holds especially true for NVIDIA GPUs, being widely adopted across numerous industries. In 2008, there were 100 million installed CUDA GPUs and 150,000 CUDA programming kit downloads. Today, there are over 430 million installed CUDA GPUs and 1.6 million downloads of CUDA

The conference itself has also grown in size and scope, with tracks in industries from design to medical, entertainment & media to finance. This is a high level professional conference for anything NVIDIA GPU. The second day of the conference opened today in San Jose with a keynote by Jen-Hsun Huang, Co-Founder, President and CEO of NVIDIA. There were several items of interest to the vfx and production community, including key demos and major product announcements.

GPU Roadmap

Huang laid out the GPU roadmap, which continues the trend of doubling the GFLOP performance per watt every two years. This is an important point to NVIDIA — they are very much focused on making the processing much more energy efficient over time. It’s a big deal and an important distinction for the future. This is something frankly you don’t see much in CPU development from Intel, especially on the desktop. As installations such as large render farms scale in size, this differentiation will become critically important (it already is). Especially if some of the shortcomings dealing with memory access can be addressed in the GPU in the future. And it looks like it will be dealt with.

The next iteration, Maxwell, is due in 2014 and aims to have “unified virtual memory”. This makes it possible for the GPU operations to read and see the CPU memory and the CPU to see the GPU memory.

What does this tech mean for you?

Effectively, the bottom line is that it should make it easier to program for the GPU, which means better and more efficient tools for artists.

Kepler GPU memory

The next step, Volta (due date was not given), is a nod to Alessandro Volta. Volta is credited with inventing the battery, and Huang says the name conveys the fact that they aim to make the architecture even more energy efficient. But the big news in Volta is the memory.

In the current Kepler architecture, the GPU chip is surrounded by the memory. And while the bandwidth of the memory on a GPU is greater than that on the CPU, there simply isn’t enough memory on the GPU for many of the tasks needed in vfx and post. Moving data from the GPU to the memory chip on the card is inefficient as the card itself has speed limitations due to its size and it actually takes (relatively) considerable power consumption to do the move.

Volta: Stacked DRAM

In Volta, the new generation will come with something new called “stacked DRAM”. This will solve having to get memory off the actual GPU chip and onto the surrounding board. The solution is to actually move the memory and stack multiple memory chips it on top of the GPU on a silicon substrate (a slice of silicon). They then cut through the memory, directly connecting the memory to the GPU.

What does that tech mean to you?

How does 1TB a second bandwidth through the GPU sound? Pretty damned fast ! However, getting the data to the GPU is another matter, – but at least it appears as though the GPU itself will no longer be a bottleneck.

Читать еще:  Итоги 2013 года: из чего сделаны SSD и что происходит с HDD

FaceWorks

There was a bit of eye candy, with a demonstration of real-time GPU rendering of a talking human, utilizing a bit of tech NVIDIA calls “FaceWorks”.

FaceWorks render: realtime results

In partnership with Paul Debevec and the crew at ICT, the initial data was acquired on the LightStage. However, that data ends up being around 32GB in size, which is far too much to be dealt with by a GPU’s limited memory bandwidth (though stay tuned for info about upcoming tech).

The data is reduced in size by various methods, one way being to pare down the textures by breaking it into tiles and then discarding tiles which are nearly identical to one another. In the end, through texture and mesh reduction the data can be reduced to around 300MB. While it wasn’t explicitly mentioned, the final HD resolution of the renders also impacts the needed resolution of the data.

The actual rendering is done through an 8000 instruction program which handles articulating geometry to transition between poses, as well as pixel processing of the renders and comping over the various HDR backgrounds. All in all, it takes close to two teraflops of performance, which is actually only about half of the capacity of the recently introduced GTX Titan. The end result is impressive. Admittedly, it wouldn’t be considered final render for motion picture work, but this is a real time talking head that looks pretty damned good. It’s complete with special rendering tweaks for the eyes as well as the obligatory sub surface scattering.

GRID VCA

Huang also introduced a new bit of hardware called the GRID Virtual Computing Appliance, or GRID VCA . This is a four rack unit high system that comes in two varieties:

  • 8 GPU system with 16 threads of Xeon CPU and 192GB of system RAM ($24,900 + $2,400/year for software license).
  • 16 GPU system with 32 threads of Xeon CPU and 384GB of system RAM ($39,900 + $4,800/year for software license)

NVIDIA already has enterprise level GRID hardware intended for very large installations with major IT support. The new GRID VCA is intended for small to medium size installations, allowing 8 concurrent connections for the base level system and 16 concurrent for the larger system.

So what’s the idea behind it?

Basically the unit has a virtualized environment on the VCA hardware set up by NVIDA at shipping to run a software application of some kind, ideally a GPU-intensive application. The end user then uses a lightweight client app to connect over the network to the VCA from their Windows, Linux, or OSX-based system. With the client app, it appears to the end user as though they’re running the application on their local machine….but in reality it is running on the GRID VCA in the datacenter. What is happening is that the graphics card “output” in the VCA is being sent over the network to the client as data instead of driving a graphics card.

If you’re familiar with VNC (or screen sharing), this is quite similar to that. The benefit is that as an artist you could be using an underpowered computer such as a Mac Book Air, yet effectively running a full CUDA enabled version of After Effects and be able to take advantage of ray traced rendering. They demoed at the keynote, “running” 3dsMax on your MacBook Pro…an app which doesn’t run on OS X.

This kind of tech is often used at vfx facilities to more easily manage installs, version changes, and even remote collaboration. Servers in the machine room run production software in virtualized systems and the artists computers are simply viewing a display of the virtualized desktop and app. This also helps with a major concern at facilities: media security. Because artists don’t actually have direct access to clips on their system, facilities can more easily meet the stringent security requirements studios place on their footage.

In the max system, there are eight graphics cards, each with two GPUs. In the initial shipping version only one GPU may be assigned per session, so a user can’t take advantage of utilizing multiple GPUs in a single session. Storage is via a NAS, as there is no built in storage and connectivity to storage is through 10 GigE.

The appliance is specifically designed for GPU-heavy applications. The specs list up to 16 concurrent users, but that many concurrent users could be problematic for many applications in the vfx industry due to the limited available CPU cycles (16 or 32 threads). So even though Adobe Premiere was demoed on stage for the keynote, the VCA isn’t ideal for an app like Premiere because it uses a lot of CPU and also a lot of storage bandwidth. 3D applications are a more appropriate use case, as would setting up several render nodes for After Effects’ raytracing engine. NUKE also wouldn’t be appropriate due to it’s use of CPU.

In the enterprise version of GRID, several virtualization solutions can be used, such as Citrix, VMWare, and Microsoft. For the new appliance version, NVIDIA created their own custom connectivity which is designed to be used over a LAN. The system comes totally pre-configured for user sessions. The goal was to make it easier to install in a facility that didn’t have a large IT staff.

OTOY Octane Renderer

Jules Urbach, OTOY chief executive officer, took to the stage today at the GTC keynote to show off their cloud-based Octane rendering solution. He demoed using their new service, utilizing 122 GPUs to render a fully ray traced scene from a Hasbro Transformers commercial in a 3dsMax viewport. As he moved items in the scene, it would only take about a second to fully render the frame.

fxguide covered the Octane renderer in an article earlier this year, but in brief it is the first unbiased 3D ray traced renderer to work exclusively on the GPU and more specifically only on NVIDIA CUDA GPUs. It achieves phenomenal results, with ten to fifty time speed increase over CPU based unbiased systems….all without sacrificing quality.

The “new” news related to the presentation is that pricing for the cloud-based Octane renderer was announced today. Their initial data center will have room for ten racks and they’ll be able to fit 160 GPUs per rack, connected entirely by infiniband. When the cloud rendering service enters beta in a couple of weeks, the pricing model they’ll be starting with pegs a maximum cost of $1/hr for 1 GPU.

Читать еще:  Обзор видеокарты AMD Radeon RX 580: Polaris второго поколения

They admit this is all new and they’re very open to looking at other pricing methods. For instance, they might also look to a spot model like Amazon AWS. This means that GPUs which weren’t currently being used could be offered at a lower price point to the end user, but the user would get bumped back in a holding pattern if standard jobs came through. Looking towards the future, Urbach says he expects the price to drop and the performance to increase, saying that one could render a :30 HD scene for a few dollars by as soon as next year. In a session later in the day, he also showed their realtime research game renderer, Brigade, and it was quite impressive. It showed fast realtime ray-traced renders while a car was being driven through the scene, complete with game engine physics.

We’ll have more coverage this week from GTC, including notes from Douglas Trumbull’s HFR presentation, some non-vfx tech covering live graphics for The America’s cup, and GPU tech being used at Pixar.

новости интернета и современных технологий

Вчера генеральный директор компании NVIDIA Джен-Сан Хуанг (Jen-Hsun Huang) выступил с докладом в рамках ежегодной конференции GPU Technology Conference. Более 3 тысяч слушателей собрались в большом павильоне в Сан-Хосе, чтобы узнать о предстоящих планах калифорнийского гиганта. К этому мероприятию наблюдается большой интерес прессы, который растёт с каждым годом. В текущем году было замечено более 180 репортеров и аналитиков, а количество фото- и видеокамер впечатлило очевидцев.

Вступительный видеоролик показывает, насколько важные и серьёзные задачи решают на сегодняшний день графические ускорители. GPU используют в системах наведения ракет, при подводном поиске мин, спутниковых системах, для решения разнообразных исследовательских и научных задач, и многих других приложениях. Господин Хуанг появляется, гордо держа в руках флагманский ускоритель GeForce Titan. Сразу же глава NVIDIA отметил ключевые пункты выступления, среди которых и самое интересное для нас — анонсы новых продуктов.

Первым делом были показаны возможности ускорителя Titan. В демонстрационном приложении было проведено моделирование океанских волн в режиме реального времени. Сложная задача учитывает множество факторов, включая силу и направление ветра, а также физические параметры корабля и его передвижение.

Далее был продемонстрирован рендеринг человеческого лица. В этой задаче, включающей проработку теней и прорисовку мелких деталей, использовалась мощность в 2 терафлопса. В анимации, которая разрабатывалась при сотрудничестве с Университетом Южной Калифорнии, решение NVIDIA отвечало за синтез 3D-изображения и моделирование его перемещения в пространстве и изменения мимики.

Пару слов было сказано о развитии GPU-вычислений. В 2008 году было загружено 150 тысяч экземпляров программного комплекта CUDA, 60 университетов занимались исследованием этой технологии, при этом было опубликовано около четырёх тысяч научных статей. В текущем году количество загрузок увеличилось до 1,6 млн. Всего отгружено 500 млн CUDA-процессоров, 540 университетов взяли на вооружение данную технологию. Кроме того, опубликовано 37 тысяч научных статей по этому направлению. Активно GPU используются и в суперкомпьютерах. Господин Хуанг отметил, что пик эры GPU-вычислений ещё не наступил, но мы находимся на стадии активного развития этих технологий.

Также представитель NVIDIA отметил важную роль GPU при решении таких задач, как поиск изображений или распознавание песен (Shazam). В частности, GPU позволяет в 5 раз ускорить инвертирование цветов, в 6 раз ускорить распознавание лиц.

Далее Хуанг перешел к анонсам новых решений. В 2008 году был представлен 1 ускоритель с поддержкой CUDA — NVIDIA Tesla. 2 года спустя появился Fermi. 2012 год ознаменовался выходом архитектуры Kepler. Следующим шагом в этом направлении станет выпуск решения Maxwell с унифицированной виртуальной памятью (GPU и CPU в рамках одного чипа смогут обращаться к памяти друг друга). После этого планируется выпуск решения с кодовым именем Volta, о котором известно пока лишь, что оно будет отличаться более высокой энергоэффективностью и поддержкой новой технологии «Stacked DRAM».

Что касается мобильных решений, то господин Хуанг приподнял завесу тайны над мобильным процессором следующего поколения. Его кодовое имя — Logan. Этот чип станет первым мобильным процессором с поддержкой CUDA. Logan будет включать GPU Kepler, поддержку CUDA 5 и OpenGL 4.3. Производство новинки стартует в следующем году.

Более того, вслед за Logan на рынок выйдет решение с именем Parker (не ранее 2015 года). Этот процессор станет 1 реализацией проекта Denver, первым 64-разрядным ARM-чипом, работающим в паре с GPU Maxwell, а также первым GPU с использованием транзисторов FinFET. Всего за 5 лет производительность Tegra вырастет в 100 раз, отметил представитель NVIDIA. Что ж, нам остаётся наблюдать, как компания реализует свои амбициозные планы.

Репортаж с NVIDIA GPU Technology Conference 2010

PLATFORMY

INNE ODNOŚNIKI

Konferencja poświęcona technologiom GPU
24-27 marca, 2014 | San Jose, Kalifornia

Na konferencję GTC przybędą uczestnicy z ponad 50 krajów, aby zapoznać się z niesamowitą mocą przetwarzania równoległego.

Weź udział w tym wydarzeniu wraz z międzynarodowym gronem naukowców, producentów, grafików, projektantów, badaczy, inżynierów i menadżerów branży IT, by:

  • zapoznać się z przełomową innowacją i treścią
  • usłyszeć o niezwykłym sukcesie wdrażania jednostek GPU
  • uczyć się od najlepszych specjalistów w dziedzinie przetwarzania równoległego i wizualizacji
  • współpracować z mentorami i ludźmi z branży

Bądź na bieżąco dzięki Aktualnościom GTC

Zaznacz w swoim kalendarzu

Informacje wizowe

«Unbelievable, to see in the same place financial engineers, physicians, astrophysicists, game creators. It is the only event in the world where you can see all those talented people. «
— Jonathan Lellouche, Quantitativer Analyst, MUREX

«It was a high energy event, excellent quality of attendees and a great opportunity to have some insight on nVidia’s roadmap. Looking forward to next year!»
— Rami Mukhtar, Project Leader, NICTA

«Very well organized – a great conference!»
— Guido Juckeland, Senior Systems Engineer (HPC), Leader Hardware Accelerator Group, TU Dresden — ZIH

«I work in this area of research and it is always of great use to me to see what the latest technology has to offer and to network with new people and catch up with those I already know.»
— Vladimir Glavchev, Advanced Technologies Engineer, BMW Group

«NVIDIA’s GPU Technology Conference isn’t your usual tech event. It’s much more like an academic conference, where the cutting edge of parallel programming is getting together to exchange ideas and to show the world just what general purpose GPU development is capable of delivering. Walk the halls between the conference sessions, and what you see are the hallmark of academia: conference posters that condense complex research topics into an A0 LaTeX printout. They’re fascinating pieces of work, covering computational biology, image processing, computational fluid dynamics, linear algebra, logic simulation, the list goes on –but there’s one thing they all have in common, they’re the underpinnings of our modern world.»
— ZDNet UK

Ссылка на основную публикацию
Статьи c упоминанием слов:
Adblock
detector