0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

NVIDIA EGX A100: платформа на базе Ampere для периферийных вычислений

Содержание

Nvidia EGX (платформа для периферийных вычислений)

Содержание

2020: Конвергентный ускоритель EGX A100 и микросервер EGX Jetson Xavier NX

14 мая 2020 года компания NVIDIA представила два продукта для платформы EGX Edge AI — конвергентный ускоритель EGX A100 для крупных коммерческих готовых к использованию серверов и крошечный EGX Jetson Xavier NX для граничных (edge) микросерверов, призванных обеспечить высокую скорость обработки ИИ-данных на периферии инфраструктуры. Благодаря платформе NVIDIA EGX Edge AI больницы, магазины, фермы и заводы могут выполнять в реальном времени обработку огромных массивов данных, поступающих с триллионов датчиков, с полной их защитой. Платформа позволяет разворачивать, управлять и обновлять парки серверов удаленно. По мнению производителя, конвергентный ускоритель EGX A100 и микросервер EGX Jetson Xavier NX удовлетворяют широкому спектру требований по размерам, стоимости и производительности. Так, серверы на базе EGX A100 могут управлять сотнями камер в аэропортах, в то время как EGX Jetson Xavier NX подойдет для управления несколькими камерами в небольших магазинах. Нативная облачная поддержка всех продуктов линейки EGX обеспечивает возможность использования единого оптимизированного ПО, позволяя быстро создавать и внедрять ИИ-приложения.

Как отметили в NVIDIA, EGX A100 – это edge продукт для ИИ на базе архитектуры NVIDIA Ampere. С распространением ИИ на периферийных устройствах компании могут устанавливать EGX A100 в свои серверы для обработки в реальном времени и защиты больших массивов данных, поступающих с граничных датчиков. Это решение сочетает высокую скорость вычислений архитектуры NVIDIA Ampere с ускоренным интерфейсом и возможностями безопасности, обеспеченными NVIDIA Mellanox ConnectX-6 Dx SmartNIC, чтобы превратить стандартные и специализированные edge серверы в защищенные облачные суперкомпьютеры для ИИ. Архитектура NVIDIA Ampere — 8-я архитектура GPU NVIDIA — обеспечивает, по данным NVIDIA, самый большой прирост производительности для широкого спектра ресурсоемких задач, включая ИИ-инференс и работу с 5G-приложениями на периферии. Это позволяет EGX A100 обрабатывать большие массивы данных в реальном времени, поступающие с камер и других IoT-датчиков для быстрого получения информации и повышения эффективности бизнеса.

Со слов разработчика, с сетевой картой NVIDIA Mellanox ConnectX-6 Dx система EGX A100 может получать до 200 Gbps данных и отправлять их прямо в память GPU для обработки ИИ или 5G сигналов. С управляемой по времени технологией передачи данных NVIDIA Mellanox для телекома (5T для 5G) облачный, программно-определяемый ускоритель EGX A100 способен справляться с большинством задач 5G, чувствительных к задержкам. Это создает полноценную ИИ/5G платформу для принятия решений в реальном времени непосредственно в местах событий — магазинах, больницах и на производствах.

EGX Jetson Xavier NX – это самый маленький, но мощный ИИ-суперкомпьютер для микросерверов и edge AIoT-устройств, утверждают в NVIDIA. По данным на май 2020 года свыше 20 решений на нем уже доступно от партнеров компании. Вся мощь системы-на-чипе NVIDIA Xavier заключена в модуле размером с кредитную карту. EGX Jetson Xavier NX, оснащенный облачным программным стеком EGX, может быстро обрабатывать потоковые данные от многочисленных датчиков высокого разрешения. Энергоэффективный модуль обладает производительностью до 21 TOPS при потреблении 15 Вт и 14 TOPS при 10 Вт. В результате, EGX Jetson Xavier NX открывает путь для встраиваемых устройств для граничных вычислений, которым требуется повышенная производительность для ИИ-задач для при сохранении компактных размеров, малого веса, лимита энергопотребления или стоимости.

Облачная архитектура платформы EGX AI Edge позволяет запускать контейнеризованное ПО для различных GPU-ускоряемых задач.

С поддержкой облачных технологий, доступных во всей линейке NVIDIA EGX, производители умных машин и разработчики ИИ-приложений могут создавать и разворачивать качественные, программно-определяемые приложения на встраиваемых и периферийных устройствах для робототехники, умных городов, медицины и промышленных IoT-устройств.

EGX A100 будут доступны к концу 2020 года. На май 2020 года готовые к работе edge микросерверы на базе EGX Jetson Xavier уже доступны для компаний, планирующих создание высокопроизводительных edge систем.

2019: Анонс ИИ-платформы для периферийных вычислений

27 мая 2019 года Nvidia представила свою первую ИИ-платформу для периферийных вычислений — Nvidia EGX. Она способна различать, понимать и обрабатывать данные в режиме реального времени без предварительной их отправки в облако или дата-центр.

Как пишет SiliconANGLE, использование искусственного интеллекта в периферийных устройствах, таких как смартфоны, всевозможные датчики и производственное оборудование, стало новым этапом технологической эволюции. Первые ИИ-алгоритмы были настолько сложными, что запускать их можно было запускать только на мощных компьютерах в облачных ЦОДах, и приходилось передавать большие массивы информации по сетям. Последние должны иметь высокую пропускную способность, но избежать существенных задержек в обработке всё равно тяжело, поэтому работа искусственного интеллекта в реальном времени затрудняется.

Компании хотят, чтобы ИИ-приложения запускались там, где создаются данные, например, на производственных объектах, складах или в магазинах. Для этих целей и была создана платформа Nvidia EGX.

Она может масштабироваться — от небольшого сервера на процессоре Jetson Nano, обрабатывающего 0,5 триллиона операций в секунду с потреблением нескольких ватт энергии, до микро-ЦОДа, включающего множество серверов с ИИ-ускорителями Nvidia T4, способных выполнять 10 000 триллионов операций в секунду.

Читать еще:  Двойной удар: стартуют продажи AMD Ryzen 3000 и Radeon RX 5700

Энергосберегающие возможности чипов важны для искусственного интеллекта, поскольку при выполнении таких задач традиционное оборудование является огромным источником потребления энергии.

Для продвижения платформы EGX компания Nvidia начала сотрудничать с 13 производителями серверов, среди которых — Cisco, Dell EMC, HPE и Lenovo. Также заключено соглашение с Red Hat, в рамках которого платформа интегрируется с решением для оркестрации контейнеров OpenShift Kubernetes. [1]

NVIDIA EGX A100: платформа на базе Ampere для периферийных вычислений

Сегодняшнее мероприятие NVIDIA чётко расставило приоритеты в экспансии графических процессоров с архитектурой Ampere. Они в первую очередь появятся в серверном сегменте, и сектор периферийных вычислений не стал исключением. Для него к концу года будут предложены ускорители NVIDIA EGX A100 со встроенным контроллером Mellanox.

Источник изображения: NVIDIA

Даже пандемия коронавируса не может полностью остановить экспансию сетей связи поколения 5G. Огромный сегмент рынка периферийных вычислений вполне достоин того, чтобы получать новейшие архитектурные решения в числе первых. Руководствуясь этой логикой, NVIDIA представила на текущей неделе платформу EGX A100, которая тоже использует графический процессор A100 с архитектурой Ampere и памятью типа HBM2, но размещается на единственной плате расширения, по соседству с сетевым контроллером Mellanox ConnectX-6 Dx SmartNIC, который обеспечивает скорость передачи информации до 200 Гбит/с.

Одной из сфер применения EGX A100 станут системы безопасности, способные обрабатывать данные с сотен камер наблюдения для распознавания лиц или каких-то определённых ситуаций. На производстве такие системы могут следить за работой технологического оборудования. Поставки EGX A100 начнутся в конце текущего года, стоимость решения не уточняется.

Источник изображения: NVIDIA

Для микросерверов, обслуживающих системы Интернета вещей, NVIDIA предлагает EGX Jetson Xavier NX на базе процессора Tegra одноимённого поколения. Печатная плата по своим размерам сравнима с банковской картой, уровень быстродействия зависит от энергопотребления. Если нужно уложиться в 15 Вт, то можно рассчитывать на 21 триллион операций в секунду, если тепловой пакет ограничен 10 Вт, то придётся довольствоваться 14 триллионами операций в секунду. На базе такого модуля можно построить, например, систему расчётов в магазине без кассовых аппаратов, где сумма покупок списывается с карты клиента автоматически по данным, полученным от продвинутой системы видеонаблюдения. Модули EGX Jetson Xavier NX уже доступны заказчикам.

Теперь с новым графическим процессором Nvidia поколения Ampere всё ясно. Компания представила ускоритель A100 на его основе

А ещё станция DGX A100 основана на процессорах AMD

Итак, пришёл черёд полностью официальных данных о новом графическом процессоре Nvidia поколения Ampere и о продуктах, связанных с этим GPU.

Во многом мы уже разобрались, опираясь на сторонние источники, но только что Nvidia опубликовала пресс-релиз и видео с презентаций в том числе GPU A100. И начнём мы с названия. Дело в том, что сама Nvidia создала некую путаницу с названиями. Компания везде говорит о продукте под названием Nvidia A100 GPU или Nvidia A100 Tensor Core GPU. И можно было бы подумать, что топовый графический процессор Ampere называется именно A100, однако, судя по различным данным и информации сторонних источников, это не так.

Nvidia A100 GPU — это не графический процессор сам по себе. Это графический ускоритель, который мы называли Tesla A100, но сама Nvidia на данный момент его так не называет. Либо мы имеем дело с ребрендингом, либо позже Nvidia A100 GPU просто появится на сайте Nvidia в соответствующем разделе под именем Tesla A100.

В любом случае, когда Nvidia говорит о Nvidia A100 GPU, она имеет в виду готовый ускоритель вычислений. Сам же графический процессор, лежащий в основе этого ускорителя, видимо, всё же называется GA100.

Мы уже знали, что GA100 содержит невероятные 54 млрд транзисторов и производится по семинанометровому техпроцессу на мощностях TSMC. Но была противоречивая информация относительно конфигурации. Итак, GPU GA100 содержит 8192 ядра CUDA, и это на 52% больше, чем у GPU GV100. Также GPU включает 512 тензорных ядер третьего поколения и шесть модулей памяти HBM2 с шиной памяти разрядностью в 6144 бита. Что интересно, тензорных ядер у GPU GV100 было больше, но в случае архитектуры Ampere это новые ядра третьего поколения, которые впервые поддерживают операции с плавающей запятой с одинарной и двойной точностью.

При этом ускоритель A100 или Tesla A100 располагает урезанным GPU GA100 с 6912 активными ядрами CUDA и 432 активными тензорными ядрами, а также пятью модулями HBM2 (40 ГБ) с шиной памяти разрядностью в 5120 бит.

То есть в случае A100 у графического процессора отключено 15% всех имеющихся у него ядер, и это странно. Возможно, Nvidia готовит что-то ещё более производительное, но обычно топовое решение компания показывает сразу. Можно предположить, что GPU попросту оказался настолько сложным, что выход полностью годных кристаллов сейчас мизерный, и Nvidia пришлось пойти на урезание GPU для топового продукта.

Также стоит отметить, что производительность ускорителя A100 составляет 19,5 TFLOPS (FP32) либо 9,7 TFLOPS (FP64), что далеко не вдвое больше, чем у Tesla V100 (15,7 и 7,8 TFLOPS соответственно). Однако именно в задачах, связанных с искусственным интеллектом, новый ускоритель превосходит старый порой в шесть-семь раз, что обусловлено новыми тензорными ядрами, превосходящими ядра прошлого поколения в 20 раз.

Также Nvidia подтвердила необычную функцию Multi-instance GPU у ускорителя A100. Она позволяет «разделить» графический процессор карты на семь «отдельных» GPU, каждый из которых будет заниматься отдельной задачей. Также есть возможность создания промежуточных конфигураций, но подробностей в пресс-релизе нет.

Отдельно стоит сказать пару слов и про станцию DGX A100 стоимостью 200 000 долларов, которая включает восемь ускорителей A100. Как оказалось, Nvidia для своих новых станций выбрала процессоры AMD, а не Intel, как ранее. Если точнее, DGX A100 содержит два 64-ядерных CPU Epyc 7742, а также 1 ТБ ОЗУ. Производительность станции достигает 5 PTFLOPS в задачах ИИ и 10 POPS в формате INT8.

Nvidia представляет свой первый графический процессор на базе процессора Ampere и поднимает планку для центра обработки данных AI

В условиях современной действительности, компания Nvidia развернула серию переговоров и анонсов в Интернете. Даже основной доклад стал виртуальным, популярная и традиционно бессвязная речь Дженсена была перенесена на YouTube. Конечно, легче освещать ключевые моменты в прямом эфире, находясь в офисе. Но, мы уже скучаем по личным встречам на конференциях и практическим демонстрациям.

Читать еще:  Видео: 7 минут стелса и боёв в Shadow of the Tomb Raider

В любом случае, в этом году на мероприятии было представлено впечатляющее количество анонсов с новой архитектурой Nividia Ampere как для центра обработки данных, так и для AI на грани, начиная с графического процессора A100 с архитектурой Ampere.

Nvidia A100: самый большой в мире 7-нм чип с 54 миллиардами транзисторов

Первый графический процессор Nvidia на базе процессора Ampere — новый A100 от компании, также является крупнейшим в мире и самым сложным 7-нм чипом с потрясающими 54 миллиардами транзисторов. Nvidia заявляет о приросте производительности до 20 раз по сравнению с предыдущими моделями Volta. A100 не только для искусственного интеллекта, поскольку Nvidia считает, что это идеальное устройство GPGPU для таких приложений, как анализ данных, научные вычисления и облачная графика. Для более легких задач, таких как логический вывод, один A100 может быть разделен на семь секций для параллельной работы нескольких нагрузок. И наоборот, NVLink позволяет тесно связать несколько A100.

Все ведущие поставщики облачных технологий, включая Google, Amazon, Microsoft и Baidu, заявили, что планируют поддерживать A100. Microsoft уже планирует выйти за рамки своего Turing Natural Language Generation, перейдя для обучения на A100s.

Инновационный TF32 направлен на оптимизацию производительности ИИ

Наряду с A100, Nvidia выпускает новый тип реализации с плавающей точкой одинарной точности — TF32 — для тензорных ядер A100. Это гибрид FP16 и FP32, целью которого является сохранение некоторых преимуществ производительности при переходе на FP16 без потери как можно большей точности. Новые ядра A100 также будут напрямую поддерживать FP64, что делает их все более полезными для различных приложений HPC. Наряду с новым форматом данных, A100 также поддерживает разреженные матрицы, так что сети AI, которые содержат много неважных узлов, могут быть представлены более эффективно.

Nvidia DGX A100: 5 PetaFLOPS в одном узле

Наряду с A100, Nvidia анонсировала свой новейший компьютер для центров обработки данных — DGX A100, серьезное обновление свои текущих моделей DGX. Первый DGX A100 уже используется в Аргоннской национальной лаборатории Министерства энергетики США, чтобы помочь в исследовании COVID-19. Каждый DGX A100 имеет 8х графических процессоров A100, обеспечивая 156 TFLOPS производительности FP64 и 320 ГБ памяти GPU. По цене «только» (по их словам) 199 000 долларов. Межкомпонентные соединения Mellanox допускают развертывание нескольких графических процессоров, но один DGX A100 также может быть разбит на 56 экземпляров, что позволяет выполнять несколько небольших рабочих нагрузок.

В дополнение к собственному DGX A100, Nvidia ожидает от своих традиционных партнеров, в том числе Atos, Supermicro и Dell, встраивания A100 в свои собственные серверы. Чтобы помочь в этом, Nvidia также продает ускоритель обработки данных HGX A100.

Nvidia HGX A100 ускоритель обработки данных

HGX A100 включает базовые строительные блоки супер-компьютера DGX A100 в форм-факторе, подходящем для облачного развертывания. Nvidia делает несколько впечатляющих заявлений о повышении цены и производительности, которые могут ожидать ее облачные партнеры от перехода на новую архитектуру. В частности, о сегодняшних системах DGX-1, Nvidia сообщает, что типичный облачный кластер включает в себя 50 модулей DGX-1 для обучения, 600 процессоров для вывода и стоит 11 миллионов долларов, занимает 25 стоек и потребляет 630 кВт мощности. Как заявляют представители компании Nvidia, с Ampere и DGX A100, нужен только один тип компьютеров, а их гораздо меньше: 5 блоков DGX A100 для обучения и вывода стоимостью 1 миллион долларов, занимающих 1 стойку и потребляющих всего 28 кВт мощности.

DGX A100 SuperPOD

Конечно, если у вас гипермасштабируемый вычислительный центр, вам никогда не хватит мощности процессора. Таким образом, Nvidia создала SuperPOD из 140 систем DGX A100, 170 коммутаторов InfiniBand, сетевой матрицы 280 ТБ / с (с использованием 15 км оптического кабеля) и 4 ПБ флэш-памяти. Nvidia утверждает, что все это оборудование обеспечивает более 700 петафлопов производительности ИИ и было разработано Nvidia менее чем за три недели, чтобы использовать его для собственных внутренних исследований. Если у вас есть место и деньги, Nvidia выпустила эталонную архитектуру для своего SuperPOD, чтобы вы могли создать свою собственную. Джоэл и мы думаем, что это звучит как предпосылки создания отличного DIY-устройства, которое должно быть в состоянии запустить масштабный проект Deep Space Nine примерно за минуту.

Nvidia расширяет свой суперкомпьютер SaturnV

Конечно, Nvidia также значительно расширила свой суперкомпьютер SaturnV, чтобы воспользоваться преимуществами Ampere. SaturnV состоял из 1800 систем DGX-1, но теперь Nividia добавила 4х DGX A100 SuperPOD, доведя SaturnV до заявленной общей емкости 4,6 экзафлопсах. Согласно Nvidia, это делает его самым быстрым суперкомпьютером с поддержкой ИИ в мире.

Jetson EGX A100 выводит A100 на грань

Ampere и A100 не ограничены центром обработки данных. Nvidia также анонсировала мощный специализированный графический процессор для периферийных вычислений. Jetson EGX A100 построен на базе A100, но также включает в себя высокопроизводительное соединение Mellanox CX6 DX, которое защищено с помощью криптографических методов защиты информации. Графический процессор также включает поддержку зашифрованных моделей для защиты интеллектуальной собственности OEM-производителя. Обновления наборов инструментов Nvidia на базе Jetson для различных отраслей промышленности (включая Clara, Jarvis, Aerial, Isaac и Metropolis) помогут OEM-производителям создавать роботы, медицинские устройства и ряд других высокотехнологичных продуктов с использованием EGX A100.

Начались поставки первого графического процессора на базе архитектуре NVIDIA Ampere – NVIDIA A100

Компания NVIDIA объявила о начале производства и поставок первого графического процессора на базе архитектуре NVIDIA Ampere – NVIDIA A100, который, обладает максимальным приростом производительности среди всех восьми поколений GPU NVIDIA и создает единую платформу для обучения ИИ и инференса, ускоряя производительность до 20 раз по сравнению с предшественниками. Универсальный ускоритель A100 также предназначен для задач анализа данных, научных вычислений и облачной графики.

Новые адаптивные вычислительное технологии в A100 позволяют подобрать необходимую вычислительную мощь для каждой задачи. Каждый GPU A100 может быть разделен на максимум семь независимых инстансов для задач инференса, а благодаря интерконнекту третьего поколения NVIDIA NVLink графические процессоры A100 можно объединить в один гигантский GPU для работы с моделями большого для работы с масштабными задачами.

Читать еще:  Увлекательная история фотографии - от дагеротипа до "цифры"

Ожидается, что процессоры A100 интегрируют в свои решения следующие поставщики облачных услуг и сборщики систем: Alibaba Cloud, Amazon Web Services (AWS), Atos, Baidu Cloud, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Google Cloud, H3C, Hewlett Packard Enterprise (HPE), Inspur, Lenovo, Microsoft Azure, Oracle, Quanta/QCT, Supermicro и Tencent Cloud.

Пять ключевых инноваций GPU NVIDIA A100:

  • В основе GPU A100 лежит новая архитектура NVIDIA Ampere с более чем 54 млрд транзисторов.
  • Тензорные ядра третьего поколения с TF32 — теперь они поддерживают TF32 для ИИ, что поднимает скорость ИИ-вычислений до 20 раз для FP32 без каких-либо изменений кода. Также, тензорные ядра теперь поддерживают FP64, что повышает скорость работы в HPC-приложениях до 2.5 раз по сравнению с предыдущим поколением.
  • Multi-instance GPU (MIG) позволяет разделить A100 на максимум семь отдельных GPU для выполнения задач разной степени сложности для оптимизации использования GPU и эффективности инвестиций.
  • NVIDIA NVLink третьего поколения — удваивает скорость высокоскоростного соединения между GPU для более эффективного масштабирования вычислений.
  • Structural sparsity — технология удваивает производительность, используя разреженность данных в задачах ИИ.

Платформа NVIDIA EGX Edge AI для ИИ в реальном времени на граничных устройствах

NVIDIA сегодня представила два новых продукта для платформы EGX Edge AI — конвергентный ускоритель EGX A100 для крупных коммерческих готовых к использованию серверов и крошечный EGX Jetson Xavier NX для граничных (edge) микросерверов, призванных обеспечить высокую скорость обработки ИИ-данных на периферии инфраструктуры.

Благодаря платформе NVIDIA EGX TM Edge AI больницы, магазины, фермы и заводы могут выполнять в реальном времени обработку огромных массивов данных, поступающих с триллионов датчиков, с полной их защитой. Платформа позволяет разворачивать, управлять и обновлять парки серверов удаленно.

Конвергентный ускоритель EGX A100 и микросервер EGX Jetson Xavier NX удовлетворяют широкому спектру требований по размерам, стоимости и производительности. Так, серверы на базе EGX A100 могут управлять сотнями камер в аэропортах, в то время как EGX Jetson Xavier NX подойдет для управления несколькими камерами в небольших магазинах. Нативная облачная поддержка всех продуктов линейки EGX обеспечивает возможность использования единого оптимизированного ПО, позволяя быстро создавать и внедрять ИИ-приложения.

«Сочетание интернета вещей и ИИ позволяет наделять интеллектом, без преувеличения, любое устройство, — говорит Дженсен Хуанг (Jensen Huang), учредитель и генеральный директор NVIDIA. — Крупные индустрии теперь могут выпускать умные подключенные продукты, как это происходит со смартфонами в телекоммуникациях. Платформа NVIDIA EGX Edge AI превращает стандартный сервер в небольшой защищенный облачный дата-центр с поддержкой ИИ. С помощью ИИ-фреймворков NVIDIA компании могут создавать различные ИИ-сервисы – от умной розницы и роботизированных заводов до автоматических колл-центров».

EGX A100 на базе архитектуры NVIDIA Ampere

EGX A100 – это первый edge продукт для ИИ на базе архитектуры NVIDIA Ampere . С распространением ИИ на периферийных устройствах компании могут устанавливать EGX A100 в свои серверы для обработки в реальном времени и защиты больших массивов данных, поступающих с граничных датчиков.

Это решение сочетает высокую скорость вычислений архитектуры NVIDIA Ampere с ускоренным интерфейсом и возможностями безопасности, обеспеченными NVIDIA Mellanox® ConnectX-6 Dx SmartNIC , чтобы превратить стандартные и специализированные edge серверы в защищенные облачные суперкомпьютеры для ИИ.

Архитектура NVIDIA Ampere — 8-я архитектура GPU NVIDIA — обеспечивает самый большой прирост производительности для широкого спектра ресурсоемких задач, включая ИИ-инференс и работу с 5G-приложениями на периферии. Это позволяет EGX A100 обрабатывать большие массивы данных в реальном времени, поступающие с камер и других IoT-датчиков для быстрого получения информации и повышения эффективности бизнеса.

«Данные, ИИ и умные облачные приложения кардинально меняют работу периферийных систем компаний во всех отраслях, — говорит Крис Райт (Chris Wright), старший вице-президент и технический директор Red Hat. — Новые ускорители NVIDIA EGX A100 вместе с предустановленными драйверами для Red Hat Enterprise Linux и сертифицированными операторами для Red Hat Openshift упрощают размещение и управление аппаратным обеспечением и помогают клиентам решать самые сложные задачи ИИ, граничных устройств и 5G».

С сетевой картой NVIDIA Mellanox ConnectX-6 Dx система EGX A100 может получать до 200 Gbps данных и отправлять их прямо в память GPU для обработки ИИ или 5G сигналов. С управляемой по времени технологией передачи данных NVIDIA Mellanox для телекома ( 5T для 5G ) облачный, программно определяемый ускоритель EGX A100 способен справляться с большинством задач 5G, чувствительных к задержкам. Это создает полноценную ИИ/5G платформу для принятия решений в реальном времени непосредственно в местах событий — магазинах, больницах и на производствах .

«Вместе с NVIDIA мы строим высокопроизводительную виртуализованную сеть радиодоступа 5G и ускоренную сеть 5G пакетной коммутации, — говорит Падип Коли (Pardeep Kohli), президент и генеральный директор Mavenir. — Это даст нам возможность предоставлять широкий круг GPU-ускоренных 5G сервисов — от ИИ и машинного обучения до дополненной и виртуальной реальности».

Маленький, но мощный EGX Jetson Xavier NX

EGX Jetson Xavier NX – это самый маленький, но очень мощный ИИ-суперкомпьютер для микросерверов и edge AIoT-устройств. Свыше 20 решений на нем уже доступно от партнеров компании. Вся мощь системы-на-чипе NVIDIA Xavier заключена в модуле размером с кредитную карту. EGX Jetson Xavier NX, оснащенный облачным программным стеком EGX, может быстро обрабатывать потоковые данные от многочисленных датчиков высокого разрешения.

Энергоэффективный модуль обладает производительностью до 21 TOPS при потреблении 15 Вт и 14 TOPS при 10 Вт. В результате, EGX Jetson Xavier NX открывает путь для встраиваемых устройств для граничных вычислений, которым требуется повышенная производительность для ИИ-задач для при сохранении компактных размеров, малого веса, лимита энергопотребления или стоимости.

«NVIDIA Jetson и NVIDIA EGX помогают преобразовывать розницу, ускоряя и делая безопаснее самообслуживание покупателей, — говорит Мэтт Скотт (Matt Scott), учредитель и генеральный директор Malong Technologies. — ИИ в нашей линейке продуктов RetailAI помогает точно распознавать сотни наименований продуктов в реальном времени, что делает шопинг легче и безопаснее. Такие системы можно развернуть в любом масштабе. Мы применяем решения NVIDIA, чтобы повысить удовлетворенность покупателей и компенсировать сокращение розницы, благодаря применению ИИ-решений на граничных устройствах».

Ссылка на основную публикацию
Статьи c упоминанием слов:
Adblock
detector