NVIDIA сертифікує платформи з елементами штучного інтелекту
Днями NVIDIA анонсувала ініціативу, спрямовану на підтримку платформ для гетерогенних обчислень на базі графічних
процесорів (GPU) в локальних середовищах. Системи, що сертифіковані NVIDIA, можуть оснащуватися вісьмома графічними
процесорами A100 та розгортатися на
кордоні мережі, а не
тільки у хмарі. У числі інших, першими були схвалені
серверні
платформи від Supermicro, а саме: AS-4124GS-TNR і AS-2124GQ-NART.
Надані на сертифікацію системи включають у себе як графічні процесори NVIDIA, так і комутатори сховища, які компанія
отримала в результаті придбання
Mellanox. Першими
учасниками програми, крім Supermicro, є Dell Technologies,
Hewlett-Packard, Inspur Technologies та Gigabyte. Якщо вірити інформації, яка опублікована в
корпоративному
блозі,
високе звання NVIDIA Certified Systems отримують попередньо протестовані платформи, на яких користувачі гарантовано
зможуть запускати контейнери NVIDIA NGC з елементами штучного інтелекту (AI).
Адель Ель-Халлак (Adel El-Hallak), директор з управління продуктами NGC, оголосив про плани в найближчому майбутньому
сертифікувати до 70 платформ від майже десятка OEM-виробників, які вже висловили готовність приєднатися до цієї
програми. І хоча сама NVIDIA не розкриває подробиці тестування, Ель-Халлак дає таке тлумачення підходам компанії:
«Спочатку ми тестуємо алгоритми машинного навчання, потім – вивід результатів, наприклад, потокову передачу відео
або
голосу з різними типами робочих навантажень HPC. Цим, по суті, ми визначаємо базовий рівень, нижній поріг
продуктивності. Виходячи з нього і даємо нашим OEM-партнерам поради з навчання, що потім відбивається на типі та
рівні
робочих навантажень».
Ель-Халлак зазначив, що в довгостроковій перспективі NVIDIA планує розширити ініціативу сертифікації також на
платформи
з графічними процесорами без комутаторів Mellanox.
NVIDIA заявила, що OEM-виробники або інші партнери не платять за участь в програмі сертифікації, але після
сертифікації
вони мають право на контрактну підтримку програмного забезпечення. Коли OEM-виробник продає кінцевому користувачеві
контракт на підтримку графічних систем з мережевим забезпеченням, той отримує доступ до сервісу безпосередньо від
NVIDIA, який регламентується угодою про рівень обслуговування. У підсумку, клієнт компанії отримує підтримку всього
програмного стека – будь то набори інструментів CUDA або драйвери – все, що пов'язане з робочими навантаженнями,
сертифікованими для роботи на таких платформах.
Можливо, пройде деякий час, перш ніж моделі штучного інтелекту та платформи, на яких вони працюють, будуть повсюдно
розгорнуті на кордоні мережі або навіть за її межами. Однак очевидно, що елементи AI в тій чи іншій мірі будуть
потрібні
майже в кожній обчислювальній системі. У більшості випадків будуть затребувані алгоритми, які засновані на моделях,
навчених в хмарі. Сьогодні перенавчання на платформах хмарних обчислень часто дуже громіздко. Програмним застосункам
все
частіше доводиться обробляти й аналізувати дані в реальному масштабі часу, оскільки вони створюються або збираються
безпосередньо на периферійних обчислювальних пристроях або вузлах.
|