Hewlett Packard Enterprise ogłasza rozszerzenie swojej współpracy strategicznej z firmą NVIDIA w celu opracowania rozwiązania obliczeniowego klasy korporacyjnej do zastosowań w obszarze generatywnej sztucznej inteligencji (GenAI). To wspólnie opracowane i wstępnie skonfigurowane narzędzie do strojenia i wnioskowania za pomocą AI pozwala korporacjom dowolnej wielkości na szybką personalizację modeli bazowych za pomocą danych prywatnych oraz na wdrażanie aplikacji produkcyjnych w dowolnym miejscu, od brzegu sieci po chmurę. Oferta ta oznacza prostsze opracowywanie i implementację infrastruktury GenAI – pozwala na zastosowanie narzędzia full-stack do strojenia i wnioskowania opracowanego przez HPE i NVIDIA.

Gdy korporacje opracowują i wdrażają modele GenAI, w takich celach jak konwencjonalne wyszukiwanie, automatyzacja procesów biznesowych czy tworzenie treści, pojawia się potrzeba użycia oprogramowania i infrastruktury cechujących się możliwością szybkiego wdrożenia w dowolnej lokalizacji. Prezentowane rozwiązanie z obszaru generatywnej AI jest elementem rozszerzonej współpracy między HPE a NVIDIA, której wynikiem są gotowe do użycia rozwiązania dla AI typu full-stack. Rozwiązania te łączą środowisko HPE Machine Learning Development Environment Software, HPE Ezmeral Software, serwery HPE ProLiant Compute oraz Superkomputery HPE Cray z pakietem oprogramowania NVIDIA AI Enterprise, m.in. z NVIDIA NeMo.

„Współpraca HPE i NVIDIA pozwala na zaoferowanie kompleksowego, natywnego dla AI pakietu, który – dzięki palecie prekonfigurowanych rozwiązań – radykalnie ułatwi opracowywanie i wdrażanie modeli AI” – mówi Antonio Neri, prezes i dyrektor zarządzający HPE. „Ta strategiczna współpraca znacznie ograniczy trudności, przed jakimi stają klienci chcący dokonać transformacji swoich firm za pomocą AI”.

„Na dobre weszliśmy w erę generatywnej AI, a firmy prześcigają się w przebudowie swoich modeli biznesowych” – mówi Jensen Huang, założyciel i dyrektor zarządzający NVIDIA.  „Pogłębiona współpraca z HPE pozwoli przedsiębiorstwom na osiągnięcie bezprecedensowych poziomów produktywności dzięki zastosowaniom AI, które wykorzystują dane biznesowe w aplikacjach takich jak asystenci, chatboty czy wyszukiwanie semantyczne”.

Przyspieszone wdrażanie AI dzięki specjalnie zaprojektowanemu narzędziu do dostrajania modeli AI i wnioskowania z wykorzystaniem AI

Prezentowane narzędzie wykorzystuje centra danych i pozwala na dostrajanie generatywnej AI oraz wnioskowanie z jej użyciem. Stanowi ono idealny punkt wyjścia dla przedsiębiorstw dowolnej wielkości, ponieważ jest gotowe do użycia już w momencie nabycia, pozwalając na szybkie rozpoczęcie podróży w stronę AI.

To rozwiązanie obliczeniowe dla generatywnej AI pozwala przedsiębiorstwom na wykorzystanie wstępnie wytrenowanych modeli bazowych w połączeniu z własnymi danymi prywatnymi w celu opracowania aplikacji produkcyjnych, takich jak chatboty wykorzystujące AI. Ponadto, zastosowanie RAG (retrieval-augmented generation) pozwala na dalsze podniesienie jakości danych i precyzji działania aplikacji.

  • Zaprojektowane i zoptymalizowane pod kątem zastosowań AI: architektura rack-scale z nowoczesnym serwerem HPE ProLiant Compute DL380a wraz z procesorami GPU NVIDIA L40S, NVIDIA BlueField-3 DPU soraz platformą sieciową NVIDIA Spectrum-X Ethernet Networking Platform, zaprojektowana pod kątem hiperskalowej AI. Rozwiązanie zostało dostosowane do strojenia modelu Llama 2 (70 miliardów parametrów) i wykorzystuje 16 serwerów HPE ProLiant DL380a i 64 procesory GPU L40S.
  • Oprogramowanie AI od HPE: środowisko HPE Machine Learning Development Environment Software z nowymi funkcjonalnościami z obszaru generatywnej AI pozwala na szybkie prototypowanie i testowanie modeli, zaś nowe oprogramowanie HPE Ezmeral Software umożliwia uproszczenie implementacji i przyspieszenie przygotowywania danych dla zadań AI w chmurze hybrydowej.
  • Oprogramowanie NVIDIA AI: NVIDIA AI Enterprise przyspiesza opracowywanie i wdrażanie produkcyjnych zastosowań AI dzięki zastosowanym zabezpieczeniom, stabilności, łatwości zarządzania i wsparciu. Oferuje ono oprogramowanie NVIDIA NeMo, zestawy narzędzi do ochrony i selekcji danych (data curation) oraz wstępnie wytrenowane modele, co pozwala na efektywniejsze wprowadzanie korporacyjnej GenAI.

Przyspieszenie podróży w stronę AI z pomocą HPE Services

Obecnie HPE Services to szeroka gama usług konsultingowych, szkoleń dla pracowników i rozwiązań wdrożeniowych. Nowe usługi w obszarze AI towarzyszą użytkownikowi na każdym etapie podróży, od wprowadzenia do tematyki GenAI i LLM po implementację, umożliwiając wypracowanie optymalnych modeli operacyjnych i strategii przechowywania danych w chmurze hybrydowej niezbędnych do zbudowania, wdrożenia i skalowania rozwiązań o transformacyjnym wpływie na działalność. Te kompleksowe usługi są wspierane przez nowe Globalne Centra Doskonałości dla AI i Danych, które obecnie działają w Hiszpanii, Stanach Zjednoczonych, Bułgarii, Indiach i Tunezji.

HPE przyspiesza trenowanie AI dzięki gotowym rozwiązaniom na sprzęcie NVIDIA

Podczas konferencji SC23, HPE zaprezentowała opracowane „pod klucz” rozwiązanie superkomputerowe z zastosowaniem hardware firmy NVIDIA, zaprojektowane pod kątem potrzeb dużych przedsiębiorstw, instytucji badawczych i podmiotów administracji publicznej, które ułatwia pierwszy etap cyklu życia AI – opracowywanie i trenowanie modeli bazowych. To korporacyjne rozwiązanie obliczeniowe dla generatywnej AI jest dostosowane do wymagań klientów klasy korporacyjnej, którzy koncentrują się na dostrajaniu modeli i wnioskowaniu z użyciem AI.

Nowa, natywna architektura AI i hybrydowe rozwiązania chmurowe pozwalają przyspieszyć opracowywanie i wdrażanie modeli AI

Podczas HPE Discover Barcelona 2023, zaprezentowana została nowa, otwarta, natywna dla AI architektura typu full-stack i szereg innych, natywnych dla AI rozwiązań dla uczenia maszynowego, analityki danych, przechowywania plików zoptymalizowanego pod kątem AI, dostrajania i wnioskowania AI oraz usług profesjonalnych.