Facebook zaprezentował „Big Sur” – sprzęt komputerowy nowej generacji służący do trenowania sieci neuronowych, który będzie również wspierał inicjatywę Open Compute Project. Postępy w dziedzinie AI są w dużej mierze możliwe dzięki potężnym komputerom – w szczególności zasilanym układami GPU. Osiągnięcia te idą ramię w ramię z możliwościami obliczeniowymi – szybszy sprzęt i oprogramowanie umożliwiają przeprowadzenie dogłębniejszych badań i pracę na bardziej złożonych systemach.


W ciągu ostatnich kilku lat, Facebook udostępniał w formie open source elementy infrastruktury i projektów oraz opracował oprogramowanie, które potrafi czytać historie, odpowiadać na pytania dotyczące scenerii, grać w gry, a nawet uczyć się nieokreślonych czynności. Teraz ten katalog powiększa się także o sprzęt udostępniony w formie projektów i oparty na licencji open source. Pozwoli to innym organizacjom tworzyć infrastruktury AI bez względu na to, czy są start-upami, uczelniami czy dużymi przedsiębiorstwami.


Dzięki współpracy z NVIDIA, Big Sur jest:

  • 2 razy szybszy niż poprzednia generacja stworzona przez Facebooka, co oznacza, że firma może ze zdwojoną prędkością trenować dwukrotnie większe sieci;
  • bardziej wszechstronny i bardziej wydajny niż inne, gotowe rozwiązania poprzedniej generacji, a przy tym zoptymalizowany pod kątem wydajności cieplnej i energetycznej. Umożliwia to Facebookowi obsługę serwerów nawet we własnych centrach danych zgodnych ze standardem Open Compute.

Dodatkowo zespół Facebook AI Research (FAIR) trzykrotnie zwiększa swoje nakłady inwestycyjne na układy GPU, co związane jest z coraz większym naciskiem firmy na badania oraz umożliwienie innym zespołom wykorzystanie sieci neuronowych w ich produktach i usługach.

Więcej informacji znajdą Państwo na stronie Code Engineering Blog.

źródło: Facebook

Kan