AWS (Amazon Web Services) ogłosił dziś dostępność modelu Meta Llama 3 w Amazon SageMaker JumpStart. Model Llama 2 jest dostępny w Amazon SageMaker JumpStart i Amazon Bedrock od zeszłego roku.

Model Llama 3 jest dostępny w dwóch rozmiarach parametrów – 8B i 70B z długością kontekstu 8k – które mogą obsługiwać szeroki zakres przypadków użycia dzięki ulepszeniom w rozumowaniu, generowaniu kodu i śledzeniu instrukcji. Llama 3 wykorzystuje architekturę transformatora opartą wyłącznie na dekoderze i nowy tokenizer, który zapewnia lepszą wydajność modelu o rozmiarze 128k. Ponadto, Meta ulepszyła procedury post-treningowe, które znacznie zmniejszyły wskaźniki fałszywych odmów i zwiększyły różnorodność odpowiedzi modelu.

Użytkownicy mogą teraz korzystać z połączonych zalet wydajności Llama 3 i kontroli MLOps z funkcjami Amazon SageMaker, takimi jak SageMaker Pipelines czy SageMaker Debugger. Ponadto, model Llama 3 zostanie wdrożony w bezpiecznym środowisku AWS pod kontrolą VPC, co pomoże zapewnić bezpieczeństwo danych.

 

  • AWS jest jedynym dostawcą chmury, który oferuje najbardziej zaawansowane modele podstawowe (FM)
  • Amazon Bedrock to w pełni zarządzana usługa, która oferuje najszerszy wybór wysokowydajnych modeli podstawowych od wiodących firm AI, takich jak: AI21 Labs, Amazon, Anthropic, Cohere, Meta, Mistral AI i Stability AI za pośrednictwem jednego interfejsu API