W świecie, gdzie technologia AI rośnie w siłę, bezpieczeństwo i zaufanie stają się kluczowymi kwestiami. Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI formalnie zobowiązały się do nowych standardów w dziedzinie bezpieczeństwa, zaufania i ochrony użytkowników po spotkaniu z Joe Bidenem w Białym Domu. To zobowiązanie, oznacza znaczący krok w kierunku zapewnienia odpowiedzialnego wykorzystania AI. W teorii.

 

Zarządzający zatwierdzili obszary, nad którym będą pracować, dotyczą one:

  • Zapewnienie bezpieczeństwa produktu: zobowiązali się do przeprowadzenia wewnętrznych i zewnętrznych testów bezpieczeństwa swoich systemów AI przed ich wypuszczeniem na rynek.
  • Zadeklarowali również podzielenie się informacjami dotyczącymi zarządzania ryzykiem AI z całym przemysłem oraz z rządami, społeczeństwem obywatelskim i środowiskiem akademickim.
  • Budowanie systemów zorientowanych na bezpieczeństwo: inwestowanie w zabezpieczenia przed zagrożeniami cybernetycznymi i wewnętrznymi, aby chronić własnościowe i nieopublikowane wagi modeli, które są najistotniejszą częścią systemu AI. Testowanie to ma na celu ochronę przed znaczącymi zagrożeniami, takimi jak biozabezpieczenia i cyberbezpieczeństwo, oraz szerszymi skutkami społecznymi.
  • Zdobywanie zaufania publicznego: rozwijanie mechanizmów, które zapewnią użytkownikom zdobywanie wiedzy, kiedy treść jest generowana przez AI. Firmy zobowiązały się do opracowania mechanizmów technicznych, takich jak system znakowania wodnego, aby użytkownicy wiedzieli, kiedy treść jest generowana przez AI. Zmiany będą również widoczne w obszarze raportowania zdolności, ograniczeń i obszarów odpowiedniego i nieodpowiedniego wykorzystania swoich systemów AI. Zobowiązania te obejmują również priorytetowe badania nad ryzykiem społecznym, które mogą stanowić systemy AI, w tym unikanie szkodliwych uprzedzeń i dyskryminacji oraz ochronę prywatności.

 

Rynek już pyta o szczegóły, jak będzie wyglądała praktyczna strona tych zobowiązań, w teorii jest to znaczący kamień milowy na drodze do odpowiedzialnego AI – przyszłość zweryfikuje, czy jest to tylko pobożne życzenie, czy dobry początek rzeczywistych działań. Piotr Kowynia, CEO Nest Banku, komentuje, że to wydarzenie stanowi precedens dla innych firm do naśladowania i kładzie podwaliny pod bardziej formalne regulacje dotyczące AI, stanowiąc podwaliny zaproponowane bezpośrednio przez kluczowych graczy rynkowych.

 

Jednak największe wyzwanie polega na interpretacji tych zobowiązań, ponieważ różni interesariusze mogą je różnie interpretować. Ponadto istnieje potrzeba zrównoważenia potrzeby regulacji z potrzebą wspierania innowacji w dziedzinie AI. Sytuacja przypomina koncepcję zbiorowej odpowiedzialności. Okaże się czy big techy są zdolni do działań społecznie odpowiedzialnych, jednocześnie rezygnując z dążenia do własnego interesu i interesu swoich inwestorów.

W obliczu rosnącej roli AI na świecie, zobowiązania te są krokiem naprzód w kierunku tworzenia bezpiecznego i odpowiedzialnego ekosystemu technologii AI. Innowacja nie powinna odbywać się kosztem praw i bezpieczeństwa obywateli. To, co teraz zostanie zrobione dobrze lub źle, najprawdopodobniej będzie miało wpływ na przyszłość technologii AI.

Wyważenie innowacji z ochroną praw i bezpieczeństwa obywateli będzie kluczem do sukcesu. W miarę jak decydenci na całym świecie będą dążyć do wprowadzenia regulacji, te zobowiązania mogą służyć już jako model dla przyszłych standardów i praktyk.