Systemy sztucznej inteligencji (AI) nie zawsze podejmują dobre decyzje. Zaawansowane algorytmy i modele mogą być stronnicze, a generowane przez nie wyniki niekiedy prowadzą do dyskryminacji ludzi ze względu na pochodzenie rasowe, wiek, płeć, dialekt, dochody czy miejsce zamieszkania.

Dzieje się tak, ponieważ sztuczna inteligencja uczy się na podstawie rzeczywistych doświadczeń. Niestety dotyczy to także rozpowszechnionych uprzedzeń i stereotypów.

Rozwój sztucznej inteligencji to jeden z najważniejszych trendów technologicznych, które już obecnie zmieniają sposób funkcjonowania wielu branż na świecie i w Polsce. Wdrożenie rozwiązań wykorzystujących sztuczną inteligencję może znacząco poprawić efektywność, ale przede wszystkim wspiera budowanie lepszej relacji pomiędzy firmą a jej klientami – mówi Jacek Borek, dyrektor zarządzający Accenture Technology w Polsce. – Sztuczna inteligencja nie zawsze działa poprawnie, czego przykładem mogą być przypadki dokonywania stronniczych ocen przez systemy oparte na AI. Tego typu problemy mogą zostać już wyeliminowane dzięki zastosowaniu najnowszych rozwiązań.

Aby przeciwdziałać nieobiektywnym ocenom AI, zespół Accenture Applied Intelligence opracował narzędzie AI Fairness Tool. Accenture jest jedną z pierwszych firm, które wprowadzą tego typu narzędzie na rynek. AI Fairness Tool zostało po raz pierwszy zaprezentowane podczas konferencji CogX, która odbyła się w czerwcu w Londynie. Firma Accenture stworzyła to narzędzie we współpracy z Data Study Group, składającej się z młodych, utalentowanych naukowców z Alan Turing Institute, brytyjskiego centrum specjalizującego się w badaniach nad analizą danych i sztuczną inteligencją.

Nowe narzędzie AI Fairness Tool umożliwia firmom oraz organizacjom rządowym sprawdzenie, czy ich systemy sztucznej inteligencji traktują wszystkich ludzi w sposób sprawiedliwy i bezstronny. Może ono mieć zastosowanie np. w bankowości, a dokładniej w aplikacjach AI, które na podstawie pewnych, dostępnych informacji określają, czy dana osoba powinna otrzymać kredyt. Bank zdaje sobie sprawę, że istnieje ryzyko stronniczości takiej oceny. Dzięki AI Fairness Tool specjaliści pracujący nad rozwojem systemów będą w stanie określić, zmierzyć i zwiększyć obiektywność nowej aplikacji AI na etapie jej opracowywania.

Główne funkcje AI Fairness Tool to:

  • Ocena danych i usunięcie szczątkowego wpływu: Narzędzie sprawdza dane, z których korzysta aplikacja AI i określa, jaki wpływ wrażliwe zmienne mają na inne zmienne. Dla przykładu, płeć często jest utożsamiana z wybranymi zawodami. Nawet jeśli firma usunie płeć ze zbioru danych, to nadal będzie ona miała szczątkowy wpływ na wynik, jeśli zawód będzie stanowił część zbioru.
  • Ocena modelu AI i jego dostosowanie: Narzędzie przeprowadza testy pod kątem błędów algorytmicznych. Sprawdza, czy wszyscy ludzie z tej samej grupy dochodów lub tej samej rasy są traktowani tak samo w kontekście fałszywie pozytywnych i fałszywie negatywnych wyników. Następnie narzędzie to dostosowuje model w celu zrównania wpływu, aby zapewnić sprawiedliwe traktowanie ludzi.
  • Obliczanie wpływu obiektywności na dokładność: Narzędzie pokazuje również, czy udoskonalenie obiektywności modelu sprawi, że będzie on mniej dokładny i w jakim stopniu.

Narzędzie AI Fairness Tool opracowane przez Accenture stanowi element gamy rozwiązań umożliwiających stworzenie sprawnej i responsywnej sztucznej inteligencji pozwalającej organizacjom na włączenie oceny etycznej w proces innowacji bez jego spowalniania.

źródło: Accenture