3 rady jak zapanować nad inteligentnymi algorytmami
Według jednego z największych umysłów współczesnych czasów, zmarłego w marcu Stephena Hawkinga, głównym wyzwaniem związanym ze sztuczną inteligencją jest sposób kontrolowania jej przez człowieka. Obawy dotyczące tej technologii potwierdzają wyniki badania SAS, w których niespełna połowa (47%) respondentów stwierdziła, że czuje się komfortowo, współpracując z firmami korzystającymi z AI. Twórcy rozwiązań wykorzystujących sztuczną inteligencję zwracają uwagę na fakt, że wymagają one nadzoru specjalistów, którzy wezmą odpowiedzialność za ich działanie.
(2 lipca 2018 r.) – Mimo że matematyczne modele sieci neuronowych opracowano w latach 40-tych ubiegłego wieku, analitycy musieli pokonać wiele przeciwności zanim algorytmy AI zaczęły prześcigać człowieka w coraz to nowych dyscyplinach. Wciąż trudno mówić o istnieniu sztucznej inteligencji, której sposoby „myślenia” byłyby choćby zbliżone do ludzkich. Obecnie AI jest wykorzystywana w ściśle określonych obszarach. Przykładowo system, który nauczył się gry w szachy nie będzie umiał postawić pasjansa. Zdaniem Daniela Dennetta niekontrolowany rozwój sztucznej inteligencji mógłby doprowadzić do utraty przez ludzi zdolności rozumienia. Amerykański filozof i kognitywista, zajmujący się m.in. ewolucją umysłu, twierdzi, że AI powinna być narzędziem, a nie kolegą. W jego opinii, gdy pozwolimy maszynie mieć swoje własne plany, cele, dążenia, może się okazać, że zacznie prowadzić działania, które będą dla nas niekorzystne lub których sobie nie życzymy.
Inwestycje w AI mimo obaw
Wiele obaw związanych ze sztuczną inteligencją wynika z braku zrozumienia, czym jest ta technologia, jaki jest stopień jej zaawansowania i jak wiele możemy od niej oczekiwać. Eksperci SAS, lidera analityki biznesowej i rozwiązań z zakresu AI, zwracają uwagę na fakt, że technologia ta potrzebuje bardzo dużej ilości danych oraz mocy obliczeniowej, niezbędnej do ich przetworzenia – dlatego efekty jej działania obserwujemy dopiero od kilku lat. To człowiek zasila system informacjami i wprowadza parametry wejściowe. Na obecnym etapie rozwoju sztuczna inteligencja nie wyręczy go we wszystkich procesach decyzyjnych. Natomiast niezwykle prawdopodobne jest, że w przyszłości będzie nas wspierać w czynnościach, które sami uznamy za uciążliwe lub nudne, jak np. tłumaczenia (namiastką czego jest obecnie Google Translate).
Obawy związane ze sztuczną inteligencją nie wstrzymują jej rozwoju. Zgodnie z przewidywaniami ośrodka badawczego Markets & Markets, w latach 2017 – 2023 wartość technologii opartej na sztucznej inteligencji będzie rosła o około 36% rok do roku.
Jak zapanować nad sztuczną inteligencją
Specjaliści z SAS wskazują 3 kroki, które pozwolą zapanować nad sztuczną inteligencją.
- Zapewnienie dobrej jakości danych – algorytmy sztucznej inteligencji są tworzone w oparciu o dane. Jeżeli jest ich zbyt mało lub są nieprawdziwe, system będzie prezentował błędne rezultaty. Analitycy muszą również brać pod uwagę, że ktoś, celowo lub przypadkiem, zasili system fałszywymi informacjami, przez co wpłynie na działanie algorytmów AI.
- Odpowiedni nadzór – projekty związane ze sztuczną inteligencją wymagają stworzenia odpowiedniej polityki i ustalenia, kto będzie sprawował nad nimi nadzór. Algorytmy AI wymagają regularnych audytów m.in. po to, aby upewnić się, że nie stały się one tendencyjne.
- Przewidywanie skutków działania sztucznej inteligencji – algorytmy sztucznej inteligencji rozwijają się same na podstawie analizy dostarczonych danych. Jednak bieżąca kontrola może być niewystarczająca. Należy upewnić się, że systemy wykorzystujące AI działają nie tylko efektywnie, ale dbają również o jakość, postępują zgodnie z zasadami etyki, a cele, które przed nimi stawiamy wzajemnie się nie wykluczają.
Przyszłość sztucznej inteligencji
Potrzebę zapanowania nad sztuczną inteligencją dostrzegają również władze międzynarodowe. Do końca 2018 roku Komisja Europejska przygotuje kodeks etyki, który ma obowiązywać organizacje rozwijające sztuczną inteligencję. Nie oznacza to jednak spowolnienia prac nad AI. Władze Unii Europejskiej chcą, aby do końca 2020 roku nakłady na badania i innowacje w sektorze publicznym i prywatnym dotyczące sztucznej inteligencji zwiększyły się o co najmniej 20 mld euro.
Ogromne inwestycje w sztuczną inteligencję nie mogą dziwić, gdyż korzyści wynikające z wykorzystania tej technologii są nie do przecenienia m.in. automatyzacja procesów czy poprawa jakości i personalizacja kontaktu z klientem (tzw. Customer Intelligence). Przykładem pierwszego zastosowania jest eksperyment przeprowadzony w Chinach, polegający na uruchomieniu fabryki prawie w całości obsługiwanej przez roboty. Projekt okazał się sukcesem, gdyż w placówce odnotowano mniej błędów i wzrost wydajności. Innym ważnym obszarem zastosowania AI jest medycyna, gdzie już dziś maszyna jest w stanie wykrywać na zdjęciach diagnostycznych różne formy nowotworu ze skutecznością dorównującą doświadczonym radiologom.
Źródło: 3 essential steps for AI ethics
Autor: SAS Institute
Niebywałe zidiocenie wykształconych ludzi ??? „sztuczna inteligencja” to w najlepszym przypadku symylacja rozumnych działań , symulacja rozumności . Symulacja czyli udawanie . Pod-rób-ka .Podróbka to intencja fałszu . Proteza rozumności , inteligencji . Proteza oznacza upośledzenie sprawności . A w każdym razie zniekształcenie pełnej sprawności . „Sztuczna inteligencja” może działać jak pewny siebie idiota bez mrugnięcia zadecyduje w każdej sprawie . Etyka w sprawowania kontroli nad sztuczną inteligencją jak to serio i szumnie brzmi . „sztuczna inteligencja” wydaje się czymś w rodzaju wróżenia opakowanego w technologię .Pozorna rozumność , inteligencja a rzeczywistości rzyt n-wymiarową kostką . Przypomina się film w którym dygnitarz wizytuje biuro urbanistyczne i ogląda projekt osiedla . Nanosi poprawkę swoją dłonią i słuszy nieśmiało zwróconą uwagę , że w miejscu w którym umieścił makitę budynku jest jezioro niezrażony stwierdza że jezioro przesunie się „tu” . Zautomatyzowane fabryki , taśmy montyjące samochody pokazywano już wiele lat temu z automatami spawalniczymi które bezbłędnie i szybko dokonywały spawów karoserii i nie robiono histerycznego hałasu o „sztucznej inteligencji . Jeżelispecjaliści świadczący usługi „SI” i oferujący tzw. roziązania wykorzystujące „sztuczną inteligencję ” stosują maszynkę losującą wróżbę i tylko pozornie ma miejsce racjonalne badanie danych bo to symulacja i algorytm ma wbudowany mechanizm wewnętrznego rozwijania się automatycznie to nie ma mowy o jakijkolwiek kontroli ludzi nad „sztuczną inteligencją” . O jakiej etyczności działania maszyny jest mowa . Czy chodzi o to że nikt nie podpiduje sie po dziełem o nazwie „sztuczna inteligencja” , nie ma autora który zna ją od podszewki , każdą jej „śrubeczkę” potrafi ją „rozebrać na czynniki pierwsze i na powrót złożyć w całość ” i nie ma nikogo kto chce wziąć odpowiedzialność za działanie oprogramowania ? Czy całę lata dołączania do oprogramowania tzw. umów licencyjnych zawierajacych sformułowania o odrzegnywaniu się wydawców i autorów oprogramowania od skutków jego działanie było przygotowaniem do mającej obecnie miejsce zmasowanej promocji „sztucznej inteligencji” ? Szum i hałas może świadczyć o tym że usiłuje się przepchnąć bujdę . .A żę 47 % respondentów czuje się komfortowo to pszypuszczalnie dlatego że nie przejęli się treścią niektórych akapitów EULA oprogramowania i oswoili się z uleganiem . Orogramowanie było „takie jakie jest” to znaczy „jakim mnie stworzono to takim mnie macia” : ) . A co z etycznością wróżb , wylosowywanych „karteczek z wróżbą” ? Pracownik biura projektowego ukazanego w komedii ośmielił sie zakwestionować śmiałe posunięcia dygnitarza kto poważy się dyskutować z rozstrzygnięciami „sztucznie inteligentnymi ” ? Tekst to reakcja piszącego na medialną histerię o tzw „sztucznej inteligencji” napisany w oparciu o odczucie rozsądku i takie pojęcie o tym oprogramowaniu która widzi w nim głównie narzędzie wyszukujące rozmaite dane w zbiorach cyfrowych nadające się do wyliczania posunięć w szachach i innych grach ,edycji tekstu i krekty w czasie rzeczywistym . Tu piszący zrezygnował z podpowiedzi automatycznej korekty w proteście ; ).