Ryzyka sztucznej inteligencji

Posłuchaj:
Udostępnij:

Niektóre ryzyka, które wiążą się ze stosowanie technologii cyfrowych, powtarzają się również w przypadku narzędzi z elementem AI. Te znamy. Ale z niektórymi ryzykami spotykamy się po raz pierwszy. Dla CFO, głównych księgowych, specjalistów finansowych stanowią one problem nie tylko ze względu na konsekwencje prawne czy biznesowe, ale też ze względu na prestiż ich zawodu i godność osób tradycyjnie obdarzanych wysokim zaufaniem.

Powtórzmy więc jeszcze raz (pisaliśmy o nich juz wielokrotnie w tym serwisie), jakie są to zagrożenia:

Wyjaśnialność: nie wiemy, w jaki sposób system sztucznej inteligencji dochodzi do wyników, które nam przekazuje. Jest „czarną skrzynką”. Z jednej strony, może to prowadzić do sceptycyzmu i oporu wobec tych technologii. Z drugiej strony, jeśli czujemy się przymuszeni, aby wierzyć narzędziu, mimo że nie wiemy dlaczego generujemy dane wyniki, to nie mamy nad nim władzy, lecz ono ma nad nami. Jest to destrukcyjne psychiczne i niebezpieczne biznesowo.

 

Stronniczość: systemy sztucznej inteligencji utrwalają i wzmacniają ją ze względu na stronnicze dane szkoleniowe. Znamy to: śmieciowe dane dają śmieciowy wynik. Jakość danych szkoleniowych może się polepszyć, ale stronniczość długo jeszcze będzie powszechna. Niesie zagrożenia prawne i wizerunkowe. Wbrew powszechnej narracji dane są dzisiaj ograniczeniem rozwoju praktycznych zastosowań AI. Z tego powodu do uczenia algorytmy często stosuje się syntetyczne dane, wyprodukowane przez inne algorytmy, aby potem – te wyuczone – zastosować w prawdziwym życiu.

 

Zagrożenia prywatności i bezpieczeństwa: Wszystko, co zostanie umieszczone w jednym z narzędzi sztucznej inteligencji, należy traktować jako ujawnienie informacji, w tym poufnych.  Nawet jeśli narzędzie Gen AI zapewnia opcję rezygnacji z wykorzystywania naszych danych do celów szkoleniowych, dane mogą nadal znajdować się na ich serwerach. Nie jest to rozwiązanie w 100% wolne od ryzyka.  Jest to również powód, dla którego niektóre firmy wolą uruchamiać własne modele w chmurze, aby zachować prywatność informacji w swojej firmie. Szczególnym zagrożeniem jest korzystanie z narzędzi AI przez pracowników bez powiadamiania o tych swoich przełożonych  i działu IT.

 

Kwestie prawne i regulacyjne: Jest to kwestia odpowiedzialności za decyzje podejmowane przez system AI lub przez człowieka ze wsparciem AI. Kiedy system sztucznej inteligencji popełnia błąd, kto jest winny? Czy jest to programista, użytkownik, czy sama maszyna?  Różne kraje proponują odmienne podejścia do regulacji. Niepewność co do przyszłych ram regulacyjnych i rozbieżności między jurysdykcjami sprawia, że ​​planowanie inicjatyw w zakresie sztucznej inteligencji jest trudne.

 

Niedokładność i dezinformacja: systemy sztucznej inteligencji mają charakter statystyczny, ​​analizują dane i generują odpowiedź zgodnie ze wzorcami i korelacjami statystycznymi. Największym problemem to, że nie wiemy, kiedy AI działa poprawnie a kiedy generuje błędy lub wręcz halucynacje. Nie opracowano dotąd  żadnych standardów do oceny jej skuteczności, na wzór innych obszarów techniki. Na razie po prostu człowiek musi ocenić poprawność wyniku generowanego przez AI. To stwarza nowe wyzwania również dla finansistów i księgowych.

 

Skalowanie błędów: Pracownicy mogą codziennie popełniać kilka błędów, ale bot przetwarzający znacznie większą ilość danych i bezustannie zwielokrotni ten błąd do takiej skali, że może zagrozić istnieniu firmy.

Iwona D. Bartczak