Psychologiczne pułapki podejmowania decyzji versus sztuczna inteligencja

Posłuchaj:
Udostępnij:

27.03.24 zmarł Daniel Kahneman, psycholog (ale laureat Nobla z ekonomii), którego odkrycia dotyczące ludzkiego myślenia i podejmowania decyzji miały ogromny wpływ na zrozumienie ekonomii. W skrócie – nie jesteśmy logiczni i racjonalni wydając – lub nie – pieniądze. Niechęć do straty motywuje nas bardziej niż umiłowanie zysku. Powiedział: „Ekonomiści myślą, że ludzie są racjonalni. Myślą o tym, co ludzie powinni zrobić. Psychologowie badają, co naprawdę robią”.

Przypominamy wywiad z prof. Dariuszem Jemielniakiem, nawiązujący do spostrzeżeń Kahnemana, zapowiadający jedna z debat na konferencji „Azymut dla CFO”

– Czy sztuczna inteligencja zastosowana w narzędziach do analizy i raportowania, używanych przez menedżerów, jest w stanie wyeliminować pewne mechanizmy psychologiczne w podejmowaniu decyzji, np błąd potwierdzenie, zakotwiczenia czy przywiązania do status quo?

Oczywiście, sztuczna inteligencja ma potencjał do zminimalizowania, a nawet eliminowania pewnych mechanizmów psychologicznych, które mogą wpływać na decyzje menedżerów. Oto kilka przykładów:

1. Błąd potwierdzenia (potwierdzania własnych przekonań) – Sztuczna inteligencja nie posiada emocji ani uprzedzeń, więc w teorii nie jest podatna na szukanie i preferowanie informacji, które potwierdzają jej „przekonania”. Algorytmy są zaprogramowane do analizowania danych obiektywnie, a nie do potwierdzania wcześniejszych wniosków.

2. Zakotwiczenie – To psychologiczny mechanizm polegający na opieraniu się na pierwszej dostępnej informacji (kotwicy) podczas podejmowania decyzji. Sztuczna inteligencja może być zaprogramowana do unikania takich błędów poprzez przetwarzanie wszystkich dostępnych informacji równocześnie, zamiast opierać się na pierwszej dostępnej.

3. Przywiązanie do status quo – Ludzie mają naturalną skłonność do opierania się zmianom i trzymania się obecnej sytuacji. Sztuczna inteligencja nie posiada takiej skłonności. Jeżeli dane sugerują, że pewna zmiana przyniesie korzyści, AI zarekomenduje ją bez względu na obecny stan rzeczy.

Mimo tych zalet warto pamiętać, że narzędzia oparte na sztucznej inteligencji nie są wolne od błędów. Mogą one wynikać z błędnych danych wejściowych, niedoskonałości algorytmów czy stronniczości w procesie uczenia maszynowego. Dlatego ważne jest, aby menedżerowie korzystali z narzędzi opartych na AI w połączeniu z własnymi umiejętnościami analitycznymi, doświadczeniem i intuicją, a nie polegali wyłącznie na rekomendacjach generowanych przez maszyny.

– Chat GPT czy inny silnik tego typu uczy się na wszystkich dostępnych danych, również śmieciowych, nawet jeśli jest ograniczony do pewnego środowiska i w nich szuka najczęstszej odpowiedzi czy wzoru. W firmach dotąd staraliśmy się dbać o jakość danych, o to aby proces master data był wysokiej jakości, i ze względów biznesowych,  i ze względu na konieczność uzyskania poprawnych podpowiedzi np. harmonogramów produkcji,  i ze względów regulacyjnych (np. ze względu na cyfryzację i permanentną kontrole fiskusa).  To są dwie różne logiki podejścia do danych. Jakie mogą być konsekwencje poszerzenia stosowania AI dla poprawności decyzji biznesowych i operacyjnych? 

Ta dychotomia faktycznie ma znaczenie. Modele językowe, takie jak Chat GPT, uczą się z ogromnych zbiorów danych, które obejmują zarówno wysokiej jakości informacje, jak i dane o niższej jakości (śmieciowe). W firmach natomiast istotna jest precyzja, jakość i wiarygodność danych. Oto kilka potencjalnych konsekwencji stosowania AI w kontekście decyzji biznesowych i operacyjnych, biorąc pod uwagę te dwa różne podejścia:

1. Jakość danych to jakość wyjścia (tzw. GIGO, „garbage in, garbage out”): Jeśli AI jest trenowane na danych o niskiej jakości, wyniki, które generuje, mogą być mylące lub niepoprawne. W biznesie to może prowadzić do błędnych decyzji, które mogą mieć poważne konsekwencje finansowe i operacyjne.

2. Niezrozumienie kontekstu: Chociaż modele językowe są imponujące w interpretowaniu zapytań, mogą nie rozumieć pełnego kontekstu biznesowego lub specyfiki branży. Bez integracji z dokładnymi i aktualnymi danymi firmowymi mogą dostarczać ogólne lub nieaktualne odpowiedzi.

3. Zagrożenie dla prywatności i regulacji: Wdrażanie AI bez odpowiedniej kontroli i uwzględnienia aspektów regulacyjnych może narazić firmę na ryzyko naruszenia przepisów dotyczących prywatności danych lub innych regulacji branżowych.

4. Zwiększenie złożoności zarządzania: Aby skutecznie wdrożyć AI w środowisku biznesowym, menedżerowie muszą nie tylko zrozumieć technologię, ale także złożoność zarządzania jakością danych, procesami szkoleniowymi i interpretacją wyników.

5. Możliwość polepszenia jakości decyzji: Pomimo wyzwań, właściwe wykorzystanie AI, w połączeniu z wysokiej jakości danymi i ekspertyzą branżową, może prowadzić do bardziej precyzyjnych, szybkich i opartych na danych decyzji.

Podsumowując, choć istnieją różnice w podejściu do danych w modelach językowych, takich jak Chat GPT, a w środowiskach biznesowych, istnieje również wiele możliwości. Kluczem jest świadome i ostrożne wdrażanie technologii AI, z uwzględnieniem specyfiki branży, jakości danych i potrzeb organizacji. Właściwe wdrożenie i zarządzanie mogą prowadzić do znaczących korzyści, ale niedopracowane podejście może przynieść więcej szkody niż pożytku.

– Umysł pracuje „na zaokrągleniach”, szukając rozwiązań „dostatecznie dobrych”. Algorytm – czyli matematyka –  jest dokładny. Umysł jest powolny, więc efekty, również błędy, generuje wolniej i w mniejszej liczbie. Algorytm będzie produkował błędy masowo i szybko (za szybko na możliwość reakcji człowieka), jeśli zostanie źle skonfigurowany lub nakarmiony śmieciowymi danymi, co znamy juz z doświadczeń wdrażania robotów software’owych RPA czy systemów ERP. W miarę doskonalenia AI ta różnica będzie się pogłębiać. Czy w końcu będzie konieczny wybór albo zarządza człowiek, albo algorytm, bo połączenie tych dwóch „mózgów” będzie destrukcyjne?

To dobre  pytanie, które dotyka sedna obecnych debat na temat roli sztucznej inteligencji w przyszłości zarządzania i podejmowania decyzji. Oto kilka kluczowych punktów do rozważenia:

1. Kontrola nad algorytmem: Ważne jest zrozumienie, że algorytmy są tworzone przez ludzi i opierają się na ludzkich decyzjach dotyczących tego, jak mają funkcjonować. Oznacza to, że algorytmy, chociaż są dokładne w swoim działaniu, nie są nieomylnymi bytami – odzwierciedlają wartości, priorytety i błędy ludzi, którzy je tworzyli.

2. Złożoność decyzji: Wiele decyzji w biznesie i w życiu codziennym opiera się na złożonych, niemierzalnych czynnikach, takich jak emocje, intuicja czy kontekst kulturowy. Algorytmy mogą mieć trudności z interpretacją i wartościowaniem tych subtelnych niuansów w taki sposób, jak robią to ludzie.

3. Skalowanie błędów: Jak słusznie zauważyłaś, błędy popełniane przez algorytmy mogą być powielane w znacznie większej skali i tempie niż błędy ludzkie. Jednakże właściwe procedury kontroli, testowania i nadzoru mogą zminimalizować ryzyko poważnych błędów.

4. Komplementarność, a nie rywalizacja: Możliwe jest postrzeganie ludzi i algorytmów jako komplementarnych, a nie rywalizujących ze sobą. Człowiek może dostarczać intuicję, zdolność do myślenia krytycznego i zdolność do zrozumienia złożoności interpersonalnej, podczas gdy algorytm może analizować dane w skali i prędkości, które są nieosiągalne dla ludzkiego umysłu.

5. Wzmacnianie ludzkiego osądu: Zamiast zastanawiać się, czy „albo człowiek, albo algorytm”, warto zastanowić się, jak technologia może wzmacniać ludzki osąd. Na przykład, AI może dostarczać analityczne dane wejściowe, które menedżerowie mogą wykorzystać do podejmowania bardziej świadomych decyzji.

Ostatecznie, wydaje się mało prawdopodobne, aby doszło do sytuacji, w której musimy dokonywać wyboru pomiędzy całkowicie ludzkim a całkowicie algorytmicznym zarządzaniem. Raczej przyszłość prawdopodobnie będzie polegać na wyważeniu i integrowaniu tych dwóch podejść w sposób, który wykorzystuje mocne strony każdego z nich, jednocześnie minimalizując ich słabości.

Do powyższych pytań dodałbym jeszcze kilka: czy odpowiedzi na wcześniejsze pytanie napisał ChatGPT, czy jesteśmy w stanie to poznać, oraz czy to w ogóle istotne? Jeśli rozmówca wykorzystał ChatGPT, ale edytował i autoryzował treść, to czy powinien o tym powiadomić? Czy powinien podać, ilu różnych promptów użył?

Patrzenie dychotomicznie na teksty (napisane przez człowieka vs. napisane przez maszynę) to strasznie naiwne podejście, na upartego moglibyśmy za ludzkie uważać jedynie te wydrapane rysikiem w kamieniu. Istotniejsze jest chyba, na ile ChatGPT może nam pomagać rozumieć świat i ułatwiać tworzenie narracji, której jednak to my jesteśmy ostatecznymi decydentami. W biznesie technologie generatywne już są, a będą jeszcze bardziej przydatne właśnie dlatego, że co prawda nie są w stanie zastąpić ludzi, ale są w stanie im po prostu ułatwić życie – i właśnie o tym jest także nasza – napisana z Aleksandrą Przegalińską – książka „AI w strategii: rewolucja sztucznej inteligencji w zarządzaniu”

 

Z prof. Dariuszem Jemielniakiem rozmawiała Iwona D. Bartczak.
Dariusz Jemielniak jest profesorem (pełnym) nauk o organizacji na Akademii Leona Koźmińskiego, kierownikiem wydziału MINDS (Management in Networked and Digital Societies) , stypendystą Berkman Center for Internet and Society na Uniwersytecie Harvarda oraz gościnnym pracownikiem naukowym w Centrum Inteligencji Zbiorowej MIT . Zasiada także w Radzie Powierniczej Fundacji Wikimedia.