Czy powierzenie sztucznej inteligencji zbioru truskawek może doprowadzić do wyginięcia ludzkości?

Posłuchaj:
Udostępnij:

Pytanie wydaje się absurdalne. Wydaje nam się, że jak apokalipsa z powodu AI, to dlatego że będzie z nami rywalizować, przejmie władzę, zniewoli ludzi, wywoła wojny, wygeneruje jakąś nieziemską broń, sprzymierzy się z kosmosem, itd. Nie, nic takiego nie potrzeba. Wystarczy że poproszona o optymalizację jakiegoś biznesu czy działania, weźmie sobie do serca tak dobrze nam znamy i stosowany – na razie ułomnie, bo w sposób dostępny ludziom – efekt skali. Może nie powinniśmy się martwić o dział badawczy Google DeepMind, a raczej  martwić się tym, że prowadzenie biznesu w Internecie bez korzystania z usług Google jest prawie niemożliwe.

Zadano to pytanie kilka lat temu, kiedy sztuczna inteligencja była na etapie wygrywania w Go. Zadanie wydaje się zupełnie nieszkodliwe, ale w miarę jak sztuczna inteligencja przeprojektuje się, aby była bardziej skuteczna, może zdecydować, że najlepszym sposobem zmaksymalizowania swojej wydajności byłoby zniszczenie cywilizacji i przekształcenie całej powierzchni Ziemi w pola truskawek. Zatem dążąc do pozornie nieszkodliwego celu, sztuczna inteligencja może spowodować wyginięcie ludzkości wyłącznie jako niezamierzony efekt uboczny.

Przywołał potem ten przykład Ted Chiang, pisarz i twórca BuzzFeed w słynnym eseju „Dolina Krzemowa zamienia się w swój najgorszy strach”, gdzie zastanawiał się dlaczego biznes technologiczny tak strasznie boi się sztucznej inteligencji. No, właśnie dlatego że te firmy tak właśnie działają: dążą do swoich celów bez żadnej refleksji do czego ich realizacja prowadzi dla świata i ludzkości.

Kiedy Dolina Krzemowa próbuje wyobrazić sobie superinteligencję, wychodzi z niej kapitalizm bez ograniczeń. – napisał. I dalej – jesteśmy już otoczeni maszynami, które wykazują całkowity brak wnikliwości, nazywamy je po prostu korporacjami. Korporacje nie działają oczywiście autonomicznie, a kierujący nimi ludzie prawdopodobnie są zdolni do wglądu, ale kapitalizm nie nagradza ich za korzystanie z niego. Wręcz przeciwnie, kapitalizm aktywnie osłabia tę zdolność w ludziach, żądając, aby zastąpili swój własny osąd na temat tego, co oznacza „dobro” odpowiedzią: „cokolwiek zdecyduje rynek” Chiang ironicznie zauważa, że roztrząsamy ograniczanie sztucznej inteligencji, a jako społeczeństwo nie nauczyliśmy korporacji poczucia etyki i nie zrobiliśmy nic, aby zapewnić zgodność celów np. Facebooka czy Amazona z dobrem publicznym.  Po prostu przyjemniej jest myśleć o tym, jak stworzyć przyjazną sztuczną inteligencję, niż o przeciwstawić się ekspansji potężnych korporacji.

W tym świecie pomysł przycisku „wyłącz” w ogóle nie ma zastosowania. Zakłada się, że podejście sztucznej inteligencji będzie brzmieć  – „kwestia nie brzmi, kto mi pozwoli, ale kto mnie powstrzyma”.

Aktualne kolejne odsłony wokół zarządzania podmiotem, który wyprodukował i wypuścił w świat najbardziej zaawansowaną wersję sztucznej inteligencji, czyli OpenAI, stawiają w centrum naszej uwagi pytanie: gdzie powinny być wbudowane bariery ochronne przed nieodpowiedzialnym wykorzystaniem AI. Czy w organizacji non-profit, która tę technologię buduje, rozwija i sprzedaje, a inwestorom odmawia udziału w zarządzie, jak właśnie OpenAI? Czy w firmach komercyjnych, które wykładaja na nią najwięcej pieniędzy, jak np. Microsoft czy Google? Czy raczej powinny być to regulacje rządów i organizacji międzynarodowych? (Piszemy o tym w serwisie społeczności Business Dialog tutaj https://businessdialog.pl/artykuly/openai-zysk-idea )

Iwona D. Bartczak