Obecnie coraz częściej spotykamy się i współpracujemy z robotami, są to albo różnej wielkości i zastosowań materialne maszyny, albo algorytmy, który naśladując działanie człowieka, zastępują go w żmudnych i pracochłonnych zadaniach. Jedne i drugie są coraz bardziej zmyślne, więc wykonują nie tylko proste, ale coraz bardziej skomplikowane prace. W domyśle: roboty są po to, aby zastąpić nas w czymś mniej atrakcyjnym, abyśmy mogli robić coś bardziej atrakcyjnego, a przy tym aby było to korzystne ekonomicznie.

Fraza „zastąpić człowieka” jest kluczowa dla rozważań o sensowności i przyszłości sztucznej inteligencji, nie zaś rozmowa o samych robotach, bo one są jedynie postacią, którą owa inteligencja przybiera. Z założenia ta sztuczna inteligencja ma być „lepsza od człowieka” – bardziej inteligentna, szybsza, niezmordowana, nie ustająca w przekształcaniu się – bo inaczej będzie mało użyteczna. Powstaje taki suwaczek między tymi dwiema frazami „zastąpić człowieka” a „lepsza od człowieka”. Im będzie od człowieka lepsza, tym w większym zakresie będzie go zastępować. Ale czy w drugą stronę też to działa: im bardziej będzie go zastępować, tym lepiej dla człowieka? W którym momencie nie będzie to już „lepiej dla człowieka”, ale tego procesu nie da się odwrócić, bo sztuczna inteligencja usamodzielni się?  Czy istnieje w ogóle takie zagrożenie?

Jak jest dzisiaj

Dzisiaj zajmujemy się robotami i AI na dwa sposoby: po pierwsze, co praktycznie można już dziś zastosować w firmie czy w instytucjach, po drugie, co ta technologia będzie potrafiła za 5, 10, 15 lat. I tu i tu cała narracja toczy się wokół „zastąpić człowieka”.

W firmach instalujemy roboty software’owe, aby zastąpiły pracowników (albo nie trzeba było zatrudnić nowych) w pracach czasochłonnych, prostych, powtarzalnych, nie wnoszących wartości, ale koniecznych. Ludzie przechodzą wtedy do prac analitycznych, obsługi wyjątków, rozwoju produktów i relacji z klientami, itd. Największą korzyścią z zastosowania robotów jest odzyskany czas pracowników, a także zwiększenie ich zadowolenia z pracy, która przestaje być monotonna i zaczyna dawać poczucie własnej wartości. Korzyść firmy polega także na zmniejszeniu liczby błędów i ograniczeniu kosztów.

Co robi sztuczna inteligencja? Ona przetwarza dane. Robi to dużo  efektywniej i szybciej niż człowiek. Sztuczna inteligencja robi w istocie to, czego człowiek i tak by nie zrobił (chyba że trwałoby wieki lub wymagało kilku pokoleń i wielu prób oraz ponoszenia konsekwencji porażek). Prognozuje, wykrywa trendy i przyszłe zdarzenia, oblicza, stawia diagnozy, porównuje. Dzisiaj na wstępnym etapie jej zastosowań rzeczywiście zastępuje człowieka, ale to krótko potrwa. Potem po prostu będzie robić to, czego nie może zrobić człowiek  ze względu na swoją naturalną charakterystykę. Dzisiaj jest to coś, co dla człowieka, firmy, społeczeństwa jest użyteczne, właśnie dlatego że „zastępuje człowieka”, ale przecież tak nie musi być. Sztuczna inteligencja – ta naprawdę inteligentna inteligencja – będzie miała dostęp do wszelkich danych. Już ma. Co stoi jej na przeszkodzie, żeby je przetworzyć zgodnie ze swoim „pomysłem”, a nie tylko wykonać zadanie zlecone przez człowieka?

Dzisiaj słusznie zachwycamy się robotami i sztuczną inteligencją. Ona już nam bardzo pomaga, a może pomóc jeszcze więcej, w biznesie, w medycynie, w bezpieczeństwie, sztuce, kulturze, nauce.

Ale mamy też ten dyskomfort świadomości, że zostaliśmy zastąpieni przez technologię, że ten proces może się pogłębiać, że zaraz możemy stać się niepotrzebni, bo technologia przejmie kolejne  ludzkie zadania a ludzie  muszą poszukać sobie nowych i nowych.

Zwróćmy uwagę na takie trzy zjawiska:

  1. Znam dość dobrze okoliczności wdrażania robotów software’owych w kilkunastu firmach w Polsce. Te wdrożenia udały się tylko wtedy, gdy zarząd zapewnił – wyraźnie, publicznie – że robotyzacja nie doprowadzi do zwolnień. Zauważmy pewien absurd: w Polsce brakuje ludzi do pracy, rosną wynagrodzenia, a pracownicy – wykwalifikowani, średnie i niskie stanowiska, którzy łatwo znaleźliby pracę – obawiają się zwolnień z powodu technologii. Bo praca to jest coś więcej niż zatrudnienie, to nie tylko tu i teraz, to jakaś postać świata. Więc ten strach, to wcale nie absurd, to pewne przeczucie.
  2. Już dzisiaj sztuczna inteligencja AI podejmuje decyzje – np. robi prognozy popytu czy diagnozy chorób – ale my nie wiemy (nikt nie wie), jak ona to robi. Coś jej wyszło z obliczeń, ale nie wiemy dlaczego. System AI nie potrafi pokazać w prosty i zrozumiały dla człowieka sposób, dlaczego podjął taką a nie inną decyzję. Dlatego firmy, które stosują machine learning do prognozowania popytu poddają ten wynik obliczeń również eksperckiej wiedzy człowieka. Stosują tutaj różne zabiegi, przyznając pierwszeństwo raz jednym, raz drugim. Na przykład do budżetu wpisuje się liczbę preferowaną przez kierownika produktu (sprzedaży), ale produkcja otrzymuje liczbę wygenerowana przez system. Czyli firma jednak bardziej wierzy maszynie i AI niż człowiekowi, bo tam gdzie może ponieść kosztowną stratę (wyprodukować nie to co trzeba) kieruje się wynikiem obliczeń niż ocenie człowieka.

Sytuację utrudnia – jednak utrudnia – taki fakt, że dzisiaj maszyna dużo rzadziej się myli niż człowiek, i w prognozowaniu popytu, i w stawianiu diagnozy lekarskiej, i w przewidywaniu trendów na rynku finansowym, prawie wszędzie. To zwiększa zaufanie do technologii. Czy jest zasadne na dłuższą metą? Nie wiemy – nie będziemy wiedzieć, bo to maszyna będzie coraz inteligentniejsza a my – jak ona podejmuje decyzję (czy na razie rekomenduje decyzję). Czy zaakceptujemy ją w ciemno, czy będziemy mieli wpływ na konsekwencje?

  1. Fascynujemy się tym, że komputer (program) wygrał teleturniej, a inny wygrał w szachy z mistrzem szachowym, a jeszcze inny wygrał w go, co już jest absolutnym zwycięstwem maszyny nad inteligencją człowieka. Ale….. zauważymy to, bo to ważne… komputer, program, ta sztuczna inteligencja „nie wie”, że wygrała z kimś, że to jest jakieś zwycięstwo, że to jakiś krok milowy, a może wie, tylko na swój sposób? AI (program) nie wiedział, co znaczą pytania w teleturnieju. Kiedy go wygrał, zrobił to bez emocji, jedynie kojarzył słowa używane przez prowadzącego ze swoimi zasobami danych. Nie wiedział, co znaczą jego odpowiedzi. Nie czuł, że przegrywający z nim ludzie z tego powodu mają jakieś uczucia, czegoś doświadczają, coś tracą, coś zyskują.

To powinno naprowadzić nas na myśl, że hodujemy istotę – zwaną roboczo sztuczną inteligencją –  która jest całkiem inna niż człowiek, a projektujemy na nią nasze cele, wartości, emocje, zachowania. To nie jest niczym uprawnione.

A wracając do naszego początkowego pytania: czy sztuczna inteligencja może być groźna dla człowieka. Słowo „groźna” jest ze słownika człowieka, sztuczna inteligencja pewnie całkiem inaczej „odczuwa” swoje samodoskonalenie. Może jako obowiązek „moralny” wobec samego siebie, swojej „rodziny”, jakiejś „wspólnoty”?

Uruchomiliśmy proces, który – jeśli się powiedzie – doprowadzi nas do rzeczywistości, w której nasze miary słuszności, moralności, urody będą drugorzędne, bo ważniejsze będą te należące do istot, które wygenerowaliśmy. Nawet nie wiemy jakie będą i pewnie nie zrozumiemy ich, bo po to je tworzyliśmy, aby były „lepsze” od nas i nas „zastąpiły”.

Czy można to zatrzymać, zmienić kierunek?

Wróćmy zatem do początku

W 1942 roku Isaac Asimov stworzył cztery prawa robotów takie, które miały zagwarantować bezpieczeństwo człowieka i jego nadrzędną rolę nad robotami.  Warto je przypomnieć:

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
  3. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  4. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim lub Trzecin Prawem.

Dość szybko podniosły się głosy, iż prawa te są asymetryczne, nie szanują robotów, które są przecież inteligentne (lub mają być) i nie są dostosowane do sytuacji koegzystencji ludzi z nimi. Co więcej, te prawa nie pozwalają na uzyskiwanie przewagi nad innymi ludźmi przy wykorzystaniu robotów, a przecież roboty pierwotnie tworzone były głównie do celów wojskowych, czyli do zabijania. Powstały nowe prawa, które niejako pozwoliły ludziom budować i wykorzystywać roboty do różnych celów, również przeciwko człowiekowi.

Minęło 80 lat. Mamy – my, ludzkość, i każdy z nas – dużo więcej doświadczeń z robotami, z ich zastosowaniami, ale przede wszystkim wiemy dużo więcej o sobie samych, o tym co potrafimy zrobić drugiemu człowiekowi, zwłaszcza konkurując z nim czy nienawidząc go, i jak konsekwencje tych zachowań wzmacnia technologia, np. sztuczna inteligencja.

W 2017 roku na konferencji Future of Life Institute  ustalono zasady, którymi powinni posługiwać się badacze AI  (są na www tej organizacji www.futureoflife.org), do dzisiaj podpisali się pod nimi tacy goście jak Stephen Hawking, Mustafa Suleyman (współtwórca DeepMind), Ray Kurzweil, Tom Gruber(Apple, Siri), Elon Musk i 2500 innych. Jakie to punkty? Wymienię tylko dwa pierwsze z 23.

  1. Celem badań nad sztuczną inteligencją nie powinno być stworzenie nieukierunkowanej inteligencji, lecz inteligencji, która przysłuży się człowiekowi.
  2. Inwestycjom w sztuczną inteligencję powinno towarzyszyć finansowanie badań nad zapewnieniem jej korzystnego dla ludzi działania, jak również poszukiwanie odpowiedzi na drażliwe pytania, takie jak:

– jak zapewnić przyszłym systemom AI odpowiednio dużą odporność, aby robiły co chcemy i nie ulegały awariom i atakom hakerów?

– jak zwiększyć dobrobyt za pomocą automatyzacji, nie odbierając przy tym ludziom ich możliwości i poczucia sensu życia?

– jak aktualizować nasz system prawny, aby stawał się bardziej sprawiedliwy oraz wydajny i mógł dotrzymać kroku rozwojowi IT, a zarazem radził sobie z zagrożeniami związanymi z AI?

– jakiemu systemowi wartości powinny podlegać systemy AI i jak należy rozpatrywać ich status etyczno-prawny?

To są wskazówki dla badaczy i twórców AI, ale przecież to są też wskazówki dla każdego decydenta w firmie, który „zatrudnia” sztuczną inteligencję czy roboty, w tym te software’owe : patrz na to, co te technologie robią ludziom, twoim pracownikom. Jeśli będziesz patrzył tylko w czym ich zastępują, otworzysz drogę istotom, które ostatecznie również ciebie zastąpią.

Ufność nieuzasadniona

Dzisiejszy często nadmierny optymizm i ufność wobec technologii i robotyzacji szczególnie informatycznych powoduje, iż nie dostrzegamy jak skomplikowane budujemy zależności niszcząc relacje i jak to wpływa na nasze życie społeczne. Wszechpanujący techno-optymizm powoduje, iż skupiamy się na tym, jak za pomocą coraz to bardziej zaawansowanej technologii rozwiązać najbardziej palące problemy, zamiast działać długofalowo i zastanowić się, jak zapobiegać ich powstawaniu i rozwijać ludzi. Pojawiają się problemy socjologiczne, tracimy kontakt z ludźmi, podporządkowując nasze działania poprawie wydajności systemów i urządzeń, efektywności procesów i produktywności ludzi. Niby ma to działać na ich korzyść i im pomagać, ale oni czują, że jest to przeciw nim, że podejmowane projekty służą nielicznym uzyskującym przewagę technologiczną.

Z analizy m.in. raportu „The Changing Wealth of Nations 2018” World Bank Group wynika iż nastąpiły znaczące zmiany w bogactwie krajów, ale nierówności na świecie rosną.  Bogacą się bogaci z dostępem do technologii, a biedni poza nielicznymi wyjątkami biednieją. Nie jest też prawdą, że znikną jedne prace i zawody, ale powstaną inne, więc nie ma co martwić się. Owszem, powstaną nowe zawody i stanowiska, ale to będzie ułamek tej liczby zawodów i stanowisk, które znikną. Ponieważ sztuczna inteligencja jest w stanie zastąpić ludzi w prawie każdym zawodzie, czy to starym czy nowym. To jest nowość.  Wielu, którzy stracą pracę, do nowej się nie dostosuje i sobie nie poradzi. Tak było przy każdej przełomowej zmianie, ale tak nie musi być tym razem, jeśli na czas o nich – o sobie – pomyślimy.

Przyszłość technologii informatycznych i robotycznych powinna należeć do rozwiązań, które działają zgodnie z naszymi potrzebami, ale nie stoją w sprzeczności z potrzebami innych. Nie traktujmy technologii XXI jak każdego innego narzędzia, które do tej pory mieliśmy. Budujemy rozwiązania, które działają samoczynnie, automatycznie, ale inteligentnie. Mają więc swoją podmiotowość. Żadne narzędzie dotąd jej nie miało. Dzisiaj mówimy o zrównoważonym rozwoju mając na myśli innych interesariuszy niż kapitał, ale nie ma tam sztucznej inteligencji. Może już czas, aby ją dołączyć do tego grona? Może trzeba sformułować na nowo zasady i interesariuszy zrównoważonego rozwoju?

Kluczowe w rozwiązaniach przyszłości powinny być elementy zapewniające wsparcie, a nie zastępowalność ludzi, wsparcie poprzez wygodne oraz bezpieczne interakcje, koegzystencję i współpracę. Jeśli nie podążymy tą drogą, nasza inteligencja będzie słabnąć, nasze umiejętności maleć, ale nasze pragnienia pozostaną w coraz większym stopniu niezaspokojone, co doprowadzi do frustracji, a przecież stworzone przez nas technologie nie będą widziały potrzeby ich zaspokajania.

 

Bartosz Radziszewski jest partnerem Business Dialog, współzarządzającym Klubem Dyrektorów Finansowych „Dialog”, autorem programu Digital Finance Excellence www.dfe.org.pl

Artykuł został opublikowany również w książce “Transformacja IT i innowacje w Polsce. 30 lat.”, wydanej przez IT Wiz.