Projektowanie systemów AI zgodnych z europejskim prawodawstwem

Posłuchaj:
Udostępnij:

O ile Parlament UE głosował już za pierwszym na świecie zbiorem kompleksowych zasad rozwoju i wykorzystania sztucznej inteligencji, o tyle amerykański senat dopiero rozpoczął dyskusję na temat tego typu legislacji, zapraszając potentatów technologicznych na Kapitol. Nie wszyscy senatorowie byli obecni na tym posiedzeniu ? brakowało około 40 członków. Jeden z nich, senator Josh Hawley, opuścił wydarzenie, twierdząc, że odmówił udziału w, jak to określił, ?gigantycznej imprezie koktajlowej dla wielkich technologii?. Może to wyrażać brak zainteresowania i wiedzy specjalistycznej w tej ważnej dziedzinie; może to również wynikać z braku wiedzy na temat technologii sztucznej inteligencji lub po prostu braku chęci do przeszkadzania lobbystom Big Tech.

Celem unijnego aktu prawnego o sztucznej inteligencji EU Artificial Intelligence Act (AI Act) jest ustanowienie zarządzania i egzekwowania przepisów w celu ochrony praw człowieka i bezpieczeństwa w zakresie stosowania sztucznej inteligencji. Ustawa o sztucznej inteligencji jest pierwszą ustawą o sztucznej inteligencji ustanowioną przez główny organ regulacyjny. Celem tej ustawy jest zapewnienie bezpiecznego i odpowiedzialnego korzystania ze sztucznej inteligencji, mając na uwadze interesy zarówno ludzi, jak i przedsiębiorstw. Parlament UE miał wątpliwości co do ostatecznej formy i treści tej ustawy o sztucznej inteligencji. Istnieją pewne obawy, że może to przerwać rozwój tych technologii w UE i sprawić, że UE stanie się w tyle za USA i Chinami w dziedzinie sztucznej inteligencji, co z kolei może mieć wpływ na ogólną konkurencyjność europejskich przedsiębiorstw.

Ustawa o sztucznej inteligencji stanowi jednak ważny krok w rozwoju skutecznych i odpowiedzialnych ram regulacyjnych dotyczących sztucznej inteligencji w Europie. Mamy nadzieję, że ta ustawa stworzy równe warunki działania dla wszystkich przedsiębiorstw, chroniąc jednocześnie prawa i interesy ludzi.

Krajobraz technologii AI jest znacznie bardziej złożony, niż większość ludzi sądzi.

Składa się z GOFAI (?staroświecka, dobra sztuczna inteligencja?), terminu używanego do określenia ?klasycznej symbolicznej sztucznej inteligencji?, która była przedmiotem badań od lat 60. XX wieku. Obejmuje zbiór wszystkich metod badań nad sztuczną inteligencją w oparciu o symboliczne (czytelne dla człowieka) reprezentacje problemów, logiki i poszukiwań wysokiego poziomu. W związku z tym uwzględniono takie narzędzia, jak programowanie logiczne, reguły produkcji, zautomatyzowane systemy planowania, sieci i ramki semantyczne, które widzieliśmy w systemach eksperckich w latach 80. XX wieku. Jednak od lat 90. XX wieku opracowano wiele nowych technologii. Obejmuje to między innymi ML (Machine Learning) i robotykę, rozpoznawanie obrazu, a także generatywne narzędzia AI, takie jak ChatGPT.

Ten ostatni rozwój reprezentuje segment rynku LLM (model dużego języka). Od 2022 roku stał się gorącym tematem, cieszącym się zainteresowaniem opinii publicznej i inwestorów (wkładając miliardy w rozwój generatywnej sztucznej inteligencji). Początkowo Google, który przez kilka lat wyprzedzał wszystkich dzięki swojej spółce zależnej DeepMind, znalazł się za partnerami OpenAI i Microsoftu w rozwoju ChatGPT. Wywołało to kilka nowych ogłoszeń ze strony Google i META, które udostępniły LLM (Llama2) jako platformę typu open source, mając nadzieję, że będzie to stymulować nowy rozwój i ulepszenia tej technologii.

Model dużego języka (LLM) to algorytm głębokiego uczenia się, który może wykonywać różnorodne zadania przetwarzania języka naturalnego (NLP). Duże modele językowe korzystają z modeli transformatorowych i są szkolone przy użyciu ogromnych zbiorów danych ? stąd przymiotnik ?duży?. Dzięki temu mogą rozpoznawać, tłumaczyć, przewidywać lub generować tekst lub inną treść. Najnowsze LLM mają już ponad 100 bilionów tokenów ? reprezentujących więcej neuronów niż przeciętny ludzki mózg, który ma około 85 bilionów neuronów. Czy są tak dobre jak ludzki mózg? Oczywiście, że nie i często mają halucynacje (pilny problem, który nęka osoby uczące się na poziomie LLM).

Są duże ryzyka

Halucynacje w kontekście LLM odnoszą się do generowania tekstu, który jest błędny, nonsensowny lub oderwany od rzeczywistości. Treści generujące sztuczną inteligencję stwarzają znaczne ryzyko, a być może przede wszystkim rozprzestrzenianie się dezinformacji. Generatywną sztuczną inteligencję można wykorzystywać do tworzenia fałszywych wiadomości lub filmów oraz innych form dezinformacji, które można szybko i szeroko rozpowszechnić. Może to mieć poważne konsekwencje, w tym zniszczenie reputacji osób i organizacji, wywołanie niestabilności politycznej i podważenie zaufania publicznego do mediów. Narzędzia AI, takie jak ChatGPT, potrafią pisać pewnie i przekonująco, zapewniając w ten sposób poczucie autorytatywności. Powstały tekst może zostać odebrany dosłownie przez zwykłych użytkowników, którzy następnie mogą rozpowszechniać w Internecie nieprawidłowe dane i pomysły.

Przykładem niedokładności danych z ChatGPT jest Stack Overflow, czyli witryna internetowa z pytaniami i odpowiedziami dla programistów. Programiści wypełniają tablice zapytań Stack Overflow postami generowanymi przez sztuczną inteligencję. Ze względu na dużą liczbę błędów firma Stack Overflow podjęła działania, aby uniemożliwić komukolwiek publikowanie odpowiedzi wygenerowanych przez ChatGPT.

Kolejnym ryzykiem związanym z generatywną zawartością AI jest złośliwe użycie. W niewłaściwych rękach generatywna sztuczna inteligencja może być potężnym narzędziem do wyrządzania szkód. Na przykład, generatywną sztuczną inteligencję można wykorzystać do tworzenia fałszywych recenzji, oszustw i innych form oszustw internetowych. Może także automatyzować wiadomości spamowe i inną niechcianą komunikację. Ponadto zdarzały się ataki weryfikujące koncepcję, podczas których sztuczna inteligencja stworzyła mutujące złośliwe oprogramowanie. ChatGPT może być również wykorzystywane do pisania złośliwego oprogramowania (badacze znaleźli wątek zatytułowany ?ChatGPT ? Korzyści z złośliwego oprogramowania? na forum hakerskim).

Unijna ustawa o sztucznej inteligencji koncentruje się na takich zagrożeniach. Wymagałoby to od firm dołożenia należytej staranności, aby zmniejszyć ryzyko przedostania się ludzkich uprzedzeń do systemów sztucznej inteligencji. To duże wyzwanie. Aby zachować zgodność, firmy muszą być w pełni świadome zakodowanych modeli algorytmicznych, z których składają się ich systemy sztucznej inteligencji, a także danych wprowadzanych do systemów. Nawet wtedy może być wymagana kontrola. Wprowadzenie systemu sztucznej inteligencji do nowego środowiska może w przyszłości prowadzić do nieprzewidzianych problemów.

Radzenie sobie z uprzedzeniami sztucznej inteligencji wymaga wielofunkcyjnego zespołu specjalizującego się w identyfikowaniu uprzedzeń zarówno w świecie ludzi, jak i maszyn, aby całościowo stawić czoła temu wyzwaniu. Ustawa o sztucznej inteligencji uznaje, że ryzyko stronniczości nie jest takie samo we wszystkich aplikacjach lub wdrożeniach sztucznej inteligencji, i dzieli potencjalne ryzyko na cztery kategorie.

  • Niedopuszczalne są: aplikacje wykorzystujące techniki podprogowe, systemy wyzysku lub systemy punktacji społecznej stosowane przez władze publiczne są surowo zabronione. Zabronione są również wszelkie systemy zdalnej identyfikacji biometrycznej działające w czasie rzeczywistym wykorzystywane przez organy ścigania w przestrzeniach publicznie dostępnych.

 

  • Stanowi wysokie ryzyko: obejmują one między innymi aplikacje związane z transportem, edukacją, zatrudnieniem i opieką społeczną. Przed wprowadzeniem na rynek lub do użytku w UE systemu sztucznej inteligencji wysokiego ryzyka firmy muszą przeprowadzić wcześniejszą ?ocenę zgodności? i spełnić długą listę wymagań, aby zapewnić bezpieczeństwo systemu.

 

  • Mają ograniczone ryzyko: odnoszą się do systemów sztucznej inteligencji, które spełniają określone wymogi w zakresie przejrzystości. Na przykład osoba wchodząca w interakcję z chatbotem musi zostać poinformowana, że ??nawiązuje kontakt z maszyną, aby mogła zdecydować, czy kontynuować (lub zamiast tego poprosić o rozmowę z człowiekiem).

 

  • Niosą minimalne ryzyko: aplikacje te są już szeroko stosowane i stanowią większość systemów sztucznej inteligencji, z którymi mamy obecnie do czynienia. Przykłady obejmują filtry spamu, gry wideo obsługujące sztuczną inteligencję i systemy zarządzania zapasami.

Główna odpowiedzialność za zgodność będzie ponosić ?dostawcy? systemów sztucznej inteligencji; jednak pewne obowiązki zostaną również przypisane dystrybutorom, importerom, użytkownikom i innym stronom trzecim, co będzie miało wpływ na cały ekosystem sztucznej inteligencji. Nic więc dziwnego, że działające w UE firmy Big Tech boją się takiej odpowiedzialności.

Konieczne będą twarde oceny i złożone kompromisy

 

Kluczową kwestią, którą należy rozwiązać, jest to, w jaki sposób zaprojektować systemy sztucznej inteligencji tak, aby były zgodne nie tylko z unijnym lub przyszłym prawodawstwem USA, ale także aby miały wbudowane atrybuty jakości umożliwiające testowanie bezpieczeństwa, skuteczności, wiarygodności, ochrony prywatności i żadnej dyskryminacji. Ma to kluczowe znaczenie, gdy wiemy, że LLM w pewnych okolicznościach mają tendencję do halucynacji. Oznacza to, że agencje regulacyjne będą musiały dowiedzieć się, jak stworzyć instancję polityk, biorąc pod uwagę takie zasady. Konieczne będą twarde oceny i złożone kompromisy, mówi Daniel Ho, profesor nadzorujący laboratorium sztucznej inteligencji na Uniwersytecie Stanforda i członek Krajowego Komitetu Doradczego ds. Sztucznej Inteligencji w Białym Domu.

Jeśli skonsultujemy się z Korpusem Wiedzy Inżynierii Systemów (SEBok), zobaczymy, że metodologie inżynierii systemów często koncentrują się na dostarczaniu pożądanych możliwości, a w przypadku systemów AI możliwości musiałyby być zgodne z ustawą o sztucznej inteligencji. Metodologie te opierają się w dużej mierze na możliwościach i nie zapewniają szczegółowej, w pełni zintegrowanej uwagi na potencjalne straty. Obszary specjalistyczne są w dużej mierze traktowane oddzielnie. Przykłady obszarów specjalistycznych opartych na stratach obejmują odporność, bezpieczeństwo, ochronę, ryzyko operacyjne, ochronę środowiska, jakość i dostępność. Niezgodne systemy sztucznej inteligencji mogą oczywiście wyrządzić wiele szkód i musimy skupić się na ich odpowiedzialnej inżynierii. W podręczniku SE zidentyfikowano specjalistyczne obszary inżynierii, które podzielają obawy związane z inżynierią systemów opartych na stratach. Do zidentyfikowanych należą m.in.:
– dostępność
– wpływ środowiska
– łatwość konserwacji
– inżynieria odporności
– niezawodność
– zarządzanie ryzykiem (teraz powinno obejmować zgodność z ustawą o AI)
– inżynieria bezpieczeństwa systemu
– inżynieria bezpieczeństwa systemu
– zarządzanie jakością (teraz powinno uwzględniać dodatkowe atrybuty jakościowe, które charakteryzują odpowiedzialne systemy AI)

W 2023 r. Microsoft przedstawił sześć kluczowych zasad odpowiedzialnej sztucznej inteligencji: odpowiedzialność, włączenie, niezawodność i bezpieczeństwo, uczciwość, przejrzystość, prywatność i bezpieczeństwo. Możemy również dodać zgodność do tego zestawu, jeśli wejdzie w życie ustawa o sztucznej inteligencji i inne narzędzia zarządzania, które zapewnią uprawnienia prawne do audytowania dostawców technologii AI.

Według niektórych czołowych autorytetów w dziedzinie sztucznej inteligencji, np. współzałożyciela DeepMind Mustafy Suleymana lub Yana le Cuna, wiceprezesa META AI, w ciągu najbliższych 5 lat możemy spodziewać się dalszego przyspieszonego rozwoju sztucznej inteligencji.

Przyszłe LLM mogą być 1000 razy większe niż obecny rozmiar chatGPT4.0.

>Modele opracowane przez najnowocześniejsze firmy zajmujące się sztuczną inteligencją umożliwiłyby następnie wygenerowanie sekwencji działań w czasie. W ten sposób będziemy mieli generatywną sztuczną inteligencję, która wykracza daleko poza generowanie tekstu. Będzie mógł na przykład wykonywać połączenia telefoniczne z ludźmi lub dzwonić do innych AI, wykorzystywać API do integracji ze stronami WWW lub różnymi systemami biznesowymi, innymi bazami wiedzy lub magazynami informacji, negocjować umowę i ustalać kolejność w łańcuchu dostaw.

Istnieje duże prawdopodobieństwo, że za 5 lat będziemy dysponować technologią, która będzie w stanie samodzielnie tworzyć pomysły i samodzielnie podejmować decyzje. Dlatego pilnie potrzebujemy odpowiedniego prawodawstwa, które będzie ewoluować w tym samym tempie, co stosowana technologia, a nawet wyprzedzać innowacje technologiczne w zakresie zarządzania, które będą potrzebne w wielu przypadkach.

Aleksander Wyka

Źródła:
Zarządzanie sztuczną inteligencją: zintegrowane ramy oparte na ryzyku i wytycznych: https://www.sciencedirect.com/science/article/abs/pii/S0740624X22000181
Wywiad The Economist z Yuvalem Noahem Hararim i Mustafą Suleymanem: https://www.youtube.com/watch?v=b2uEAgLeOzA&list=WL&index=1
Projekt Harvard TalktoModel: https://www.youtube.com/watch?v=Y8AJ4BwDEPI&t=1524s