Sankcje za konsekwencje, czyli jaki przycisk bezpieczeństwa AI

Posłuchaj:
Udostępnij:

W swoim ostatnim blogu pisałem, że „Anuszka rozlała olej”. W swojej książce „SPEED” wspomniałem, że dla AI nie ma dziś przycisku bezpieczeństwa na wzór bezpiecznika opracowanego przez Edisona dla obwodów elektrycznych czy sprinklerów przeciwpożarowych Maxima.

Wczoraj (15 sierpnia 2024) pojawił się projekt ustawy SB 1047, zaproponowany przez senatora Kalifornii Scotta Wienera, który próbuje zapobiec katastrofie spowodowanej przez AI. Domaga się on powstania właśnie takiego bezpiecznika dla rozwiązań, których koszty inwestycji przekraczają 100 milionów USD. Za pierwsze naruszenie zasad kara wynosi 10% wartości inwestycji i 30% za każde kolejne naruszenie.

Oczywiście gniew w Dolinie Krzemowej jest ogromny. Wyśmiewane jest to rozwiązanie, a także wskazywane jest, że tylko w filmach science-fiction takie rzeczy się dzieją. Jednak agencja Frontier Model Division (FMD) zapewne wkrótce powstanie (do 2026 roku) i wtedy zacznie się prawdziwa jazda, ponieważ ustawa przewiduje ochronę sygnalistów, którzy zgłoszą podejrzenia, że model AI może działać na szkodę społeczeństwa. Ustawę bardzo stanowczo popierają ojcowie współczesnego AI, Geoffrey Hinton i Yoshua Bengio. To wiele znaczy dla całego środowiska.

Edison opatentował ponad 100 wynalazków. Czerpał z tych patentów fundusze na rozwój biznesu. Jednym z niewielu rozwiązań, których nie opatentował, był właśnie bezpiecznik. De facto, opatentował go, ale pozwolił używać i inspirować się nim bez jakichkolwiek opłat. Był to genialny ruch. Koszt zabezpieczenia był więc bardzo mały, natomiast efekt psychologiczny dla społeczeństwa ogromny. W przypadku AI będziemy świadkami pojawienia się nowej gałęzi biznesu dedykowanej jedynie zapewnieniu transparentności i bezpieczeństwa. To jest dobra wiadomość. Zła wiadomość jest taka, że koszty zostaną przeniesione na użytkowników. Nowe kategorie ubezpieczeń dla firm oraz osób prywatnych są już pewne.

Bardzo ciekawie ustawa definiuje, czym jest katastrofa spowodowana przez AI. W największym skrócie chodzi o efekt kuli śnieżnej. Jeżeli np. za pomocą modelu LLM wygenerujemy komunikat, który przedostanie się do przestrzeni publicznej i wywoła falę negatywnych zdarzeń, to karany będzie twórca modelu oraz pierwsza osoba z niego korzystająca. W jednej z debat dzisiaj w nocy podano przykład, czy automatycznie wygenerowany post na platformie X przez Elona, który wprowadzi w błąd, byłby tak interpretowany. Odpowiedź brzmi TAK. Od wielu lat Hazard Moralny jest kwantyfikowalny oraz symulowalny dla sieci społecznościowych. Strzeżcie się spekulanci.

Zdjęcie wykonane w Kalifornii, w San Francisco, w więzieniu Alcatraz o świcie. Klimat ma przerażać i rzeczywiście przeraża.

Dedykuję je wszystkim, którzy szukają sposobu, aby nie ograniczać rozwoju, ale wprowadzać sankcje za konsekwencje jego działania. Bo to jest droga.

Aleksander Poniewierski

Artykuł został po raz pierwszy opublikowany w blogu autora TUTAJ  , tytuł od redakcji DFE.