Czy w przypadku AI będziemy mądrzy dopiero „po szkodzie”?

Posłuchaj:
Udostępnij:

Yoshua Bengio, dyrektor naukowy Instytutu AI Mila, jest pionierem w dziedzinie sztucznych sieci neuronowych i głębokiego uczenia się – podejścia do uczenia maszynowego inspirowanego mózgiem. W 2018 roku Bengio, główny naukowiec zajmujący się sztuczną inteligencją w Meta Yann LeCun i były badacz Google AI Geoffrey Hinton otrzymali nagrodę Turinga — znaną jako „Nobel” w dziedzinie informatyki — za „przełomy koncepcyjne i inżynieryjne, które uczyniły głębokie sieci neuronowe krytycznym elementem obliczeń .”  

Fragmenty wywiadu 

(…) 

Nawet jeśli wymyślimy tylko zasady, które wystarczą do wyjaśnienia większości naszej inteligencji i umieścimy je w maszynach, maszyny automatycznie staną się mądrzejsze od nas ze względu na kwestie techniczne, takie jak umiejętność czytania ogromnych ilości tekstu i integrowania o wiele szybciej, niż mógłby to zrobić człowiek – jakieś dziesiątki tysięcy lub miliony razy szybciej. 

Gdybyśmy mieli wypełnić tę lukę, mielibyśmy maszyny mądrzejsze od nas. Ile to oznacza praktycznie? Nikt nie wie. Ale można łatwo sobie wyobrazić, że byliby lepsi od nas w programowaniu, przeprowadzaniu cyberataków lub projektowaniu rzeczy, które obecnie projektują ręcznie biolodzy i chemicy. 

Od trzech lat zajmuję się uczeniem maszynowym dla nauki, szczególnie w chemii i biologii. Celem była pomoc w projektowaniu lepszych leków i materiałów, odpowiednio do walki z pandemiami i zmianami klimatycznymi. Ale te same techniki można zastosować do zaprojektowania czegoś śmiercionośnego. 

Niestety, zrzucenie bomb na Hiroszimę i Nagasaki – a nie przezorność – było rzeczywistym powodem, dla którego rządy zebrały się przy stole i były skłonne do dyskusji, pomimo zimnej wojny. Mam nadzieję, że zanim zaczniemy działać, nie będziemy musieli doświadczyć aż takiej katastrofy. Ale może do tego dojść. 

(…) 

Jeśli spojrzymy co najmniej pięć lat do przodu, prawdopodobne jest również, że opracujemy robotykę. W tej chwili mamy maszyny, które mają dobry wzrok. Mamy również maszyny, które są dobre w języku. Trzecią nogą robota jest kontrola — posiadanie ciała, które można kontrolować, aby osiągnąć cele. Prowadzono wiele badań nad uczeniem maszynowym na potrzeby robotyki, ale nie nastąpił tu przełomowy moment, taki jak w przypadku języka i wzroku w ostatniej dekadzie. Ale może nadejść szybciej, niż nam się wydaje. 

Jaka jest przeszkoda w przełomowym momencie w robotyce? 

W robotyce nie mamy takiej skali danych, jak na przykład w przypadku języka i obrazów. Nie mamy wdrożonych 100 milionów robotów, które mogłyby gromadzić ogromne ilości danych w taki sam sposób, w jaki jesteśmy w stanie to zrobić w przypadku tekstu. Nawet w różnych kulturach tekst działa. Możesz mieszać teksty z różnych języków i wykorzystać połączenie ich wszystkich. Tego nie zrobiono w przypadku robotyki. Ale ktoś, kto ma wystarczająco dużo pieniędzy, mógłby to zrobić w ciągu najbliższych kilku lat. W takim przypadku sztuczna inteligencja stąpałaby po ziemi. 

W tej chwili system sztucznej inteligencji, który stał się nieuczciwy i autonomiczny, nadal potrzebowałby ludzi, aby uzyskać energię elektryczną i części. Potrzebne byłoby już teraz funkcjonujące społeczeństwo ludzkie. Ale to może się zmienić w ciągu dekady. Możliwe, że nie powinniśmy liczyć na to, że nas to ochroni. 

(…) 

Wszyscy moglibyśmy zdecydować, że nie będziemy budować rzeczy, o których nie mamy pewności, że są bezpieczne. To jest bardzo proste. Jest to jednak sprzeczne ze sposobem organizacji naszej gospodarki i systemów politycznych. Osiągnięcie tego wydaje się bardzo trudne, dopóki nie wydarzy się coś katastrofalnego. 

W przypadku innych technologii jest łatwiej. Będzie w porządku, jeśli tylko przekonamy 99 procent ludzi, aby zachowywali się dobrze. W przypadku sztucznej inteligencji musisz mieć pewność, że nikt nie zrobi czegoś niebezpiecznego, szczególnie w biologicznego. 

Więcej TUTAJ