Jaki ideał sztucznej inteligencji mają jej twórcy i jak widzą czynniki ograniczające jego osiagnięcie? – Dario Amodei

Posłuchaj:
Udostępnij:

Dario Amodei to włosko-amerykański badacz i przedsiębiorca w dziedzinie sztucznej inteligencji. Jest współzałożycielem i CEO firmy Anthropic, która zajmuje się badaniami nad bezpiecznymi i interpretowalnymi systemami AI. Wcześniej pełnił funkcję wiceprezesa ds. badań w OpenAI, gdzie kierował rozwojem dużych modeli językowych, takich jak GPT-2 i GPT-3.

W kultowym artykule „Maszyny Kochającej Łaski. Jak sztuczna inteligencja może zmienić świat na lepsze?” zaproponował odpowiedzi na to pytanie. Artykuł jest dość długi, bardzo go rekomendujemy, a na zachętę zamieszczamy dwa zagadnienia w ujęciu Amodei: jaki jest ten ideał AI i jakie są ograniczenia w dojściu do niego.

Potężna docelowa AI:

W skrócie:

  •  Model AI: Podobny do dzisiejszych modeli LLM, może bazować na innej architekturze, obejmować kilka współpracujących modeli i być inaczej trenowany.
  • Inteligencja: Przewyższa laureatów Nagrody Nobla w dziedzinach takich jak biologia, programowanie, matematyka, inżynieria, pisanie. Potrafi dowodzić twierdzeń matematycznych, pisać powieści, tworzyć bazy kodów.
  • Interfejsy: Dostępne są tekst, dźwięk, wideo, sterowanie myszą i klawiaturą, dostęp do Internetu. Może angażować się w działania online, komunikację, operacje zdalne, tworzenie filmów.
  • Autonomia: Wykonuje zadania autonomicznie, prosząc o wyjaśnienia w razie potrzeby.
  • Brak fizycznego ucieleśnienia: Steruje narzędziami fizycznymi, robotami, sprzętem laboratoryjnym za pośrednictwem komputera.
  • Zasoby: Może uruchomić miliony wystąpień, działać 10-100 razy szybciej niż człowiek, ograniczony czasem reakcji świata fizycznego lub oprogramowania.
  • Współpraca: Miliony kopii mogą działać niezależnie lub współpracować, dostrojone do konkretnych zadań.

W artykule:

„Przez potężną sztuczną inteligencję rozumiem model sztucznej inteligencji (AI) — prawdopodobnie podobny w formie do dzisiejszych modeli LLM, choć może bazować na innej architekturze, może obejmować kilka współpracujących ze sobą modeli i może być inaczej trenowany — o następujących właściwościach:

  • Jeśli chodzi o czystą inteligencję ( rozumowanie, uczenie się, planowanie i kreatywność), jest ona inteligentniejsza od laureata Nagrody Nobla w większości powiązanych dziedzin – biologii, programowania, matematyki, inżynierii, pisania itp. Oznacza to, że może dowodzić nierozwiązanych twierdzeń matematycznych, pisać niezwykle dobre powieści, tworzyć trudne bazy kodów od podstaw itp.
  • Oprócz tego, że jest po prostu „inteligentną rzeczą, z którą się rozmawia”, ma wszystkie „interfejsy” dostępne dla człowieka pracującego wirtualnie, w tym tekst, dźwięk, wideo, sterowanie myszą i klawiaturą oraz dostęp do Internetu. Może angażować się w dowolne działania, komunikację lub operacje zdalne, które umożliwia ten interfejs, w tym podejmowanie działań w Internecie, wydawanie lub dawanie wskazówek ludziom, zamawianie materiałów, kierowanie eksperymentami, oglądanie filmów, tworzenie filmów itd. Wykonuje wszystkie te zadania, ponownie, z umiejętnością przewyższającą umiejętności najbardziej zdolnych ludzi na świecie.
  • Nie odpowiada on biernie na pytania; zamiast tego można mu zlecić zadania, których wykonanie zajmuje godziny, dni lub tygodnie, a następnie wykonuje je autonomicznie, tak jak zrobiłby to inteligentny pracownik, prosząc o wyjaśnienia, jeśli to konieczne.
  • Nie posiada fizycznego ucieleśnienia (poza życiem na ekranie komputera), ale może sterować istniejącymi narzędziami fizycznymi, robotami i sprzętem laboratoryjnym za pośrednictwem komputera; teoretycznie mógłby nawet projektować roboty i sprzęt do własnego użytku.
  • Zasoby wykorzystane do trenowania modelu mogą zostać ponownie wykorzystane do uruchomienia milionów jego wystąpień (co odpowiada prognozowanym rozmiarom klastrów około 2027 r.), a model może absorbować informacje i generować działania z szybkością około 10–100 razy większą niż szybkość człowieka  (Mniej więcej obecnej dystrybucji systemów AI – na przykład może być jedna strona tekstu w kilku sekundach i zapisz stronę tekstu w około 20 sekundach, co jest 10-100 razy szybsze niż ludzie. Z większymi modelami, które mogą zostać wykorzystane do spowalniania tego, ale bardziej zaawansowane chipy mogą przyspieszyć przyspieszenie; zrób tę porę te dwa efekty mniej więcej z wielkości.) . Może być jednak ograniczony czasem reakcji świata fizycznego lub oprogramowania, z którym wchodzi w interakcję.
  • Każda z tych milionów kopii może działać niezależnie, wykonując niezwiązane ze sobą zadania, lub, jeśli zajdzie taka potrzeba, wszystkie mogą współpracować w taki sam sposób, w jaki współpracowaliby ze sobą ludzie, być może z różnymi subpopulacjami precyzyjnie dostrojonymi do wykonywania konkretnych zadań.

Można to podsumować jako „kraj geniuszy w centrum danych”.

Czynniki ograniczające powstawanie takiej sztucznej inteligencji:

W skrócie:

  • Prędkość świata zewnętrznego: Inteligentni agenci muszą działać interaktywnie, ale świat porusza się z ustaloną prędkością. Eksperymenty i projekty mają nieredukowalny czas trwania.
  • Potrzeba danych: Brak surowych danych ogranicza inteligencję. Fizycy cząstek mają teorie, ale brak danych z akceleratorów cząstek utrudnia wybór między nimi.
  • Wewnętrzna złożoność: Niektóre rzeczy są chaotyczne i nieprzewidywalne. Nawet potężna AI może przewidzieć tylko nieznacznie dalej w chaotycznym systemie.
  • Ograniczenia ze strony ludzi: Prawo, etyka i struktury społeczne ograniczają działania AI. Przykłady to energia jądrowa, lot naddźwiękowy i windy.
  • Prawa fizyczne: Istnieją niezmienne prawa fizyczne, jak prędkość światła czy minimalna energia na wymazany bit, które ograniczają możliwości AI.

Cytat z artykułu:

Moim zdaniem lista czynników ograniczających inteligencję lub ją uzupełniających obejmuje:

  • Prędkość świata zewnętrznego . Inteligentni agenci muszą działać interaktywnie w świecie, aby osiągać cele, a także się uczyć . Ale świat porusza się tylko do pewnego stopnia. Komórki i zwierzęta poruszają się z ustaloną prędkością, więc eksperymenty na nich zajmują pewną ilość czasu, która może być nieredukowalna. To samo dotyczy sprzętu, nauki o materiałach, wszystkiego, co wiąże się z komunikacją z ludźmi, a nawet naszej istniejącej infrastruktury oprogramowania. Co więcej, w nauce wiele eksperymentów często wymaga sekwencji, każdy uczący się od poprzedniego lub rozwijający się na nim. Wszystko to oznacza, że ​​prędkość, z jaką można ukończyć duży projekt — na przykład opracowanie lekarstwa na raka — może mieć nieredukowalne minimum, którego nie można dalej zmniejszyć, nawet gdy inteligencja nadal rośnie.
  • Potrzeba danych . Czasami brakuje surowych danych, a w ich braku większa inteligencja nie pomaga. Dzisiejsi fizycy cząstek elementarnych są bardzo pomysłowi i opracowali szeroki zakres teorii, ale brakuje im danych, aby wybrać między nimi, ponieważ dane z akceleratora cząstek są tak ograniczone . Nie jest jasne, czy poradziliby sobie drastycznie lepiej, gdyby byli superinteligentni — poza ewentualnym przyspieszeniem budowy większego akceleratora.
  • Wewnętrzna złożoność . Niektóre rzeczy są z natury nieprzewidywalne lub chaotyczne i nawet najpotężniejsza sztuczna inteligencja nie jest w stanie przewidzieć ani rozwikłać ich znacznie lepiej niż człowiek lub komputer dzisiaj. Na przykład nawet niesamowicie potężna sztuczna inteligencja mogłaby przewidzieć tylko nieznacznie dalej w chaotycznym systemie (takim jak problem trzech ciał ) w ogólnym przypadku,  (W systemie chaotycznym małe błędy kumulują się wykładniczo w miarę upływu czasu, tak że nawet ogromny wzrost mocy obliczeniowej prowadzi jedynie do niewielkiej poprawy tego, jak daleko można przewidzieć przyszłość, a w praktyce błąd pomiaru może to jeszcze bardziej pogorszyć.)  w porównaniu do dzisiejszych ludzi i komputerów.
  • Ograniczenia ze strony ludzi . Wiele rzeczy nie może zostać zrobionych bez łamania prawa, krzywdzenia ludzi lub psucia społeczeństwa. Dostosowana sztuczna inteligencja nie chciałaby robić tych rzeczy (a jeśli mamy niedostosowaną sztuczną inteligencję, wracamy do rozmowy o ryzyku). Wiele ludzkich struktur społecznych jest nieefektywnych lub nawet aktywnie szkodliwych, ale trudno je zmienić, jednocześnie respektując ograniczenia, takie jak wymogi prawne dotyczące badań klinicznych, chęć ludzi do zmiany swoich nawyków lub zachowanie rządów. Przykłady postępów, które dobrze działają w sensie technicznym, ale których wpływ został znacznie ograniczony przez przepisy lub nieuzasadnione obawy, obejmują energię jądrową, lot naddźwiękowy , a nawet windy .
  • Prawa fizyczne . To bardziej surowa wersja pierwszego punktu. Istnieją pewne prawa fizyczne, które wydają się nie do złamania. Nie można podróżować szybciej niż światło. Chipy mogą mieć tylko określoną liczbę tranzystorów na centymetr kwadratowy , zanim staną się zawodne . Obliczenia wymagają pewnej minimalnej energii na każdy wymazany bit, co ogranicza gęstość obliczeń na świecie.

Opr. IDB