Nie zakazujemy ChatGPT, ale tym silniej uczymy krytycznego myślenia

Posłuchaj:
Udostępnij:

W Akademii Leona Koźmińskiego przygotowaliśmy dla naszego środowiska naukowo-dydaktycznego, ale także dla naszych studentów i studentek rekomendacje dotyczące wykorzystania narzędzi z obszaru generatywnej sztucznej inteligencji, czyli np. aplikacji ChatGPT. W kontekście masowego w skali globalnej zainteresowania tymi narzędziami w praktycznie każdej dziedzinie życia, uznaliśmy że również sektor edukacji musi zabrać głos wobec tych innowacji.  Jak się okazało, jesteśmy pierwszą uczelnią w Polsce i jedną z pierwszych na świecie, które takie rekomendacje przyjęły. Wynika to też z faktu, że w Akademii Leona Koźmińskiego działa bardzo prężne, uznane w skali międzynarodowej, centrum badań pod kierunkiem prof. Jemielniaka i prof. Przegalińskiej. W szerokiej grupie roboczej wypracowaliśmy zestaw rekomendacji, które na pewno będą ulegały rozbudowie i modyfikacjom ? tak jak rozwijają się narzędzia SI oraz budowane jest nasze doświadczenie korzystania z nich.

Zasadniczo stoimy na stanowisku, że narzędzia generatywnej SI będą nas wspomagały w codziennym życiu. Jako uczelnia musimy nauczyć naszych studentów mądrego, transparentnego i etycznego korzystania z ich potencjału. Uważamy, że proste zakazywanie stosowania takich narzędzi w edukacji jest ślepą ulicą, wszak trudno urzędowo zakazać powszechnie dostępnej innowacji, prawdopodobnie za chwilę masowo wykorzystywanej w większości zawodów.

Naszą podstawową troską jest uczenie krytycznego myślenia, czyli ograniczonego zaufania do komunikatów pozyskiwanych z Internetu, w domyśle coraz częściej produktów wygenerowanych przez sztuczną inteligencję. Musimy umieć tak kształtować nasz umysł, aby umiał zweryfikować, czy one są poprawne i czy są uczciwe. Temu służy właśnie dobre, skuteczne nauczanie krytycznego myślenia.

Pojawienie się ChatGPT podwyższyło wymagania wobec pracowników wiedzy. Im sprawniejsza jest sztuczna inteligencja, tym inteligentniejszy musi być człowiek, aby umiał ocenić efekty jej zastosowania. Chcemy kształcić takich ludzi ? osoby, które umiejętnie wykreują wartość, sprytnie i mądrze korzystając z dobrodziejstw narzędzi SI.

Sądzę, że w najbliższej przyszłości powstaną nowe zawody nakierowane na ocenę jakości wytworów narzędzi SI, może coś na kształt zaufanej trzeciej strony. Będą to ludzie, którzy mają na równi z kwalifikacjami technologicznymi, kompetencje etyczne, a których zadanie będzie stawianie granic,

– gdzie możemy zawierzyć SI w zasadzie bez zastrzeżeń,

– gdzie musimy ją zweryfikować innymi źródłami i procesami oraz

– gdzie musimy samodzielnie zmierzyć się z zadaniem czy procesem, jedynie w małym zakresie polegając na narzędziach SI.

Moim zdaniem, rozwijająca się sztuczna inteligencja podnosi ludziom poprzeczkę: zdejmuje z nas proste, nudne zadania (np. związane z przeszukiwaniem, kompilowaniem informacji, ale też jej przetwarzaniem celem wydobycia wniosków), dając możliwość zajęcia się bardziej wymagającymi, wyrafinowanymi problemami i wyzwaniami. To będzie wielkie ?sprawdzam? dla twórców, ekspertów, mistrzów, również nauczycieli, w tym akademickich, na ile rzeczywiście są dobrzy w swoich dziedzinach i z radością oddadzą rzemiosło algorytmom, samemu poświęcając się zadaniom z wyższą wartością dodaną. Jedni się z tego cieszą, inni obawiają, że stracą sens pracy i zatrudnienie. Za sprawą upowszechnienia SI, jeszcze bardziej aktualna staje się stara łacińska maksyma ? qui non proficit deficit ? kto się nie rozwija, ten się cofa.

W naszych rekomendacjach nie odnosimy się do takich tematów jak ochrona danych osobowych czy praw autorskich, choć zdajemy sobie sprawę z wątpliwości prawnych stosowania takich narzędzi. Uważamy jednak, że to jest zadanie dla całego środowiska edukacyjnego, a nawet szerzej prawnego, a nie jedynie pojedynczego podmiotu jakim jest Akademia Leona Koźmińskiego. W miarę wypracowania stanowiska w tym szerszym gronie będziemy również aktualizować nasze rekomendacje.

Grzegorz Mazurek, rektor Akademii Leona Koźmińskiego, profesor zarządzania