Przygotowanie firmy do wdrożenia AI – jakie i skąd dane? – cz. 1

Posłuchaj:
Udostępnij:

Już na marcowym spotkaniu Klubu Dyrektorów Finansowych „Dialog” we Wrocławiu pojawiły się spore rozbieżności zdań co do źródeł danych do klasycznych systemów informatycznych i do modeli AI, potem na kolejnych spotkaniach w innych miastach temat wybrzmiał jeszcze mocniej, uzyskując kulminacje w Warszawie. W kolejnych wpisach w serwisie Digital Finance Excellence publikujemy niektóre charakterystyczne i wartościowe wypowiedzi, pozwalające wyrobić sobie zdanie w tej sprawie.

Dzisiaj pierwsze w nich

 

Milena Pacia, CFO w TDJ

„CFO musi mieć kompetencje w dziedzinie AI. Dzięki temu sprawia, że organizacja interesuje się AI, inspiruje dyrektorów innych obszarów, pokazując przykłady oraz nie blokuje na nią budżetów. Jestem przekonana, że niebawem finanse będą autonomicznie, niektóre instytuty badawcze twierdzą, że stanie się to już w 2027 roku. Musimy być na to przygotowani, przede wszystkim musimy gromadzić i porządkować dane, aby być gotowym do budowanie swoich modeli i innych rozwiązań AI.”

 

Piotr Słomianny, CFO w MPWiK we Wrocławiu

„Podczas  spotkania KDF Dialog we Wrocławiu zaznaczyłem, że jakość danych ma kluczowe znaczenie zarówno w tradycyjnych systemach IT, jak i w procesach zautomatyzowanych przez RPA. Jeśli chodzi o AI, to sprawa wydaje się być nieco bardziej złożona.

AI faktycznie ma zdolność do pracy z danymi nieustrukturyzowanymi, co jest jedną z jej największych zalet. Jednak stwierdzenie, że jakość danych nie jest ważna, mogłoby być mylące. Wprawdzie AI może pracować z mniej uporządkowanymi danymi, ale ich jakość wciąż ma znaczący wpływ na wydajność i dokładność modeli. Na przykład, algorytmy uczenia maszynowego mogą wymagać znacznego czyszczenia i przygotowania danych przed efektywnym wykorzystaniem natomiast do modeli generatywnych możemy wrzucić je mniej przygotowane, ale jakość nadal jest ważna!

W kontekście roli CFO w kształtowaniu podejścia do AI, zdecydowanie zgadzam się, że jednym z pierwszych kroków jest właśnie zapewnienie odpowiedniej jakości i dostępności danych. Natomiast należy pamiętać, że jakość danych nie zapewniają hurtownie danych, a systemy dziedzinowe, z których są do tej hurtowni ładowane i od ludzi, którzy do nich je wprowadzają. Hurtownie danych czy rozwiązania BI  owszem mogą ułatwić to zadanie i zbudować solidne fundamenty dla zaawansowanych analiz, ale dane dla algorytmów generatywnej sztucznej inteligencji mogą też pochodzić bezpośrednio z systemów dziedzinowych o ile ich jakość jest zadowalająca . Z drugiej strony z tego, co pamiętam Maciej Broniszewski pokazał dobry przykład wykorzystania GenAI do tego, żeby sama zaplanowała prace nad podwyższeniem jakości danych i to bez hurtowni.

Można powiedzieć, że choć GenAI może radzić sobie z pewnym poziomem nieporządku w danych, jednak ich zapewnienie ich wysokiej jakości powinno nadal być priorytetem. Natomiast mówienie, że należy teraz przeprowadzić projekty tworzenia hurtowni danych oraz systemów BI, aby w ogóle wejść w ten temat może być tematem zastępczym (bo akurat przez wielu CFO już dobrze znanym ), ponieważ skupienie na budowie hurtowni danych i systemów BI może odwrócić uwagę od bardziej istotnych aspektów wdrażania AI, takich jak samo zrozumienie tej technologii i potencjału jej wykorzystania w kontekście potrzeb biznesowych. Hurtownie danych i systemy BI są niewątpliwie wartościowe, ale nie powinny być postrzegane jako jedyny lub główny sposób na przygotowanie firmy do wykorzystania AI. Bardziej widzę to jako zasłonę dymną lub po prostu nieznajomość tematu.

 

Maciej Broniszewski, CFO w Sword

„Jedną z większych zalet AI jest możliwość rozwiązywania wielokryterialnych problemów bez potrzeby ich matematycznej formalizacji, czyli strukturyzacji danych. Sztuczna inteligencja jest bowiem oparta o rachunek prawdopodobieństwa i  umiejętności znajdowania relacji pomiędzy poszczególnymi elementami w bazie. Nie oznacza to jednak, że AI jest rozwiązaniem dedykowanym do analizy nieuporządkowanych danych. Algorytm uczenia maszynowego jest w stanie uzupełnić pewne niedoskonałości w strukturze czy formie danych, jednak nie zmienia to faktu, iż jakość wyników zależy od danych, które mamy na wejściu.

Jedną z możliwości poprawy jakości wyników jest zaprzęgnięcie GenAI do wykonania pętli szkoleniowej, w której bardziej zaawansowany model AI wpierw generuje zapytania, następnie ocenia odpowiedzi i wprowadza korekty do modelu podstawowego. Nie zmienia to faktu, iż w przypadku zapewnienia danych słabej jakości i niespójnych, wyniki nawet zaawansowanych modeli nie będą zadowalające.  Opisana pętla szkoleniowa pozwala wyciągnąć wnioski co do przejrzystości danych wejściowych, promptu GenAI, a więc daje feedback motywujący do korekt skryptu i danych, na których pracuje model.

Nikt i nic nie zastąpi nas w zdefiniowaniu danych, na których mają pracować nasze rozwiązania. Utrata kontroli nad ładem danych służących do wnioskowania prowadzi nas do efektu ‘black box’ w pełnej skali, czyli całkowitego braku zrozumienia podstaw wyników obliczeń. Z perspektywy biznesowej, dla mnie, jest to nie do zaakceptowania.”