Sztuczna inteligencja w przedsiębiorstwie – co trzeba wiedzieć

Posłuchaj:
Udostępnij:

Sztuczna inteligencja znalazła się w centrum naszej uwagi, bo chcemy ją wykorzystać w firmach do zwiększenia własnej produktywności oraz wszystkich pracowników, do opracowywania nowych lub ulepszania istniejących produktów, usług i procesów, do zwiększenia odporności firmy na turbulencje i nadużycia. Jeśli wg opinii ekspertów ta technologia jest przełomowa, to chcemy i my zaprząc ją do biznesu.

W miarę jednak jak przedsiębiorstwa badają i opracowują strategie dotyczące sztucznej inteligencji pojawiają się – oprócz możliwych przypadków użycia – również nowe obawy i wyzwania. Firmy na całym świecie są ostrożne: eksperymentują, wdrażają pilota, wybrane mało ryzykowne rozwiązanie, czasem się wycofują. Jakiś czas temu Infosys poinformował, że jej klient ​​- anonimowa globalna firma, która we wrześniu podpisała wartą 1,5 miliarda dolarów umowę na rozwiązania w zakresie sztucznej inteligencji – zdecydował się rozwiązać tę umowę. Samsung po doświadczenia z wyciekiem danych zabroniła używania ChatGPT.

Na podstawie wywiadów z CEO i CFO z Klubu Dyrektorów Finansowych „Dialog” oraz ekspertami klubowego programu Digital Finance Excellence wytypowaliśmy najważniejsze obszary do uwzględnienia i analizy podczas tych przymiarek do implementacji technologii AI w przedsiębiorstwie.

  1. AI do tworzenia treści i streszczeń

Generatywna sztuczna inteligencja nie zastąpi dziennikarzy, twórców i grafików, jednakże radykalnie przyspiesza cały proces, generując obrazy i tekst,  skracając, wydłużając lub upraszczając artykuły i inne materiały, a także sprawdzając fakty i gramatykę.

AI streszcza dokumenty, tworzy notatki ze spotkań, wyszukuje dane i informacje.

Oferuje potencjał automatyzacji zadań, zwiększania produktywności, obniżania kosztów i oferowania nowych możliwości rozwoju.

Ma to ogromne zastosowanie w mediach, marketingu, obsłudze klientów, w zarządzaniu zespołami, w procesach backoffice.

​​Jest to jedno z najbardziej przełomowych, a zarazem najmniej ryzykownych zastosowań AI.

  1. Bezpieczeństwo własnych danych i własność praw autorskich to kluczowe kwestie, z którymi borykają się przedsiębiorstwa.

Wszystko, co zostanie umieszczone w jednym z narzędzi sztucznej inteligencji generacji, należy traktować jako ujawnienie informacji poufnych.  Nawet jeśli narzędzie Gen AI zapewnia opcję rezygnacji z wykorzystywania danych do celów szkoleniowych, dane mogą nadal znajdować się na ich serwerach. Nie jest to rozwiązanie w 100% wolne od ryzyka.  Jest to również powód, dla którego niektóre firmy wolą uruchamiać własne modele w chmurze, aby zachować prywatność informacji w swojej firmie.

Przedsiębiorstwa muszą również uważać na potencjalne naruszenia praw autorskich. Dzisiaj – 27.12 – The New York Times pozwał OpenAI i Microsoft, oskarżając je o wykorzystywanie milionów artykułów gazety bez pozwolenia do pomocy w szkoleniu technologii sztucznej inteligencji. „The Times” nie domaga się konkretnej kwoty odszkodowania, ale podaje, że OpenAI i Microsoft spowodowały szkody o wartości „miliardów dolarów”. Chce także, aby firmy zniszczyły modele chatbotów i zestawy szkoleniowe zawierające jego materiały. Powieściopisarze, tacy jak  David Baldacci czy John Grisham również pozywają OpenAI i Microsoft przed sądem na Manhattanie, twierdząc, że systemy sztucznej inteligencji mogły przejąć treść ich książek.

  1. Halucynacje są prawdziwe, ale może będzie ubezpieczenie.

Halucynacje wyglądają jak prawdziwe, ale nie są. Pojawiają się, gdy LLM nie zna odpowiedzi, ale nadal próbuje odpowiedzieć i coś wymyśla. Częścią problemu jest to, że jeśli wyraźnie nie nakażesz aplikacji, to ona sama z siebie nigdy nie powie „nie wiem”.

Jest też coś więcej. To samo wejście może generować różne wyniki. Nie do tego przywykli inżynierowie i menedżerowie. W jaki sposób osoba zajmująca się kontrolą jakości może przeprowadzić testowanie, gdy dane wyjściowe zmieniają się dla tych samych danych wejściowych?

Na halucynacje są już pierwsze sposoby, a także pierwsze ubezpieczenia. Według jednej z prognoz AI Forrestera na rok 2024 , duży ubezpieczyciel zaoferuje konkretną politykę dotyczącą halucynacji związanych z ryzykiem AI . […] Tak naprawdę ubezpieczenia od halucynacji będą w 2024 roku przynosić duże zyski .

  1. Shadow AI

Bring Your Own Artificial Intelligence jest to nowy trend polegający na tym, że pracownicy przynoszą do pracy własne narzędzia i aplikacje AI. W naszym badaniu w KDF Dialog wielokrotnie słyszeliśmy podczas wywiadów, że dyrektorzy sami na własną rękę testują różne aplikacje AI, bo korporacja czy właściciele nie są chętni do wdrożeń. Pracownicy też to robią.

 Rosnąca dostępność niedrogich i łatwych w użyciu narzędzi AI oraz rosnące zapotrzebowanie na umiejętności AI napędzają tę tendencję. Wg Forrester 60% pracowników będzie wykorzystywać własną sztuczną inteligencję do wykonywania zadań.

Łatwo na tym stracić kontrolę. Wiąże się to z wieloma zagrożeniami, takimi jak:

  • Naruszenia prywatności i bezpieczeństwa danych : niezatwierdzone narzędzia sztucznej inteligencji mogą nie mieć takich samych zabezpieczeń jak narzędzia oficjalne, przez co wrażliwe informacje mogą zostać skradzione lub utracone.
  • Naruszenia zgodności : podobnie narzędzia te mogą nie spełniać ważnych przepisów, co może prowadzić do problemów prawnych.
  1. Zarządzanie zaufaniem, ryzykiem i bezpieczeństwem sztucznej inteligencji

Zespół odpowiedzialny za ten obszar ma następujące zadania::

  • Wyjaśnialność: pomóc ludziom zrozumieć, w jaki sposób modele AI podejmują decyzje i identyfikować potencjalne błędy.
  • ModelOps: zapewnić narzędzia i procesy do automatyzacji i monitorowania cyklu życia modeli AI.
  • IT Governance: zapewnić zgodność z korporacyjną architekturą IT. Modele AI muszą być zarządzane i utrzymywane tak samo jak każdy inny system informatyczny. Konieczne jest mapowanie zasobów, procesów i funkcji oraz hardware i software, które mogą być powiązane z systemami AI.
  • Wykrywanie anomalii w danych : pomagać organizacjom identyfikować i eliminować anomalie w danych, które mogą prowadzić do błędów w modelach AI. Modele AI są szkolone na danych. Jeśli dane są nieprawidłowe, wyniki również nie będą satysfakcjonujące.
  • Odporność na ataki kontradyktoryjne: zapewniać narzędzia do wykrywania takich ataków i odpierania ich.
  • Ochrona danych : pomagać organizacjom przestrzegać przepisów dotyczących prywatności danych i chronić prywatność osób fizycznych.

    6. Sztuczna inteligencja do personalizacji

Wg Gartnera  do 2026 roku jedna trzecia wszystkich nowych aplikacji będzie wykorzystywać sztuczną inteligencję do tworzenia spersonalizowanych i adaptacyjnych interfejsów użytkownika. To znaczący wzrost w porównaniu z dzisiejszymi liczbami, gdzie jedynie około 5% aplikacji wykorzystuje w ten sposób sztuczną inteligencję.

  1. Ustawodawstwo dotyczące sztucznej inteligencji.

Europa jako pierwsza przyjmie odpowiednia ustawę w pierwszym kwartale 2024 roku. Uregulowania wymaga wiele kwestii. Dyrektorzy podkreślają szczególnie odpowiedzialność za decyzje (i ich konsekwencje) podejmowanie na podstawie algorytmów sztucznej inteligencji lub wprost przez nią.

  1. AI jest z chmury

Kluczowe jest uświadomienie sobie, że usługi AI są usługami wykorzystującymi chmurę obliczeniową. To zaś powoduje, że musimy mieć zawartą umowę na świadczenie usług chmurowych (to pociąga za sobą pewne konsekwencje). W przypadku podmiotów, które zamierzają przetwarzać informacje prawnie chronione z pewnością wymagane będzie przeprowadzenie szczegółowej analizy ryzyk, a także oceny skutków dla ochrony danych.

    9. AI kosztuje

Korzystanie z modeli AI może być dość kosztowne. Tam, gdzie rozwiązania AI są kosztowne, warto tworzyć własne modele. Tam gdzie jest to bardzo dostępne cenowo, integrować się z gotowymi rozwiązaniami. Chatbot ogólnego przeznaczenia może potrzebować ogromnego modelu, ale jeśli aplikacja jest stworzona specjalnie do konkretnych przypadków użycia, wówczas znacznie mniejszy model będzie szybszy i tańszy.

     10. Nowe zawody związane ze sztuczną inteligencją

Wg Pragmatic Coders  w 2024 roku pojawią się lub zyskają na znaczeniu następujące zawody:

  • Menedżer produktu AI : Odpowiedzialny za nadzorowanie rozwoju i wprowadzanie na rynek produktów opartych na sztucznej inteligencji, upewniając się, że spełniają one potrzeby rynku i są zgodne z celami biznesowymi.
  • Inżynier AI (naukowiec zajmujący się sztuczną inteligencją, programista Business Intelligence, inżynier wizji komputerowej, inżynier uczenia maszynowego, inżynier NLP itp.)
  • Etyk AI : zapewnia, że ​​systemy AI są opracowywane i wdrażane w sposób etyczny i odpowiedzialny, uwzględniając kwestie stronniczości, uczciwości, prywatności i przejrzystości.
  • Menedżer wejść i wyjść AI : zarządza danymi wejściowymi wprowadzanymi do systemów AI i interpretuje dane wyjściowe generowane przez te systemy.
  • Analizator nastrojów : analizuje opinie klientów, komentarze w mediach społecznościowych i inne formy danych tekstowych, aby poznać nastroje i opinie społeczne.
  • Specjalista ds. regulacji AI : pozostaje na bieżąco ze zmieniającym się otoczeniem regulacyjnym dotyczącym sztucznej inteligencji i zapewnia, że ​​firmy przestrzegają odpowiednich przepisów.
  • Projektant interakcji człowiek-komputer AI (HCI) : projektuje interfejsy użytkownika dla produktów i aplikacji wykorzystujących sztuczną inteligencję, aby poprawić komfort użytkownika i zapewnić intuicyjną interakcję.

Zapraszamy do zespołu Digital Finance Excellence, do dzielenia się swoimi doświadczeniami, korzystania z naszej wiedzy i ekspertów Klubu Dyrektorów Finansowych „Dialog”. Proszę pisać kontakt@kdfdialog.org.pl

 

Iwona D. Bartczak