W ostatnim czasie coraz częściej wykorzystuje się technologie sztucznej inteligencji i data science do wspomagania biznesu w codziennych zadaniach. Niestety, nadal widać brak pełnego zaufania zarówno ze strony użytkowników jak i przedsiębiorców chcących ulepszyć swoje usługi za pomocą AI. W tym poście postaramy się określić genezę problemu i przedstawić sposoby w jakie można to naprawić
Business Process Management
Procesy biznesowe, jako schemat działań zawierają wiele elementów decyzyjnych. Przykładami może być decyzja o przyznaniu kredytu, zarządzanie przychodami, wycena lub przyznanie ubezpieczenia.
Zautomatyzowanie tych elementów systemu za pomocą uczenia maszynowego ma ogromny potencjał zarówno w kwestii obniżenia kosztów, jak i skrócenia czasu trwania takiego procesu.
Niestety, niewiele firm decyduje się na takie rozwiązanie. Autorzy artykułu “AI trust in business processes: the need for process-aware explanations.” jako przyczynę podają to, że klienci są zwykle niechętni do podjęcia ryzyka wynikającego z zastosowania uczenia maszynowego, a także nie do końca ufają modelom AI. Zauważają także brak literatury i kompleksowego opisu dotyczącego zastosowań AI w sektorze BPM, opisanej w sposób zrozumiały dla osób związanych z BPM. Należy pamiętać, że są one specjalistami w dziedzinie ekonomii, bankowości i procesów biznesowych, a nie w dziedzinie AI i machine learningu. Tutaj jest zauważalna luka w dostępności treści dla tych użytkowników.
Efektem powyższych przyczyn jest niewielkie zastosowanie AI i machine learningu, a jeśli już jest zastosowane, to ogranicza się do wąskich dziedzin takich jak obsługa klienta, czy ocena ryzyka.
Mając na uwadze to, że do 2023 roku przewidywana warto rynku związana z BPM ma osiągnąć wartość 16 miliardów dolarów, zastosowanie AI może przynieść ogromne oszczędności w tej dziedzinie.
Przykładem takiego potencjalnego zastosowania może być proces udzielania pożyczek klientom banku.
Jak widać na powyższym diagramie proces jako wejście przyjmuje aktywności i uwarunkowania, a następnie na ich podstawie wydaje werdykt na temat przyznania pożyczki. Obecna forma jest poprawna w 85% przypadków. Wykorzystując dodatkowo narzędzia takie jak LIME pozwalające określić przyczynę takiej, a nie innej decyzji.
W naszym przypadku wskazywał na aktywność Skilled agent-a. Jeżeli ona była duża, powodowała ona odrzucenie wniosku o przyznanie pożyczki.
Powyższy wynik pokazuje, że pożyczka jest odrzucana, gdy przechodzi przed “Skilled agenta”. Z drugiej strony, gdy znawca tematu i konkretnego przykładu BPM określi, że wpływem na odrzucenie wniosku jest wysoka kwota pożyczki, przy jednocześnie niskiej ocenie zdolności kredytowej.Gdy użyjemy narzędzia LIME w kontekście tych wartości wejściowych (LOAN AMOUNT, CREDIT SCORE) okazuje się że wyniki są już znaczące i mają odwzorowanie w rzeczywistości.
Powyższy przykład pokazuje, że bezpośrednie zastosowanie technik uczenia maszynowego i data science to procesów biznesowych może prowadzić do mylących, lub niekompletnych wyników. Dodatkowo widać, że stosując techniki uczenia maszynowego należy być świadomym tego, do czego są stosowane i w razie potrzeby poprawiać algorytmy, aby poprawić ich jakość.
Jak zwiększyć zaufanie do AI w sektorze BPM?
Jako rozwiązanie problemu autorzy proponują dodanie modelu który jest świadom idei procesu i pomaga w interpretacji wyniku.
Dodatkowo, należy znacząco powiększyć dostępne treningowe zbiory danych, na które można wykorzystywać, przy tworzeniu nowych modeli BPM. Nowe zbiory powinny również mierzyć jakość argumentacji, dlaczego taki wynik został otrzymany.
Należy również pamiętać o poszerzeniu literatury skierowanej do osób specjalizujących się w BPM, która traktuje o AI i data science w sposób zrozumiały dla nich i przystępny.
Filary zaufania do AI w biznesie
Podsumowując problemu jakie do tej pory napotykano przy zastosowaniu uczenia maszynowego i data science w biznesie można określić zasady, które powinno spełniać takie rozwiązanie:
Sprawiedliwość i Transparencja – Jeżeli oczekujemy od biznesu, że jego decyzje procesowe będą sprawiedliwe to musimy mieć zapewnione algorytmy, które wyjaśniają i przedstawiają tok wnioskowania. Wyniki muszą być uzasadnione, a przez to sprawiedliwe i uczciwe.
Zysk – Firmy muszą zapewnić akcjonariuszy, że zyski z zastosowania AI w BPM przewyższają koszt ich wprowadzenia. Można mierzyć to na różnych poziomach, od zadowolenia użytkowników, skrócenie czasu trwania procesów po bardziej trafne decyzje.
Zaufanie – Społeczeństwo musi być przekonane, że firmy, które decydują się na użycie AI mogą być godne zaufania poprzez zbieranie danych i mogą być rozliczane z decyzji które algorytmy dokonują. Zaufanie jest krytyczne aby uzyskać akceptację społeczeństwa, szczególnie gdy AI działa bez nadzoru ludzkiego.
Sztuczna inteligencja w transporcie
Jednym z obszarów, w którym intensywnie prowadzone są badania jest wykorzystanie autonomicznych samochodów do przewozu osób. Wyeliminowanie potrzeby opłacania kierowcy, czy szofera, która stanowi większośc kosztów tego typu usług umożliwiłoby poszerzenie grona klientów i wprowadzeniu modelu TaaS (Transport as a service). Zmniejszenie ilości prywatnych samochodów rozwiązałoby wiele problemów komunikacyjnych, szczególnie w większych metropoliach. Największym dylematem jest kwestia zaufania do kilkutonowej maszyny nad którą nie mamy kontroli. Wiele firm prowadzi testy autonomicznych samochodów, które nie zawsze kończyły się powodzeniem. Jedną z głośniejszych spraw był pierwszy odnotowany wypadek z udziałem autonomicznego samochodu UBER, w którym zginął pieszy. Zdarzenie miało miejsce 18 marca 2018 roku w Tempe Arizona. Kobieta w wieku 49 lat późnym wieczorem przechodziła przez 4-pasmową ulicę pchając rower, na którym załadowane były torby zakupowe. Samochód prowadzony w sposób autonomiczny uderzył kobietę, która następnie zmarła w szpitalu. Jako, że były to przejazdy testowe, za kierownicą siedział operator, który w sytuacjach awaryjnych powinien przejąć kontrolę nad pojazdem. Następstwem tego wypadku było wstrzymanie programu testowego przez firmę UBER w Arizonie. W marcu 2019 roku prokuratorzy stwierdzili, że nie mają podstaw do pociągnięcia korporacji do odpowiedzialności za wypadek ze skutkiem śmiertelnym, którym uczestniczyło ich auto.
Operatorowi, który siedział za kierownicą postawiono zarzuty nieumyślnego spowodowania śmierci, gdyż materiał dowodowy zebrany w tej sprawi pozwolił stwierdzić, że operator odpowiedzialny za nadzorowanie przejazdu autonomicznego samochodu zamiast skupiać uwagę na obserwacji otoczenia i zachowania pojazdu oglądał serial telewizyjny na smartfonie. Prokuratorzy stwierdzili, że wypadku możnabyło uniknąć, gdyby operator nie był rozproszony korzystaniem z telefonu komórkowego.
Tego typu przypadki kwestionują zaufanie do autonomicznych pojazdów. Pomimo tego, że zgodnie z prawem winny był operator, to system sztucznej inteligencji nie wykrył przechodnia i nie wyhamował pojazdu. To pokazuje jak długa droga przed technologicznymi gigantami do wprowadzenia technologi, której ludzie będą w stanie zaufać.
Delivery couple
Tak jak zaufanie w osobistych i biznesowych relacjach buduje się od podstaw, tak samo musi ono być zbudowane pomiędzy użytkownikiem sztucznej inteligencji a systemem. Możemy to osiągnąć, poprzez pozytywne doświadczenia jakie przeżywa użytkownik korzystając z systemu AI. Im bardziej sprawimy, że ten proces będzie wzbudzał pozytywne emocje, tym większa szansa na to, że społeczeństwo zaufa mu. Wiedzę tę wykorzystali twórcy autonomicznych robotów dostarczających jedzenie – Delivery Couple. Polski-Ukraiński zespół postanowił stworzyć narzędzie odciążające pracę kurierów na krótkich odległościach i wprowadził do Lublina 2 jeżdżące roboty – Mateusza i Kasię. Jak mówi jeden z autorów projektu Sergiusz – chcą z prostej dostawy jedzenia zrobić doświadczenie. Gdy klient odbiera zamówienie nie musi otwierać jeżdzącego pudełka poprzez aplikację, tylko wydaje prośbę o wydanie posiłku do animizowanego robota, który potrafi wypowiadać proste zdania. Nadanie ludzkich imion, przedstawienie w formie pary posiadającej relacje, dodanie fizycznych cech ludzkich, jak również sprawienie, że klient może z nimi nawiązać “rozmowę” sprawia, że użytkownik odczywa ekscytacje i z większym prawdopodobieństwem zwiększy swoje zaufanie do robotów wykonujących dostawy.
Podstawy zaufania
Technologia sztucznej inteligencji niewątpliwie rodzi problemy, których rozwiązanie jest niezbędne do zbudowania zaufania pomiędzy użytkownikami a systemem. Między innymi umiejętność do podejmowania decyzji, w taki sposób, że ludzie uznają je za sprawiedliwe. Muszą one być świadome i zgodne z przyjętymi ludzkimi wartościami oraz sposób w jaki zostały podjęte możliwe do wyjaśnienia z przejrzystym tokiem rozumowania.
Wielu badaczy próbując rozwiązać w.w problem zdefiniowało kilka ogólnych założeń systemu SI, które są niezbędne do zbudowania zaufania:
Wyjaśnialność (Explainability)
Użytkownik systemu musi znać mechanizmy i procesy, które stoją za jego działaniem. Wiele obecnych systemów stanowi pewnego rodzaju czarną skrzynkę, gdzie nie są informowani w jasny sposób jakie czynniki wpłynęły na podjęcie określonej decyzji. Między innymi szerorko używany system głębokiego uczenia nie jest przejrzysty i nie dostarcza danych, które miały wpływ na rezultat operacji.
Uprzedzenie i stronniczość
Stronniczość może być nieumyślnie wprowadzona do systemu poprzez nieodpowiednie dobranie zbioru treningowego np. brak odpowiedniej rożnorodności kulturowej w systemie wykrywania emocji. Bardzo ważne jest wspomaganie deweloperów tworzących systemy oparte na sztucznej inteligencji poprzez uświadaniamie o aktualnych możliwościach, dzięki licznym metrykom stronniczości, pojęć uczciwości oraz algorytmom wykrywania i minimalizowania stronniczości w systemie.
Podsumowanie
Technologia sztucznej inteligencji może być bardzo pomocna w prowadzeniu biznesu, gdyż może usprawnć wiele procesów, czy zmniejszyć koszty dostarczania usługi. Nie możemy zapomnieć jednak, że obecne zaufanie społeczeństwa do tego typu usług jest dosyć mocno ograniczone i twórcy wprowadzając nowe rozwiązania powinni spełniać chociaż minimalne wymagania co do systemu sztucznej inteligencji. Tylko w taki sposób jesteśmy w stanie tworzyć systemy, które mają szansę uzyskać zaufanie u człowieka.
Literatura
- Jan, Steve TK, Vatche Ishakian, and Vinod Muthusamy. “AI trust in business processes: the need for process-aware explanations.” Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. No. 08. 2020.
- https://fortune.com/2022/02/04/ai-artificial-intelligence-trust-ethics-social-license
- https://www.nytimes.com/2019/03/05/technology/uber-self-driving-car-arizona.html
- https://jia.sipa.columbia.edu/building-trust-artificial-intelligence
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…