źródło: https://micro.ai/company/partnerships
We live in a society that functions based on a high degree of trust. We have a lot of systems that require trustworthiness, and most of them we don’t even think about day to day ~ Yisong Yue, California Institute of Technology
Kluczem do sukcesu w budowaniu skutecznych oraz długotrwałych relacji biznesowych jest konsekwentne działanie zgodnie z przyjętymi zasadami etyki, dostarczając wysokiej jakości wartość w trakcie rzetelnej pracy na rzecz wspólnie wyznaczonych celów. Rozważając kwestię zaufania między człowiekiem a systemami Sztucznej Inteligencji (SI), należy w pierwszej kolejności zastanowić się jak wygląda proces budowania zaufania między ludźmi. W relacjach biznesowych istnieje wiele czynników, które mają kluczowe znaczenie na drodze do sukcesu. Istotne jest nawiązywanie i utrzymywanie dobrych relacji z klientami, dostawcami, partnerami biznesowymi oraz pracownikami. Ponadto, w relacjach biznesowych ważne jest, aby partnerzy biznesowi byli kompetentni, działali w imię wspólnego dobra z odpowiednim nastawieniem, celem sprostania wyzwaniom związanym z prowadzeniem biznesu. Kluczem do skutecznej i owocnej relacji biznesowej jest budowanie jej na fundamencie wzajemnego zaufania, biorąc pod uwagę następujące czynniki:
- Działanie zgodnie z zasadami etyki
- Wywiązywanie się z obowiązków
- Otwarta i rzeczowa komunikacja
- Płynna współpraca i zrozumienie
- Jakość
- Lojalność
- Innowacyjność
- Obiektywność
Piramida dysfunkcji zespołów (źródło: https://www.linkedin.com/pulse/dysfunkcje-zespołów)
Brak zaufania stanowi najpoważniejszą z pięciu głównych dysfunkcji pracy w zespole. Jednocześnie, zaufanie pozostaje cechą relacji dwukierunkowej, gdyż wiąże ono ze sobą dwa podmioty. Coraz częściej to systemy inteligencji stają się skutecznymi partnerami biznesowymi, pozwalającymi na dynamiczny rozwój przedsiębiorstw, akcelerację zysków bądź bardziej płynne wdrażanie nowych koncepcji czy idei. Zaufanie jest wiec niepodważalnie kluczowym elementem, bez którego ciężko o kompletną relację partnerską w biznesie.
Czemu nie ufamy sztucznej inteligencji? Główne powody niepewności wobec systemów SI
Mimo że sztuczna inteligencja może przynosić wiele korzyści, to wciąż spotyka się z dużą dozą nieufności ze strony ludzi. Dlaczego tak się dzieje? Istnieje wiele powodów, dla których zaufanie ludzi względem sztucznej inteligencji jest silnie ograniczone. Wśród najważniejszych można wymienić:
- Brak transparentności — wiele systemów SI korzysta z tzw. “czarnych skrzynek” (ang. black box), co oznacza, że nie jesteśmy w stanie poznać dokładnego sposobu, w jaki algorytmy podejmują decyzje. Widzimy jedynie dane wejściowe i wynik końcowy, ale nie zawsze możemy zrozumieć, jakie czynniki i kroki przyczyniły się do danego wyniku.
- Problem prywatności — korzystanie z SI wiąże się z przetwarzaniem i przechowywaniem dużych ilości danych osobowych, co może prowadzić do naruszenia prywatności.
- Brak wiedzy i zrozumienia — większość ludzi nie wie, jak działają systemy SI, co prowadzi do niepewności i braku zaufania. Skomplikowane algorytmy i modele używane w systemach SI są często nieprzejrzyste dla użytkowników, co może wywoływać wrażenie, że podejmowane decyzje są arbitralne lub oparte na przypadku.
- Niesprawiedliwość — systemy SI mogą prowadzić do niesprawiedliwych lub dyskryminujących wyników. Algorytmy uczenia maszynowego uczą się na podstawie danych, a te dane mogą być obarczone pewnymi uprzedzeniami lub brakami w reprezentatywności. W takim przypadku algorytmy mogą popełniać błędy lub podejmować decyzje na podstawie cech, które nie powinny wpływać na wynik. Ponadto, decyzje podejmowane przez systemy SI mogą nie uwzględniać indywidualnych potrzeb lub sytuacji poszczególnych użytkowników.
Jak zwiększyć zaufanie do SI?
W związku z problemami z zaufaniem do systemów SI ciągle powstają nowe propozycje, które mają na celu rozwiązanie powyższych problemów. Warto jednak pamiętać, że nie ma jednego uniwersalnego sposobu na kwestie etyki i zaufania w stosunku do SI. Te kwestie stanowią wyzwanie i będą wymagały ciągłej uwagi. Każde zastosowanie musi być ocenione indywidualnie, ale istnieją wytyczne i ramy, które mogą zacząć poprowadzić w odpowiednim kierunku.
Eksperci wskazują, że kluczowym elementem budowania zaufania do systemów SI jest transparentność, która powinna być zapewniona na wielu poziomach. Aby ludzie mogli ufać decyzjom podejmowanym przez te systemy, muszą wiedzieć jakie procesy prowadzą do uzyskania określonych wyników. Jednak sama transparentność modelu nie wystarcza — twórcy oprogramowania powinni jasno i przejrzyście informować o działaniach systemu podczas interakcji z nami. Dodatkowo, użytkownicy powinni mieć możliwość wyłączania niektórych funkcji w dowolnym momencie. Aby zapewnić to wszystko, konieczne jest wprowadzenie odpowiednich regulacji prawnych.
Jednym z ważnych działań, które mogą pomóc w zwiększeniu zaufania do systemów SI, jest edukacja ludzi. W kontekście biznesu, firma może przeprowadzać szkolenia dla swoich pracowników i klientów, aby zwiększyć ich świadomość na temat systemów SI i pokazać, jak można wykorzystywać je w sposób odpowiedzialny i zgodny z etyką. Natomiast na poziomie społecznym mogłoby się to odbyć przez wprowadzenie do szkół nowych zajęć lub rozszerzenie obecnych o tematykę związaną z SI.
Przechodząc od abstrakcyjnych teorii do konkretnych praktyk, powstają frameworki, które oferują kroki do tworzenia systemów SI z uwzględnieniem aspektów etycznych. Przykładem takiego frameworku jest Capgemini Trusted AI Framework, który wyszczególnia kroki etycznego cyklu życia SI.
Trusted AI Framework — etyczny cykl życia SI (źródło: https://www.capgemini.com/be-en/service/perform-ai/trusted-ai-2/)
Ponadto, próbę odpowiedzi na tytułowe pytanie Can You Trust AI To Help Navigate Today’s Digital Business Landscape? podjęto również w jednym z artykułów amerykańskiego dwutygodnika Forbes. Innymi słowy, czy możliwym jest obdarzenie zaufaniem systemy SI w celu uzyskania przewagi nad konkurencją, jednocześnie utrzymując wysoką jakość i wiarygodność świadczonych usług? Wdrażanie rozwiązań opartych na sztucznej inteligencji (AI) w biznesie może przynieść wiele korzyści, takich jak zwiększenie efektywności, poprawa jakości produktów lub usług oraz optymalizacja procesów. Jednak, aby takie rozwiązania były skuteczne i zyskały zaufanie, kluczowe jest zagwarantowanie wysokiej jakości danych i odpowiednich mechanizmów kontroli. W przypadku AI, jakość danych ma szczególne znaczenie, ponieważ modele sztucznej inteligencji są silnie wrażliwe na jakość danych, na których są trenowane. Jeśli dane są niekompletne, nieaktualne lub zawierają błędy, modele AI mogą produkować niedokładne lub niepożądane wyniki, co z kolei prowadzi do niskiego zaufania. W związku z tym, ważne jest, aby dane były pozyskiwane, przetwarzane i przechowywane w sposób zgodny z zasadami etyki i bezpieczeństwa. Powinny być to dane wiarygodne, transparentne i zgodne z obowiązującymi przepisami prawnymi i standardami branżowymi. Należy również zapewnić odpowiednie mechanizmy kontroli, takie jak weryfikacja i walidacja danych oraz monitorowanie jakości modeli AI. Aby rozwiązanie wykorzystujące AI było skuteczne i zyskało zaufanie użytkowników, kluczowe jest zagwarantowanie wysokiej jakości danych oraz przestrzeganie zasad etyki i bezpieczeństwa. Wszelkie mechanizmy kontroli powinny być dobrze zaplanowane i zaimplementowane, aby zapewnić wysoką jakość i niezawodność rozwiązania. Pomimo tego, proces budowania zaufania pozostaje czasochłonnym, a samo zaufanie charakteryzuje się tym, iż łatwo jest je naruszyć.
Analiza przypadków
Innowacyjne rozwiązania oparte na Sztucznej Inteligencji stają się coraz bardziej powszechne w życiu codziennym. Z uwagi na to, że użytkownicy stopniowo przyzwyczajają się do korzystania z takich narzędzi, skuteczne budowanie ich zaufania staje się kluczowym elementem sukcesu w tej dziedzinie. Niektórzy użytkownicy mogą nawet nie zdawać sobie sprawy, że korzystają z technologii opartej na Sztucznej Inteligencji. Wobec tego, ważne jest, aby edukować społeczeństwo na temat tych rozwiązań i sposobów w jaki działają, aby nie tylko jednostki miały szansę lepiej zrozumieć wartość tych rozwiązań. Ponadto, konieczne jest kreowanie odpowiednich postaw i świadomości wobec zagrożeń, szczególnie w obliczu nasilającej się dezinformacji. Budowanie relacji opartej na zaufaniu do rozwiązań SI wymaga również przejrzystości w algorytmach stosowanych przez firmy i zachowywania etycznych standardów, co może pomóc w uniknięciu obaw dotyczących prywatności i bezpieczeństwa danych. W rezultacie, innowacyjne rozwiązania oparte na Sztucznej Inteligencji będą miały większą szansę na zaakceptowanie przez użytkowników i będą miały większy wpływ na poprawę jakości życia, jeśli komunikacja między przedsiębiorstwami a użytkownikami będzie transparentna i czytelna. Niestety nie wszystkie przypadki świadczą o budowie relacji zaufania zakończonej sukcesem. W celu obiektywnej oceny SI jako partnera wirtualnego w biznesie, koniecznym jest przeprowadzenie analizy przypadków.
Robot serwujący Hot-Dogi w sieci sklepów Żabka
(źródło: https://www.politykabezpieczenstwa.pl/hot-dog-z-zabki-serwowany-przez-robota)
Przypadek 1
Budowanie relacji opartej na zaufaniu to proces, który wymaga czasu i cierpliwości. Bez względu na to, czy w grę wchodzą kontakty osobiste bądź biznesowe, ludzie lubią być traktowani w sposób indywidualny. Firma Thread oferuje usługi serwisu modowego, który wykorzystuje autorski system rekomendacyjny, oparty na algorytmach uczenia maszynowego. Dla użytkowników, jest to równoznaczne z posiadaniem osobistego stylisty. Poprzez przeprowadzenie krótkiego quizu, serwis gromadzi niezbędne informacje na temat preferencji i gustów użytkownika, a następnie oferuje spersonalizowane rekomendacje w zakresie stylizacji, które są zgodne z ich indywidualnymi preferencjami. Z reguły, użytkownicy mają setki preferencji dotyczących ubrań, o których często sami nie zdają sobie sprawy. Dzięki rekomendacjom serwisu Thread, użytkownicy otrzymują propozycje dopasowane do gusty, co prowadzi do ich wysokiego zadowolenia. Właściciele serwisu z pewnością mogą stwierdzić, że ich sztuczna inteligencja okazała się być doskonałym partnerem biznesowym. Co najważniejsze, użytkownicy czują się traktowani indywidualnie, co jest kluczowe w budowaniu relacji opartych na zaufaniu. Bliski kontakt z użytkownikami końcowymi, silny wpływ na ich zadowolenie, dostosowanie do indywidualnych potrzeb i spersonalizowane doradztwo to czynniki, które z pewnością przyczyniają się do budowania zaufania.
Przypadek 2
Steelcase, amerykański producent mebli biurowych, zdecydował się na wykorzystanie technologii opracowanej przez Nvidia do projektowania nowych produktów. Nvidia dostarczyła narzędzia do modelowania 3D, które pozwoliły na projektowanie nowych produktów w czasie rzeczywistym, z wykorzystaniem przeglądarki. Dzięki temu, Steelcase mógł dostosować swoją ofertę do potrzeb klientów, a także zapewnić wyższą jakość i szybszą dostawę produktów.
Przypadek 3
If you need to trust these AI models, they cannot be brittle. Meaning, adding small amounts of noise should not be able to throw off the decision making ~ Anima Anandkumar, California Institute of Technology
Pojazd autonomiczny Ubera potrącił kobietę ze skutkiem śmiertelnym podczas testów w Arizonie w 2018 roku. Testy przeprowadzano z osobą kierującą, która miała przejąć panowanie nad pojazdem w razie awarii systemu, ale w momencie uderzenia nie patrzyła na drogę. Jak się później okazało, pojazd wykrył poruszającą się kobietę, ale nie zareagował na czas. Wypadek ten wywołał wiele pytań dotyczących bezpieczeństwa pojazdów autonomicznych i systemów SI, co doprowadziło do wstrzymania eksperymentów pojazdów autonomicznych przez Ubera we wszystkich czterech miastach, w których testy te były przeprowadzane. W biznesie, wypadki takie jak ten mogą wpłynąć na postrzeganie systemów SI i pojazdów autonomicznych, co podkreśla konieczność ich wprowadzenia z należytą ostrożnością i starannością, aby zapobiec poważnym incydentom, które mogą mieć negatywny wpływ na wizerunek firmy i relacje z klientami, a w tym konkretnym przypadku nawet na ludzkie życie.
Przypadek 4
System rozpoznawania twarzy opracowany przez Google w 2015 roku został oskarżony o rasizm, gdy okazało się, że system niepoprawnie klasyfikował osoby czarnoskóre jako goryle. Incydent ten wywołał oburzenie w społeczności i naruszył zaufanie do systemów SI. Jednak Google szybko podjął odpowiednie kroki w celu naprawy błędu. Firma przeprosiła za zaistniałą sytuację i zdecydowała się na usunięcie klasy “goryl” z systemu. Wprowadzono również szereg nowych procedur testowania i weryfikacji, aby zapobiec podobnym błędom w przyszłości.
Przypadek 5
W 2018 roku Amazon wprowadził system rekrutacyjny oparty na SI, który miał pomóc w wyborze najlepszych kandydatów do pracy. Niestety, system ten okazał się podatny na faworyzowanie mężczyzn. Powodem zaistniałej dyskryminacji był fakt, że system wykorzystywał dane historyczne, które były zdominowane przez mężczyzn. Amazon wycofał się z wykorzystywania systemu po zlokalizowaniu zaistniałej sytuacji. Potwierdza to uprzednio sugerowaną tezę, że jakość danych jest kluczowym czynnikiem. Choć takie przypadki, znacznie wpływają na zachwianie zaufania, koniecznym jest jasna i otwarta komunikacja dla użytkowników. Dodatkowo, rozwiązania oparte na SI powinny więc podlegać ciągłemu monitoringowi nie tylko od strony technicznej, ale również w zakresie przypadków granicznych, celem kontroli poprawności przebiegu procesu biznesowego.
Przypadek 6
W 2016 roku firma Uber wprowadziła nowy system wyznaczania cen, który miał być bardziej sprawiedliwy i przejrzysty dla pasażerów. Niestety, system ten znacznie faworyzował bogatszych pasażerów , zwiększając ceny w okolicach biedniejszych dzielnic. Było to bardzo kontrowersyjne i doprowadziło do negatywnej reakcji ze strony społeczności. Brak zaufania użytkowników rodzi brak zaufania autorów do danego rozwiązania.
Przypadek 7
W 2014 roku, firma JP Morgan Chase zainwestowała 600 milionów dolarów w AI, aby pomóc w automatyzacji procesów handlowych. Jednak w 2018 roku system SI wprowadził błędne dane do systemu handlowego, co doprowadziło do nieprawidłowych transakcji na rynkach finansowych i oszacowanych strat na ponad 6 miliardów dolarów. System AI firmy JP Morgan Chase miał za zadanie analizować dane z rynków finansowych i generować zautomatyzowane rekomendacje handlowe. Błędy te wynikały z niewłaściwej jakości danych wejściowych, które nie zostały wystarczająco zweryfikowane przed użyciem. W wyniku tych błędów firma JP Morgan Chase nie tylko straciła ponad 6 miliardów dolarów, a jej reputacja została poważnie nadszarpnięta.
Przypadek 8
IBM Watson jest systemem sztucznej inteligencji stworzonym przez firmę IBM. Reuters, międzynarodowa agencja prasowa, zdecydowała się na wykorzystanie technologii IBM Watson do analizy danych i tworzenia treści. IBM Watson umożliwił Reutersowi szybsze i skuteczniejsze przetwarzanie dużej ilości danych finansowych, a także pomógł w generowaniu precyzyjnych raportów na temat rynków finansowych. Dzięki temu partnerstwu, Reuters zwiększył swoją konkurencyjność, a IBM Watson stał się cennym narzędziem dla firm szukających szybkiego i efektywnego przetwarzania danych.
Przypadek 9
Firma XPO Logistics i systemy automatyzacji: Firma XPO Logistics specjalizuje się w dostarczaniu rozwiązań logistycznych dla firm z różnych branż. Firma zdecydowała się na wykorzystanie systemów automatyzacji, takich jak roboty magazynowe i systemy sterowania transportem, aby zwiększyć swoją wydajność i skuteczność. Systemy te zostały zaprojektowane przez specjalistów w dziedzinie sztucznej inteligencji i automatyzacji, co pozwoliło na zwiększenie precyzji i szybkości procesów logistycznych. Dzięki temu, firma XPO Logistics mogła dostarczać swoje usługi szybciej i efektywniej, a także zapewnić wyższą jakość obsługi klienta. Przykład ten trafnie oddaje, że AI może stanowić wartościowego partnera biznesowego dla firm z różnych branż. Dzięki wykorzystaniu zaawansowanych technologii AI, firmy mogą zwiększyć swoją wydajność, osiągać lepsze wyniki finansowe i zaoferować wyższą jakość produktów i usług.
Przypadek 10
Amazon rozpoczął prace nad aplikacją w 2014 roku, która miała pomóc w ocenie ryzyka kredytowego dla klientów ubiegających się o kredyt. W ramach projektu wykorzystano algorytmy uczenia maszynowego, aby automatycznie przetwarzać informacje o kliencie, takie jak historia kredytowa, zatrudnienie, dochody i wykształcenie. Algorytmy miały na celu automatyczne ocenianie ryzyka kredytowego i wydawanie rekomendacji dotyczących udzielenia lub odmowy udzielenia kredytu. Jednakże w 2018 roku okazało się, że algorytmy wykorzystywane w aplikacji były nacechowane płcią. Według raportu opublikowanego przez agencję informacyjną Reuters, algorytmy faworyzowały mężczyzn w ocenie ryzyka kredytowego, co oznaczało, że kobiety miały mniejsze szanse na uzyskanie kredytu, nawet jeśli ich dane finansowe były znacznie lepsze niż mężczyzn. Powodem tego były dane wykorzystane do uczenia algorytmów, które były oparte na historii kredytowej klientów Amazona z poprzednich lat. Ponieważ większość tych klientów to byli mężczyźni, algorytmy skłaniały się do faworyzowania mężczyzn w ocenie ryzyka kredytowego. Po odkryciu tego błędu, Amazon wycofał aplikację i przeprowadził wewnętrzne dochodzenie w celu zbadania, jak do tego doszło. Firma stwierdziła, że algorytmy nie były zamierzone do faworyzowania mężczyzn i że nie było celowego dyskryminowania kobiet, ale ujawnienie takiego błędu spowodowało, że Amazon stracił zaufanie nie tylko klientów, ale i opinii publicznej, która zaczęła kwestionować bezpieczeństwo stosowania algorytmów sztucznej inteligencji w kontekście różnorodności i równości. Wobec tego, firmy powinny stosować odpowiednie narzędzia i algorytmy, które zapewnią sprawiedliwe i bezstronne podejście do przetwarzania danych, a także wdrażać odpowiednie procedury w celu minimalizowania ryzyka powstawania błędów i dyskryminacji.
Podsumowanie, a zatem czy pełne zaufanie do SI jest możliwym do osiągnięcia?
Niewątpliwe, kluczem do wydajnego działania algorytmów SI jest wysoka dbałość o proces pozyskiwania, przygotowywani i interpretowania danych. Im lepsza jakość danych, tym większy potencjał modeli w zakresie wydawania prawidłowych werdyktów. Niemniej, jak pokazują przypadki wiodących firm w branży IT, modele SI nie są wolne od błędów. Pełne zaufanie i brak kontroli nad werdyktami modeli, może doprowadzić do ogromnych strat finansowych oraz wizerunkowych. Każde niepowodzenie, powoduje spadek zaufania zarówno użytkowników jak i usługodawców. Wobec tego, SI może z pewnością być wartościowym i kluczowym partnerem biznesowym, co pokazuje obecny trend, jednakże wymaga ono odpowiedniego monitorowania i kontroli. Nieodpowiednie wykorzystanie technologi, brak transparentności i dezinformacja jest znaczącą przeszkodą na drodze budowania zaufania. Szerzenie wiedzy, wprowadzanie rozwiązań do życia codziennego, obalanie mitów i kontrola nad informacją celem weryfikacji fałszywych źródeł, przejrzystość w komunikacji między firmami a użytkownikami – to konieczne elementy klarownej relacji biznesowej. Z drugiej strony, zarówno fizyczny partner jak i wirtualny może okazać się nieodpowiednim. Może to sugerować, iż zaufanie do partnera nie jest zależne od jego typu. Partnerstwo biznesowe to przede wszystkim obustronna odpowiedzialność. Zaufanie zarówno w kontaktach prywatnych jak i biznesowych jest zazwyczaj bardzo długo budowane, a jednocześnie można bezpowrotnie je stracić, wykonując “niewłaściwy ruch”. Jeśli SI stosowane jest jako wirtualny partner w biznesie do realizacji skomplikowanych procesów, mających znaczący wpływ na wizerunek oraz finanse, konieczne jest zachowanie szczególnej ostrożności. Komunikacja między przedsiębiorcami a użytkownikami powinna być możliwie jak najbardziej otwarta i czytelna, choć zdaje się, że jednoznaczna recepta na sukces w zbudowaniu relacji zaufania nie jest w pełni zdefiniowana i zależy od indywidualnych przypadków. W miarę upływu czasu, rozwiązania SI będą coraz bardziej dojrzale i powszechne, dzięki temu odpowiednie postawy i zaufanie ze strony użytkowników będzie budowane w sposób coraz bardziej dynamiczny.
Literatura
- https://www.capgemini.com/be-en/service/perform-ai/trusted-ai-2/
- Building Relationships with Customer 4.0 in the Era of Marketing 4.0: The Case Study of Innovative Enterprises in Poland; Wioletta Wereda, Jacek Woźniak
- https://botland.com.pl/blog/ludzie-nie-ufaja-sztucznej-inteligencji-czas-pytan/#Powody-nieufnosci
- https://www.ibm.com/watson/advantage-reports/future-of-artificial-intelligence/building-trust-in-ai.html
- https://www.nytimes.com/2018/03/19/technology/uber-driverless-fatality.html
- https://mashable.com/article/google-ai-racist-sexist-bias
- https://www.forbes.com/sites/theyec/2022/05/18/can-you-trust-ai-to-help-navigate-todays-digital-business-landscape/?sh=3965becd395f
- https://www.forbes.com/sites/laurencebradford/2016/12/30/machine-learning-why-ai-should-be-your-next-business-partner/?sh=45adc78c3742
- https://fortune.com/2018/10/10/amazon-ai-recruitment-bias-women-sexist/
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…