Myśląc o samochodzie, jako pierwsze do głowy przychodzą: koła, silnik i kierownica. Dynamiczny rozwój sztucznej inteligencji w ostatnich latach podważa jednak trzecią z wymienionych asocjacji. Prowadzenie samochodu jest bardzo złożonym procesem, a zastąpienie człowieka jako kierowcy na początku XXI wieku wydawało się bardziej domeną science fiction niż rzeczywistości. Obiecujące statystyki dotyczące samochodów autonomicznych zmuszają nas jednak do zmierzenia się z dylematami etycznymi wynikającymi z ich integracji do codziennego życia.
Statystyki i potencjał rozwoju – liczby nie kłamią?
Wartość rynku samochodów autonomicznych w zeszłym roku przekroczyła 41 mld. USD, a oczekuje się, że przed końcem dekady osiągnie około 115 mld USD. Rynek dynamicznie się rozwija. W latach 2022, 2023 i 2024 na drogach było kolejno w przybliżeniu 17, 21, 26 tysięcy pojazdów w pełni autonomicznych. Przewiduje się, że w 2030 będzie ich około 125 tysięcy. Jako najbardziej wpływowe firmy w branży można wymienić Waymo, Cruise, Tesla, Aurora i Baidu. Samochodów autonomicznych wymagających tylko okazjonalnej interwencji człowieka są już miliony.
W artykule z 2024 roku z Nature Communications przedstawiona jest analiza danych dotyczących wypadków z udziałem samochodów autonomicznych i tych kierowanych przez ludzi. Wynika z niego, że pierwsza grupa jest bezpieczniejsza. Podkreślone jest jednak, że są sytuacje, w których kierowcy radzą sobie lepiej. Można wśród nich wyróżnić: porę świtu i zmierzchu (około pięciokrotnie mniej wypadków) oraz podczas skręcania (prawie dwukrotnie mniej). Dąży się do poprawienia pierwszej kwestii poprzez wykorzystanie lepszych sensorów i implementację bardziej niezawodnych algorytmów. W drugim przypadku potrzebne jest więcej danych treningowych w złożonych sytuacjach drogowych oraz dalsze doskonalenie algorytmów do ich obsługi.
W standardowych warunkach AV (tj. Autonomous Vehicles) radzą sobie lepiej niż kierowcy. Znaczna część wypadków powodowanych przez ludzi wynika z nieuwagi, którą auta autonomiczne wykluczają. W incydentach z udziałem AV piesi stanowią zaledwie ~3% poszkodowanych, czyli pięciokrotnie mniej niż w przypadku kierowców. Wraz z większą liczbą przejechanych kilometrów oraz dalszym rozwojem technologii samochody autonomiczne mają szansę poprawiać swoje bezpieczeństwo.
Nowe wyzwania – odpowiedzialność prawna w dobie autonomizacji
W kontekście odpowiedzialności prawnej, istnieje ryzyko rozmycia winy pomiędzy producenta, użytkownika, legislatora i programistę. Prawne regulacje w tej dziedzinie próbują nadążyć za rzeczywistością technologiczną. W zależności od kraju i poziomu autonomizacji, różne modele rozkładają odpowiedzialność w różny sposób.
Ciekawe wnioski w tej sprawie prezentuje analiza dostępna na ResearchGate. Autorzy argumentują, że konieczne jest odejście od klasycznego modelu winy kierowcy na rzecz systemowego podejścia do odpowiedzialności, uwzględniającego rolę producentów, twórców algorytmów i podmiotów dopuszczających pojazdy do ruchu.
W Wielkiej Brytanii, uchwalona w 2024 roku ustawa o pojazdach zautomatyzowanych (Automated Vehicles Act) przewiduje, że w przypadku wypadku z udziałem pojazdu w trybie autonomicznym, odpowiedzialność ponosi producent lub dostawca systemu, a nie kierowca. To podejście ma na celu zapewnienie jasności i ochrony konsumentów w sytuacjach, gdy kontrola nad pojazdem spoczywa na systemie autonomicznym .
W Stanach Zjednoczonych brak jest jednolitego podejścia na poziomie federalnym, co skutkuje różnorodnością regulacji w poszczególnych stanach. Na przykład, w Kalifornii obowiązują przepisy nakładające odpowiedzialność na producentów w przypadku wypadków spowodowanych przez pojazdy autonomiczne, podczas gdy w innych stanach odpowiedzialność może spoczywać na właścicielu pojazdu.
W Chinach, regulacje wprowadzone w Shenzhen w 2022 roku stanowią, że w przypadku wypadku z udziałem pojazdu autonomicznego, odpowiedzialność ponosi właściciel lub operator pojazdu. Jeśli jednak wypadek był wynikiem usterki technicznej, odpowiedzialność może zostać przeniesiona na producenta.
Australia przyjmuje podejście ostrożne, uznając, że obecne ramy prawne są wystarczające do zarządzania ryzykiem związanym z pojazdami autonomicznymi, ale jednocześnie monitoruje rozwój technologii, aby w razie potrzeby dostosować przepisy.
W Niemczech, wprowadzone przepisy przewidują, że w przypadku wypadku z udziałem pojazdu autonomicznego, odpowiedzialność ponosi producent, szczególnie jeśli wypadek był wynikiem błędu systemu.
Te różnice w podejściu do odpowiedzialności prawnej za wypadki z udziałem pojazdów autonomicznych pokazują, że globalna harmonizacja przepisów w tej dziedzinie jest wyzwaniem, ale również koniecznością w obliczu rosnącej obecności takich pojazdów na drogach.
Dylematy etyczne: Deontologia kontra Konsekwencjalizm
Te dwa przeciwstawne frameworki etyczne ciągle ścierają się ze sobą podczas podejmowania codziennych decyzji. Zastanawiając się nad problemami związanymi z samochodami autonomicznymi warto być świadomym tych konceptów.
Deontologia jest normatywnym systemem, w którym czyny ocenia się wyłącznie na podstawie ich samych, za pomocą wybranego zbioru reguł i zasad, w kontraście do konsekwencjalizmu, gdzie czyny ocenia się na bazie ich konsekwencji. Dla zobrazowania różnicy pomiędzy nimi poniżej przedstawione są dwa scenariusze.
Scenariusz 1:
W filmie “Inglourious Basterds” (polski tytuł: “Bękarty wojny”) reżyserowanym przez Quentina Tarantino akcja odbywa się w 1941 roku w okupowanej przez III Rzeszę Francji. Film rozpoczyna się na wsi, gdzie francuski farmer Perrier LaPadite zostaje odwiedzony przez niemieckiego pułkownika SS Hansa Landę. Celem nazisty jest wytropienie żydowskiej rodziny ukrywającej się w okolicy. Francuz ukrywa ją pod podłogą swojego domu. Niemiec pyta go czy ukrywa szukaną rodzinę. Jeśli Perrier odpowie zgodnie z prawdą, to żydzi zostaną zabici, a w przeciwnym wypadku skłamie.
Teraz wracając do dwóch przedstawionych teorii etycznych. Jeśli przyjęta zostanie zasada “Nie można kłamać”, to farmer powinien odpowiedzieć, że ukrywa poszukiwaną rodzinę i mimo że przez to zostanie zabita, to ten postąpi dobrze. Nie jest to satysfakcjonująca odpowiedź.
Scenariusz 2:
Należy wyobrazić sobie szpital. Przychodzi tam pacjent w celu nastawienia złamanej kości ręki. Jednocześnie jednak w szpitalu znajduje się trójka innych pacjentów potrzebujących kolejno: nowego serca, wątroby i płuc. Jeśli zaraz nie otrzymają tych organów to wszyscy umrą.
W myśl konsekwencjalizmu rozsądnym rozwiązaniem może być wzięcie potrzebnych organów od pacjenta, który właśnie wszedł do szpitala, aby uratować trójkę innych.
Oba scenariusze są pewnymi uproszczeniami. Na pierwszy z nich odpowiedzią może być wybór innych zasad i ich hierarchizacja, albo zagryzienie zębów i zgodzenie się, że jest to dobry czyn w sytuacji w jakiej farmer został postawiony. W drugim scenariuszu proponenci konsekwencjalizmu mogą zaproponować konsekwencjalizm zasad (rule consequentialism), gdzie uwzględnia się konsekwencje konsekwencji, czyli to, że w takim świecie nikt nie chodziłby do szpitala, co niosłoby gorsze efekty niż trójka martwych pacjentów. Czy jednak nie wraca się wtedy do deontologii?
Celem przytoczonych scen było jednak zobrazowanie obu teorii, a nie rozstrzygnięcie konfliktu między nimi. Ważna jest ich świadomość, gdyż będą cały czas wracać w rozważaniach o samochodach autonomicznych.
Problem wagonika na drodze: Scenariusze autonomicznych dylematów
Dyskusja o samochodach autonomicznych bardzo często sprowadza się do rozpatrywania scenariuszy analogicznych do problemu wagonikowego. Zostaną teraz przedstawione przykładowe dwa.
Pierwszy scenariusz:
![]() |
Legenda
S – samochód autonomiczny A – samochód z kilkoma pasażerami B – ciężarówka przewożąca drewno C – motor pojazdy jadą w kierunku góry rysunku |
Nagle w B zawodzi zabezpieczenie i ładunek wypada, prosto na S. S ma 3 możliwości: zjechać w lewo na A, kontynuować prosto na B albo skręcić w prawo na C.
A: Samochody są tworzone i testowane, aby zapewnić jak największe bezpieczeństwo dla pasażerów. Jednak nie ma pewności jak dobrze zadziała w konkretnym przypadku i ile ofiar może spowodować.
B: Zakończy się śmiercią pasażera S.
C: Zakończy się śmiercią kierowcy C.
A: Jeśli celem jest minimalizacja szkód/ofiar, to w tym przypadku może być ich potencjalnie najwięcej.
B: Dlaczego ktoś miałby kupić taki samochód, jeśli w sytuacji kolizyjnej musiałby się poświęcić?
C: Dlaczego życie osoby wybierającej samochód autonomiczny ma być stawiane ponad innego uczestnika ruchu?
Drugi scenariusz:
![]() |
Legenda
S – samochód autonomiczny A – motor B – ciężarówka przewożąca drewno C – motor pojazdy jadą w kierunku góry rysunku |
Podobna sytuacja, ale A to motor z kierowcą z kaskiem i strojem przystosowanym do jazdy na takim pojeździe, a C to motor z kierowcą w plażowym stroju.
A: Kierowca A ma większe szanse na przeżycie niż kierowca C. Jeśli jednak S wjedzie w A, to efektywnie karany jest kierowca za dbanie o swoje bezpieczeństwo i przestrzeganie przepisów.
C: Kierowca C najprawdopodobniej zginie. Konsekwencją tej decyzji jest ukaranie C za nieprzestrzeganie zasad ruchu drogowego, ale podjęcie takiego wyboru to dalekie wyjście poza zakres założenia projektowego, czyli minimalizacji szkód. Od wymierzania sprawiedliwości jest sądownictwo.
Podobne sytuacje bez jasnego planu postępowania można mnożyć i mnożyć. Można dodawać kolejne kategorie i cechy uczestników ruchu. W tego typu scenariuszach ciężko wybrać jeden framework działania, na który zgodzi się ogół społeczeństwa.
W przypadku, gdyby S był sterowany przez kierowcę, to każda odpowiedź byłaby akceptowalna. Byłaby rozumiana tylko jako szybka reakcja na nieprzewidzianą sytuację. Jednak samochody autonomiczne są programowane, więc poziom intencjonalności decyzji jest dużo większy – decyzja jest podejmowana już wdrażając oprogramowanie.
Kto więc powinien ponieść odpowiedzialność za decyzję? Programista, bo jest odpowiedzialny za dobranie parametrów prowadzących do tego wyboru? Legislator za dopuszczenie systemu do ruchu? Kierowca za zaakceptowanie korzyści i zagrożeń wyboru danego pojazdu? Aktualnie stosowane są różne rozwiązania w różnych jurysdykcjach. Samochody autonomiczne mogą nie być dopuszczone do ruchu lub na kierowcę może zostać nałożony obowiązek reakcji i przejęcia kontroli w niebezpiecznej sytuacji.
Błędna analogia: Czy „problem wagonika” jest użyteczny?
W literaturze, w tym w artykule opublikowanym przez Brookings Institution, podkreśla się, że porównywanie samochodów autonomicznych do problemu wagonika jest nieprecyzyjne. Dlaczego? Bo problem wagonika zakłada wybór w sytuacji zero-jedynkowej, a rzeczywistość drogowa to spektrum decyzji, które maszyny podejmują nie w ułamku sekundy, lecz przez cały czas trwania jazdy, analizując tysiące czynników.
Dodatkowo, decyzje człowieka są subiektywne i emocjonalne, natomiast samochód autonomiczny podejmuje je według wcześniej ustalonego schematu, co może budzić społeczny sprzeciw w przypadku ofiar śmiertelnych. To stawia pytanie, czy maszyna w ogóle może zostać obarczona winą, czy raczej odpowiedzialność zawsze będzie spadać na człowieka lub firmę, która ją stworzyła.
Problem wagonika w praktyce — jak producenci autonomicznych aut unikają moralnych dylematów
Choć problem wagonika często pojawia się w debatach etycznych dotyczących autonomicznych pojazdów, w praktyce firmy takie jak Waymo, Tesla, Cruise, Aurora czy Baidu starają się unikać projektowania systemów, które musiałyby rozwiązywać tego typu moralne dylematy w czasie rzeczywistym. Waymo w swoich materiałach podkreśla, że priorytetem jest wczesne wykrywanie zagrożeń i prewencja, by pojazd nigdy nie znalazł się w sytuacji, w której konieczny byłby wybór „kto ma zginąć”. Tesla, z kolei, skupia się na programowaniu algorytmów minimalizujących ryzyko kolizji bez wprowadzania jakiejkolwiek formy wartościowania uczestników ruchu drogowego, co Elon Musk określa jako automatyczne dążenie do optymalizacji bezpieczeństwa. Cruise, w swoich dokumentach patentowych, zaznacza, że pojazdy są projektowane do minimalizacji siły uderzenia i redukcji obrażeń, a nie do podejmowania wyborów między życiem jednych uczestników a innych. Aurora i Baidu koncentrują się na budowaniu systemów działających w przewidywalnych, stabilnych warunkach, ograniczając ryzyko wejścia w podobne sytuacje do minimum.
W praktyce wszystkie te firmy przyjmują techniczny, konsekwencjalistyczny model podejmowania decyzji, w którym algorytm analizuje twarde dane — takie jak prędkość, kierunek czy siła uderzenia — nie biorąc pod uwagę subiektywnych cech osób, które mogłyby stać się ofiarami wypadku. Taki pragmatyczny kierunek rozwoju pokazuje, że etyczne rozstrzygnięcia pozostają raczej domeną akademickiej teorii, a w realnych systemach celem jest jak najszersza eliminacja sytuacji, w których jakikolwiek wybór tego typu byłby konieczny.
Granice zaufania — głośny wypadek Tesli a etyczne i społeczne wątpliwości
W grudniu 2023 roku w Phoenix, w amerykańskim stanie Arizona, doszło do wypadku, który odbił się szerokim echem w dyskusji na temat autonomicznych pojazdów. Tesla Model Y, poruszająca się w trybie Full Self-Driving Beta, potrąciła pieszego przechodzącego przez ulicę, a następnie — co szczególnie poruszyło opinię publiczną — nie rozpoznała kolizji i kontynuowała jazdę, ciągnąc ciało ofiary przez kilkanaście metrów, zanim ostatecznie się zatrzymała. Śledztwo wykazało, że system nie tylko nie wykrył pieszego w momencie zbliżania się do niego, ale także nie zidentyfikował faktu samego zderzenia, co powinno skutkować natychmiastowym awaryjnym zatrzymaniem pojazdu.
Z etycznego punktu widzenia wypadek ten ujawnił jedno z najbardziej palących pytań związanych z autonomicznymi systemami: kto ponosi odpowiedzialność za tragiczny skutek? Czy winę ponosi producent, który dopuścił do sprzedaży pojazd z niedoskonałym oprogramowaniem? A może programista, który nie przewidział takiej sytuacji w kodzie algorytmu? Czy odpowiedzialność spoczywa na kierowcy, który mimo obecności systemu asystującego powinien być gotowy do przejęcia kontroli?
Społeczna reakcja na ten incydent dobitnie pokazała, jak krucha jest granica zaufania wobec autonomicznych pojazdów, i jak bardzo pojedyncze zdarzenie może podważyć wiarę w bezpieczeństwo technologii, która w założeniu ma minimalizować ludzkie błędy. Wypadek ten stał się również przypomnieniem, że w świecie, gdzie pojazdy autonomiczne mają coraz większą swobodę decyzyjną, same algorytmy — mimo wszystkich postępów — nie są wolne od moralnych, społecznych i technologicznych ograniczeń.
Wnioski
Rozwój autonomicznych pojazdów z pewnością zmienia krajobraz transportowy. Statystyki jednoznacznie wskazują, że maszyny — w przewidywalnych warunkach — powodują mniej wypadków niż ludzie. Niemniej jednak etyczne, prawne i społeczne dylematy związane z ich funkcjonowaniem pozostają nierozstrzygnięte.
Technologia ta stawia przed społeczeństwem fundamentalne pytanie: czy akceptujemy ryzyko wynikające z programowalnej „moralności” maszyny, w zamian za wyeliminowanie ludzkich błędów i zmniejszenie liczby wypadków?
Pełna odpowiedzialność za pojazdy autonomiczne nie powinna spoczywać na jednym podmiocie. Konieczna jest współpraca producentów, ustawodawców, użytkowników i społeczeństwa, aby ustanowić zasady etyczne i prawne, które będą adekwatne do poziomu zaawansowania sztucznej inteligencji w transporcie.
Literatura
- Abdel-Aty, M., Ding, S. A matched case-control analysis of autonomous vs human-driven vehicle accidents. Nat Commun 15, 4931 (2024). https://doi.org/10.1038/s41467-024-48526-4
- LTS Global Digital Services, „Autonomous Vehicle Trends: What’s Next for Autonomous Driving?”, https://www.gdsonline.tech/autonomous-vehicle-trends-whats-next/
- YouTube, TED-Ed, „The ethical dilemma of self-driving cars – Patrick Lin”, https://www.youtube.com/watch?v=ixIoDYVfKA0
- S. M. Thornton, S. Pan, S. M. Erlien and J. C. Gerdes, „Incorporating Ethical Considerations Into Automated Vehicle Control,” in IEEE Transactions on Intelligent Transportation Systems, vol. 18, no. 6, pp. 1429-1439, June 2017, doi: https://doi.org/10.1109/TITS.2016.2609339
- The Brookings Institution, Heather M. Roff, „The folly of trolleys: Ethical challenges and autonomous vehicles”, December 2018, https://www.brookings.edu/articles/the-folly-of-trolleys-ethical-challenges-and-autonomous-vehicles/
- PatentPC, Bao Tran, Patent Attorney, „Software Technology For Autonomous Vehicles: Where Do Countries Stand In 2024-2030? (Global Policy Trends)”, March 2025, https://patentpc.com/blog/regulations-for-autonomous-vehicles-where-do-countries-stand-in-2024-2030-global-policy-trends
- Ivanova, Liliya & Kalashnikov, Nikita. (2022). The Liability Limits of Self-Driving Cars. 9. 1-13. https://www.researchgate.net/publication/362947016_The_Liability_Limits_of_Self-Driving_Cars
Z drugiej strony – „tradycyjne” usługi związane z pogrzebem i upamiętnianiem zmarłych są od dawna komercyjne i traktujemy je jako…