
Przypadek Albanii, która jako pierwszy kraj na świecie powierzyła stanowisko rządowe systemowi AI, otwiera nowy rozdział w historii polityki i prawa. Diella – wirtualna „ministra” ds. zamówień publicznych – ma zwalczać korupcję i przyspieszać procedury, ale jednocześnie rodzi fundamentalne pytania o transparentność, suwerenność cyfrową oraz granice odpowiedzialności człowieka i maszyny. Albania staje się więc laboratorium przyszłości, w którym ścierają się ambicje technologiczne, ryzyka polityczne i nierozwiązane dylematy prawne.
Gdy AI zostaje ministrem. Albania jako laboratorium politycznej przyszłości.
Diella to system sztucznej inteligencji, którego nazwa w języku albańskim oznacza „promień słońca” (Zmuda, 2025). Została opracowana przez Narodową Agencję ds. Społeczeństwa Informacyjnego Albanii (AKSHI) i wprowadzona w styczniu 2025 roku jako wirtualny asystent zintegrowany z platformą e-Albania – rządowym serwisem do obsługi usług publicznych online, pełniącym w Albanii funkcję podobną do polskiej aplikacji mObywatel, Na początku jej głównym zadaniem było pomaganie obywatelom w korzystaniu z e-usług administracyjnych, odpowiadanie na zapytania oraz wydawanie cyfrowych dokumentów. W ciągu kilku miesięcy Diella obsłużyła ponad milion zapytań, stając się nieodłączną częścią procesu cyfryzacji albańskiej administracji.
We wrześniu 2025 roku nastąpił jednak przełom. Po dekrecie prezydenckim, który upoważnił premiera Ediego Ramę do nadzorowania utworzenia wirtualnego ministra, Diella została formalnie mianowana „ministrem ds. zamówień publicznych” (Jones, 2025). Tym samym Albania stała się pierwszym krajem na świecie, który powierzył funkcję rządową systemowi sztucznej inteligencji na szczeblu gabinetowym.
Choć rząd nie potwierdził oficjalnie szczegółów technicznych, eksperci sugerują, że Diella opiera się na technologii amerykańskiej firmy OpenAI i działa w chmurze Microsoft Azure (Jones, 2025). Premier Rama od dawna utrzymuje bliskie kontakty z albańsko-amerykańską specjalistką ds. technologii, Mirą Murati – byłą dyrektor generalną OpenAI, a obecnie szefową Thinking Machines Lab. Niektórzy komentatorzy twierdzą, że jej rola mogła mieć wpływ na rozwój projektu, który łączy innowacyjność z ambicjami geopolitycznymi Albanii.
Głównym zadaniem Dielli, jako ministry ds. zamówień publicznych, jest nadzorowanie procesów przetargowych i ocena ofert w sposób niezależny oraz wolny od wpływów politycznych (Zmuda, 2025). Premier Rama zapowiedział, że proces podejmowania decyzji dotyczących przyznawania zamówień publicznych będzie stopniowo przekazywany systemowi sztucznej inteligencji. Diella ma odpowiadać za analizowanie danych w czasie rzeczywistym, weryfikować zgodność ofert z kryteriami przetargowymi i wydawać rekomendacje, które według założeń rządu mają być pozbawione ludzkich błędów jak i stronniczości.
Głównym celem wprowadzenia AI ministra jest oczywiście walka z korupcją – problemem, który od lat dotyka albańską politykę i administrację (link1). Albania jest uznawana za jeden z najbardziej skorumpowanych krajów w Europie. Premier Rama wierzy, że powierzenie kluczowych decyzji maszynie, która nie ulega naciskom ani emocjom, może być pierwszym realnym krokiem w stronę oczyszczenia systemu i – w dalszej perspektywie – całkowitej likwidacji korupcji.
Jednak motywacje stojące za tym projektem nie kończą się na walce z korupcją. Wdrożenie Dielli to część szerzej zakrojonej strategii cyfryzacji Albanii i jej transformacji technologicznej. Nie można też pominąć kontekstu międzynarodowego. Albania od lat stara się o członkostwo w Unii Europejskiej i chce pokazać się jako kraj nowoczesny, otwarty na innowacje i zdolny do przełamania stereotypów dotyczących Bałkanów (Jones, 2025). Premier Rama zdaje się traktować projekt Diella jako element budowania wizerunku Albanii – nie tylko jako kandydata do UE, ale także lidera w dziedzinie etycznego i przejrzystego wykorzystania technologii.
Idąc tym tokiem rozumowania, można zauważyć, że wprowadzenie AI ministra może przynieść także wymierne korzyści ekonomiczne. W przeciwieństwie do tradycyjnych urzędników, Diella nie pobiera wynagrodzenia, nie potrzebuje urlopu ani zaplecza administracyjnego. Dzięki temu państwo może znacząco zmniejszyć koszty funkcjonowania niektórych procesów. Z kolei automatyzacja i cyfryzacja procedur pozwalają na szybsze wydawanie decyzji i mniejszą liczbę błędów.
Mimo że Albania jest pierwszym państwem, które formalnie nadało AI rangę ministra, nie jest jedynym krajem eksperymentującym z wykorzystaniem sztucznej inteligencji w administracji publicznej (Zmuda, 2025). W Estonii funkcjonuje system KrattAI, który wspiera urzędników w analizie danych i automatyzowaniu procesów decyzyjnych. W Wielkiej Brytanii i USA algorytmy AI są używane do analiz ryzyka w zamówieniach publicznych, choć bez nadawania im osobowości politycznej. Japonia i Korea Południowa z kolei rozwijają programy cyfrowych asystentów obsługujących obywateli. Jednak to właśnie Albania przekroczyła symboliczną granicę – jako pierwsza pozwoliła maszynie zasiąść przy rządowym stole. Ale choć idea bezbłędnej i sprawiedliwej administracji brzmi obiecująco, rzeczywistość wdrażania takiego systemu może okazać się znacznie bardziej skomplikowana.
Granice transparentności AI-ministry
Kiedy Diella przemawia z ekranu, trudno nie odnieść wrażenia, że mamy do czynienia z nową formą politycznej obecności. Ale za jej głosem – modulowanym i uprzejmym – kryje się coś znacznie bardziej nieprzejrzystego niż jakikolwiek gabinet rządowy. Pytanie brzmi: czy ktokolwiek naprawdę wie, jak działa wirtualna ministra Albanii?
Niestety do wiadomości publicznej nie podaje się wyjaśnień, w jaki sposób Diella podejmuje decyzje. Zamiast tego eksperci spieszą z zapewnieniami, że działa w sposób niezależny i bezstronny. Według informacji medialnych system bazuje na technologii opracowanej przez firmę OpenAI i działa w chmurze Microsoft Azure. Brak jednak informacji, na jakich danych został wytrenowany, ani kto odpowiada za modyfikację jego algorytmów.
Rząd Albanii uspokaja obawy związane z nadmierną autonomią Dielli, zapewniając, że jej decyzje wciąż nadzoruje człowiek. Ideą jest powiązanie rozwiązań AI z nadzorem człowieka, co określa się jako human-in-the-loop (HITL) (Bômont, Zorić, 2025). W takim układzie system analizuje problem, dobiera rozwiązania i przedstawia swoją decyzję człowiekowi, którego zadaniem jest własna ocena poprawności oraz zatwierdzenie lub modyfikacja decyzji. Rodzi się jednak pytanie, czy paradygmat HITL jest rzetelnie stosowany w każdej rozpatrywanej sprawie. Mówi się, że w ciągu kilku miesięcy Diella obsłużyła już ponad milion zapytań. Pozostaje pytanie, czy człowiek nadąży z nadzorem decyzji wydawanych przez tak sprawnie działającą maszynę. Rozwiązanie stanowi stosowanie paradygmatu HITL w sprawach, których nie da się zautomatyzować, a więc które wymagają od systemu umiejętności rozumowania. Z kolei z punktu widzenia społeczeństwa niezwykle przydatne może okazać się podawanie informacji, czy wniosek obywatela został rozpatrzony przez Diellę niezależnie czy decyzja podlegała nadzorowi człowieka.
Następny problem stanowi wytłumaczalność sztucznej inteligencji (AI explainability). Jest to szeroki problem, który dotyka samego sedna pracy technologii SI. Współczesne duże modele językowe są tak zaawansowane, zawierają tak wiele parametrów, że sami ich twórcy przestają rozumieć, jak one działają (Korbak, 2025). Problem wytłumaczalności obecny jest również w przypadku AI-ministry. Aby faktycznie był to zaufany system, który pełni oficjalne stanowisko, powinien przynajmniej być transparenty w swoim działaniu. AI ministra powinna dostarczać weryfikowalny ślad swojego działania, dzięki któremu będzie można sprawdzić, jakie dane i kryteria wykorzystała do podjęcia decyzji. Kluczowe zdaje się wytłumaczenie wewnętrznego funkcjonowania takiego systemu. Diella niestety nie spełnia tych standardów, pozostając w ten sposób “czarną skrzynką” (Curraj, 2025). Zdaje się to paradoksalne, że system stworzony po to, by zwiększyć przejrzystość, sam działa w sposób nieprzejrzysty. Albania chciała uczynić technologię gwarantem uczciwości, tymczasem może się okazać, że stworzyła cyfrową mgłę, w której jeszcze trudniej będzie rozliczyć władzę z błędów.
W Albanii rządzi… USA?
Kiedy Albania ogłosiła powołanie Dielli na stanowisko ministra, świat zareagował z podziwem, ale i niepokojem. Z jednej strony – to dowód odwagi i innowacyjności małego kraju Bałkanów. Z drugiej – pytanie, czy rzeczywiście rząd w Tiranie wziął w swoje ręce przyszłość technologiczną państwa, czy raczej oddał ją w ręce amerykańskich gigantów technologicznych.
Z doniesień wynika, że Diella opiera się na modelach stworzonych przez amerykańską firmę OpenAI i funkcjonuje w infrastrukturze chmurowej Microsoft Azure. To oznacza, że mózg tego „wirtualnego ministra” nie znajduje się w Tiranie, lecz w amerykańskich centrach danych rozsianych po świecie. W praktyce więc, decyzje podejmowane przez Diellę – choć dotyczą albańskich przetargów i interesów narodowych – przechodzą przez amerykańskie serwery. Choć Albania dąży do unowocześnienia działania państwa oraz do dołączenia do UE, wprowadzenie ministra opartego na amerykańskich modelach AI można odczytać jako symboliczny gest – Albanii bliżej dziś technologicznie do Doliny Krzemowej niż do Brukseli.
Tego typu sytuacja może być zagrożeniem dla suwerenności cyfrowej. Eksperci z Unii Europejskiej ostrzegają przed nadmierną zależnością od podmiotów spoza kontynentu. W kontekście amerykańskiej ustawy CLOUD Act, która pozwala tamtejszym władzom na dostęp do danych przechowywanych przez firmy z USA – nawet jeśli znajdują się one fizycznie poza jej granicami – trudno nie dostrzec potencjalnego ryzyka. Minister oparty na takiej technologii mógłby stać się, choćby pośrednio, kanałem przepływu wrażliwych informacji (Jones, 2025).
Oczywiście można argumentować, że to po prostu cena za dostęp do najlepszych narzędzi. W końcu amerykańskie firmy dominują, oferując swój zamknięty ekosystem na światową skalę (zob. treść poniżej) – od infrastruktury obliczeniowej (np. procesory graficzne od NVIDIA) po modele językowe (modele z rodziny GPT od OpenAI). Ale gdy mówimy o sztucznej inteligencji działającej w strukturach państwa, a nawet przemawiającej w jego imieniu, zależność od zagranicznych rozwiązań zaczyna być nie tylko technologicznym kompromisem, lecz politycznym ryzykiem.
Czy można to rozwiązać? Teoretycznie tak – poprzez rozwijanie lokalnych modeli AI, trenowanych na własnych danych i utrzymywanych w krajowych centrach danych. W praktyce jednak mniejsze kraje, takie jak Albania, nie mają zasobów (infrastruktura, sprzęt) ani odpowiedniej kadry czy zespołów badawczych, by samodzielnie zbudować tak zaawansowane systemy. Dlatego też doniesienia o oparciu Dielli na technologiach od OpenAI i Microsoft Azure, choć niepotwierdzone, są wielce prawdopodobne, gdyż Albania nie posiada wystarczająco solidnych i rozwiniętych modeli językowych, którym można byłoby powierzyć autonomiczne stanowisko w rządzie. To prowadzi do błędnego koła: żeby rozwinąć technologicznie państwo, trzeba najpierw zależeć od cudzej technologii.
Podmiotowość prawna a sztuczna inteligencja
Podmiotowość prawna to zdolność do bycia podmiotem praw i obowiązków w świetle prawa (Rębisz, 2024). W przypadku człowieka jest ona nabywana z chwilą urodzenia, a jej konsekwencją jest możliwość ponoszenia odpowiedzialności prawnej za swoje czyny oraz uczestniczenia w obrocie prawnym – np. zawierania umów, dziedziczenia czy sprawowania funkcji publicznych. Oznacza to, że tylko ten, kto posiada podmiotowość prawną, może działać w ramach systemu prawnego jako pełnoprawny uczestnik relacji społecznych i prawnych.
W kontekście sztucznej inteligencji kwestia podmiotowości prawnej stanowi przedmiot intensywnej debaty w świetle obserwowanego rozwoju technologicznego (Rębisz, 2024). Jak zauważa mgr Karol Rębisz w rozprawie „Podmiotowość prawna sztucznej inteligencji. Aspekty cywilnoprawne”, pojawiają się propozycje nadania AI tzw. podmiotowości elektronicznej – nowej formy osobowości prawnej, analogicznej do tej, jaką posiadają osoby prawne (np. spółki). Osoba elektroniczna miałaby więc charakter zbliżony do spółki kapitałowej. Przyznanie takiej podmiotowości nie oznaczałoby pełnego zrównania systemów AI z ludźmi czy osobami prawnymi, lecz miałoby charakter pragmatyczny. Celem byłoby przede wszystkim uproszczenie kwestii odpowiedzialności cywilnoprawnej i naprawienia szkód wyrządzonych przez działanie AI, a także możliwość przypisania systemowi konkretnych praw i obowiązków. W praktyce pozwoliłoby to m.in. na identyfikację AI jako autora utworu lub twórcy wynalazku, a także jako podmiotu składającego oświadczenie woli. Rębisz proponuje, by zakres podmiotowości elektronicznej był elastyczny i dostosowywany do funkcji danego systemu. Kluczowe jest również to, że przyznanie podmiotowości miałoby charakter ograniczony (punktowy), gdyż – jak podkreśla autor – nie chodzi o pełną zdolność prawną, ale o przyznanie jej w wybranych sferach, czyli tam, gdzie wymaga tego praktyka obrotu lub potrzeba zapewnienia bezpieczeństwa prawnego. Wpisanie systemu AI do rejestru osób elektronicznych stanowiłoby formalny moment nabycia zdolności prawnej, podobnie jak w przypadku osób prawnych.
Jednak na jakiej podstawie człowiek mógłby przyznać sztucznemu systemowi podmiotowość prawną (Rębisz, 2024)? Zwolennicy koncepcji podmiotowości elektronicznej wskazują, że zaawansowane systemy SI wykazują cechy pozwalające rozważać ich samodzielność: potrafią uczyć się, podejmować decyzje w oparciu o dostępne dane, a w przyszłości – w przypadku tzw. silnej SI – mogą nawet rozwinąć świadomość własnego działania. Te cechy dają podstawę do nadania praw i obowiązków systemom AI.
Jednak w obecnym stanie prawnym sztuczna inteligencja nie posiada podmiotowości prawnej. Oznacza to, że nie może ponosić odpowiedzialności za swoje decyzje, nie ma zdolności do czynności prawnych ani praw obywatelskich. Każda decyzja podjęta przez AI – nawet najbardziej autonomiczna – ostatecznie obciąża jej twórców, operatorów lub podmioty nadzorujące jej działanie.
Na tym tle przypadek albańskiej „minister AI” Dielli budzi poważne wątpliwości. Choć Diella formalnie pełni funkcję ministerialną i ma wpływ na decyzje administracyjne, nie jest obywatelem, nie posiada świadomości, ani – tym bardziej – podmiotowości prawnej. W praktyce więc posiada głos w procesach decyzyjnych bez ponoszenia jakiejkolwiek odpowiedzialności za ich skutki. Co więcej, można wręcz powiedzieć, że wyraża swój głos nie mając de facto prawa głosu. To prowadzi do pytania, które coraz częściej pojawia się w dyskusjach o przyszłości sztucznej inteligencji: kto ponosi odpowiedzialność za złe decyzje sztucznej inteligencji?
Kto ponosi konsekwencje za błędne działanie AI?
Gdyby koncepcja elektronicznej podmiotowości weszła w życie, konsekwencje błędnych działań ponosiłby sam system AI. Jednak co by to właściwie oznaczało w praktyce? Gdyby uznać, że system AI sam ponosi konsekwencje swoich działań, musielibyśmy przyjąć, że można go ukarać. Tylko jak? Przecież kara ma sens jedynie wtedy, gdy podmiot rozumie, że zrobił coś złego. Wydaje się więc, że odpowiedź na to pytanie tkwi w głębszych rozważaniach nad świadomością tych systemów. Otóż system AI można by ukarać tylko wtedy, gdyby był świadomy tego, co jest dla niego złe, a co dobre. Nie chodzi tu o wbudowany system wartości. Chodzi o to, by system sam z siebie dążył do osiągnięcia dobra i unikał doświadczania zła. Zdaje się więc, że taki wewnętrzny system moralny odnosiłby się do aspektów fenomenologicznych doświadczenia systemu AI – system czułby, że coś jest dla niego dobre bądź złe. Gdyby algorytm AI faktycznie posiadał taki system wartościowania, mógłby odczuwać kary, a zatem można by obciążać go odpowiedzialnością za swoje działania.
Rzeczywistość na dzień dzisiejszy wygląda jednak inaczej. Wiele wskazuje na to, że systemy AI nie posiadają doświadczeń fenomenalnych, a więc nie czują, co jest dobre, a co złe (chodzi tu ponownie o wewnętrzne wartościowanie – nie o karanie modelu matematycznym mechanizmem w celu jego trenowania). Te rozważania doprowadzają do wniosku, że nie ma sensu karać AI za błędy, dopóki nie osiągnie świadomości.
Dlatego przy obecnym poziomie rozwoju technologii pomysł wprowadzenia „osoby elektronicznej” byłby czysto symboliczny. Nawet gdyby sztuczna inteligencja otrzymała status prawny, realne konsekwencje i tak ponosiłby człowiek. Jak podkreśla Karol Rębisz, ewentualna „osoba elektroniczna” musiałaby być objęta obowiązkowym ubezpieczeniem odpowiedzialności cywilnej, co oznacza, że kary finansowe wciąż spadałyby na instytucję, która nią zarządza, a nie na sam system.
W praktyce więc – niezależnie od futurystycznych koncepcji – odpowiedzialność wciąż pozostaje po stronie ludzi. Tu pojawia się kluczowe pytanie: kto dokładnie będzie ponosić odpowiedzialność za błędne poczynania systemu AI, skoro – jak uargumentowano powyżej – nie może być to samo AI? Czy za konsekwencje powinien odpowiadać twórca, osoba nadzorująca czy może instytucja, w której wdrożono rozwiązania AI?
Zdaje się, że odpowiedź na to pytanie brzmi: to zależy. Odpowiedź będzie uwarunkowana przez konkretny przypadek – na jakim etapie i w wyniku czyjego błędu system podjął złą decyzję. Przeanalizujmy więc kilka prawdopodobnych scenariuszy:
- Błąd po stronie twórców systemu
Wyobraźmy sobie algorytm rekrutacyjny, który pięciokrotnie częściej wybiera mężczyzn niż kobiety na stanowiska kierownicze – mimo że część kandydatek ma wyższe kwalifikacje (Hitron i in., 2023). Taka sytuacja nie wynika ze „złej woli” AI, lecz z wadliwych danych treningowych. Model został nauczony na danych odzwierciedlających dawne schematy społeczne, w których to mężczyźni częściej awansowali i zarabiali więcej. Model AI bazując na otrzymanych danych będzie optymalizował swoje odpowiedzi i w konsekwencji będzie wybierał mężczyzn jako bardziej pożądanych pracowników.
W takim przypadku winę za złe decyzje systemu AI powinni ponieść twórcy systemu, którzy nie dopilnowali, by dane były reprezentatywne i wolne od uprzedzeń.
W praktyce jednak udowodnienie, że dane treningowe były niereprezentatywne, graniczy z niemożliwym, ponieważ modele sztucznej inteligencji dostarczane przez globalnych gigantów uczą się na ogromnych zbiorach informacji, do których zewnętrzni użytkownicy – tacy jak rząd Albanii – zwykle nie mają żadnego wglądu. - Błąd w decyzjach politycznych
A co jeśli błąd popełni AI minister – na przykład podejmie nietrafioną decyzję w sprawie wielomilionowego przetargu lub inwestycji, która wpłynie na szerokie grono osób? Wtedy odpowiedzialność powinna spaść na organ państwowy, w którego imieniu AI działa. To rząd lub konkretne ministerstwo powierzyło maszynie tak istotne decyzje, wiedząc, że technologia nie jest w pełni przewidywalna. Odpowiedzialność w tym wypadku wynika więc z zaniedbania nadzoru i zbyt dużego zaufania wobec algorytmu. Rząd, decydując się na rozwiązania z wykorzystaniem SI powinien liczyć się z możliwymi konsekwencjami, za które sam będzie odpowiadać. - Błąd z braku nadzoru człowieka
Inna sytuacja pojawia się wtedy, gdy system działa w modelu human in the loop – a więc jego decyzje mają być zatwierdzane przez człowieka. Jeśli urzędnik lub nadzorca przymknie oko na błędny wynik i pozwoli mu przejść dalej, to właśnie on powinien ponieść konsekwencje. W końcu to on był ostatnim ogniwem kontroli, które miało zapobiec pomyłce.
Jak można zauważyć na powyższych przykładach, odpowiedź na pytanie, kto ponosi odpowiedzialność za działania AI zależy od etapu, na którym wystąpił błąd – czy problem tkwił w danych treningowych, powierzeniu zbyt poważnych decyzji w ręce AI czy może zaniedbaniu zatwierdzenia decyzji AI. Oczywiście nie są to przypadki rozłączne i może się zdarzyć, że wszystkie trzy grupy osób zawiniły.
Podsumowanie
Analiza przypadku albańskiej AI-ministry prowadzi do wniosku, że Diella pełni dziś przede wszystkim funkcję symboliczną, a nie realnie decyzyjną. Jej zadaniem jest raczej reprezentowanie idei przejrzystości, nowoczesności i walki z korupcją niż rzeczywiste sprawowanie władzy. W praktyce to ludzie – programiści, urzędnicy i politycy – wciąż stoją za każdą jej decyzją, a odpowiedzialność za ewentualne błędy pozostaje po ich stronie.
Najrozsądniejszym kierunkiem wydaje się więc ograniczenie roli AI ministrów do zadań technicznych i administracyjnych, które można łatwo zautomatyzować i które nie niosą ze sobą ryzyka politycznego czy moralnego. W takich obszarach sztuczna inteligencja może realnie odciążyć urzędników, przyspieszyć procesy i zmniejszyć koszty, nie wchodząc jednocześnie w sferę decyzji wymagających ludzkiego osądu.
Nie oznacza to jednak, że świat zatrzyma się w tym punkcie. Trendy technologiczne wyraźnie pokazują, że AI będzie coraz mocniej wkraczać w przestrzeń publiczną i polityczną. Prawdziwym wyzwaniem na najbliższe lata nie będzie więc samo wprowadzenie cyfrowych ministrów, lecz stworzenie takich ram prawnych i etycznych, które pozwolą im działać bezpiecznie – bez utraty ludzkiej odpowiedzialności.
Bibliografia i netografia
Bômont, C., Bojana, Z. (2025, 17 października). Artificial intelligence, real politics: What Albania’s AI Minister means for EU accession. EU Institute for Security Studies.
https://www.iss.europa.eu/publications/commentary/artificial-intelligence-real-politics-what-albanias-ai-minister-means-eu. Data dostępu: 03.11.2025
Curraj, E. (2025, 16 września). Albania’s Headline-Grabbing AI ‘Minister’ is a Risky Innovation. BalkanInsight. https://balkaninsight.com/2025/09/16/albanias-headline-grabbing-ai-minister-is-a-risky-innovation/. Data dostępu: 03.11.2025
Hitron, T., Morag Yaar, N., & Erel, H. (2023, March). Implications of AI bias in HRI: Risks (and opportunities) when interacting with a biased robot. In Proceedings of the 2023 ACM/IEEE International Conference on Human-Robot Interaction (pp. 83-92).
Jones, M. G. (2025, 2 listopada). Czy sztuczna inteligencja w rządzie Edi Ramy może wprowadzić Albanię na drogę do członkostwa w UE. Euronews.pl. https://pl.euronews.com/europa/2025/11/02/czy-sztuczna-inteligencja-w-rzadzie-edi-ramy-moze-wprowadzic-albanie-na-droge-do-czlonkost. Data dostępu: 2.11.2025.
Korbak, T., Balesni, M., Barnes, E., Bengio, Y., Benton, J., Bloom, J., … & Mikulik, V. (2025). Chain of thought monitorability: A new and fragile opportunity for ai safety. arXiv preprint arXiv:2507.11473.
Redakcja (2025, 22 września). Sztuczna inteligencja zajmie się zamówieniami publicznymi w Albanii. GDPR.pl. https://gdpr.pl/sztuczna-inteligencja-zajmie-sie-zamowieniami-publicznymi-w-albanii. Data dostępu: 2.11.2025.
Rębisz, K. (2024). Podmiotowość prawna sztucznej inteligencji. Aspekty cywilnoprawne (Doctoral dissertation, University of Rzeszów (Poland)). https://repozytorium.ur.edu.pl/items/405b150b-7679-4ed6-9f60-09fed7ed91a4
Rusak, P. (2025, 18 września). “Ministra” AI przemówiła w parlamencie. To historyczny moment. Business Insider. https://businessinsider.com.pl/wiadomosci/albania-ministra-stworzona-przez-ai-prezentowala-program-rzadu/f7s6sr6. Data dostępu: 2.11.2025.
Zmuda, D. (2025, 18 września). Sztuczna inteligencja została ministrem. Nowa era w polityce? Propertynews.pl. https://www.propertynews.pl/polityka-i-spoleczenstwo/sztuczna-inteligencja-zostala-ministrem-nowa-era-w-polityce,192511.html?mp=promo. Data dostępu: 2.11.2025.