Kto ponosi odpowiedzialność za szkody wyrządzone przez AI?

Sztuczna inteligencja znajduje coraz szersze zastosowanie w codziennym życiu. To z kolei oznacza również więcej szkód, które potencjalnie może wyrządzić AI. Mowa tu choćby o takich sytuacjach jak wypadek spowodowany przez autonomiczny samochód albo nieprawidłowo przeprowadzony zabieg medyczny, w którym wykorzystano robota sterowanego przez AI. Szkody powstałe przy wykorzystaniu systemu sztucznej inteligencji równie dobrze mogą być jednak znacznie mniej medialne i dotyczyć każdego z nas. Warto więc wiedzieć, do kogo w takiej sytuacji kierować swoje roszczenia np. o zapłatę odszkodowania.

Kto ponosi odpowiedzialność za szkody wyrządzone przez AI i dlaczego nie sama sztuczna inteligencja?

Sztuczna inteligencja to – w uproszczeniu – linijki kodu. Jej działanie pod pewnymi względami świetnie symuluje jednak inteligentne zachowania człowieka. Modele AI mogą gromadzić dane, dokonywać analizy i wysuwać wnioski, a także na podstawie promptów (instrukcji) prowadzić do rezultatów często przypominających efekt pracy człowieka. Co więcej, dzięki uczeniu maszynowemu AI może rozwijać się i doskonalić.

Żadna z tych kwestii nie zmienia jednak tego, że obecne przepisy zakładają, że odpowiedzialność za szkodę może ponieść tylko osoba fizyczna lub prawna. AI nie wpisuje się w żadną z tych definicji. Nie zmienia to jednak faktu, że do powstania szkody może dojść. I kto w takim razie będzie za nie odpowiadał?  

Teoretycznie mamy kilka możliwości w tym zakresie. Odpowiadać za szkody wyrządzone przez AI mógłby np.:

  • Twórca oprogramowania AI
  • Producent wykorzystujący działanie systemu sztucznej inteligencji
  • Osoba trenująca takie rozwiązanie
  • Osoba korzystająca z gotowego rozwiązania (użytkownik końcowy).

A jak to wygląda w praktyce?

Co polskie przepisy i regulacje Unii Europejskiej mówią o odpowiedzialności za działania sztucznej inteligencji?

W Polsce nie mamy żadnych przepisów, które nie pozostawiałyby żadnych wątpliwości co do odpowiedzialności za szkody wyrządzone przez AI. Wręcz przeciwnie – istnieje tu dużo niejasności i sporów, nawet wśród samych prawników. 

Na poziomie unijnym mamy wprawdzie AI Act. Zgodnie z tym rozporządzeniem przedsiębiorstwa powinny określić zasady odpowiedzialności w odniesieniu do produktu AI i pośrednich lub niezamierzonych konsekwencji działania sztucznej inteligencji. To jednak dość ogólne wytyczne.

Kwestie odpowiedzialności za szkody AI miały zostać uregulowane w osobnym akcie unijnym. UE od kilku lat pracowała bowiem nad dyrektywą w sprawie pozaumownej odpowiedzialności cywilnej za sztuczną inteligencję (AILD). Dzięki tej dyrektywie zasady uzyskiwania odszkodowania w UE byłyby prostsze i ujednolicone. Niestety w lutym 2025 Komisja Europejska poinformowała, że wycofuje się z prac nad dyrektywą AILD. Bez perspektyw na uchwalenie dyrektywy Parlamentu Europejskiego i Rady znów znajdujemy się więc w punkcie wyjścia. W Polsce możemy więc póki co stosować tradycyjne zasady odpowiedzialności cywilnej do sztucznej inteligencji. A to niestety nie jest rozwiązanie idealne. 

Rodzaje odpowiedzialności za szkody spowodowane przez AI

Mamy 2 podstawy odpowiedzialności:

  1. Odpowiedzialność wynikająca z kontraktów (umów)
  2. Odpowiedzialność za pozostałe szkody – nazywana jest też odpowiedzialnością deliktową lub za czyny niedozwolone. 

W kontekście tej drugiej kategorii (pozaumownej odpowiedzialności cywilnej) sprawa jest bardziej skomplikowana i istnieją w tym zakresie duże spory.

Na przykład jeśli wsiądziesz do autonomicznego pojazdu i dojdzie do wypadku, to czy masz odpowiadać na takich samych zasadach jak kierowca „tradycyjnego” auta? W końcu różnica jest ogromna – w autonomicznym samochodzie jedynie wyznaczasz cel podróży i całą drogę spędzasz biernie, właściwie jak pasażer. A jeśli takiej odpowiedzialności nie można Ci przypisać, to kto powinien zapłacić odszkodowanie ewentualnym poszkodowanym w wypadku? Powinien to być Twórca oprogramowania AI? Producent samochodu autonomicznego, który korzystał z systemu sztucznej inteligencji? A może oba te podmioty?

Takie same pytania nasuwają się w zakresie innych tzw. przypadków wysokiego ryzyka – np. wspomnianej we wstępie operacji z wykorzystaniem robota AI. 

Pojawiają się też koncepcje, żeby odpowiedzialność regulować na zasadzie analogicznej co w przypadku szkód wyrządzonych przez zwierzęta albo żeby do niektórych rozwiązań AI stosować przepisy dotyczące odpowiedzialności za produkt niebezpieczny.

W kontekście tego artykułu nie ma jednak większego sensu nadmiernie wnikać w szczegóły. Na ten moment ważne jest to, że żadne z tych rozwiązań nie będzie mieć dobrego przełożenia w sprawach odpowiedzialności za sztuczną inteligencję.

Wystarczy spojrzeć chociażby na artykuł opublikowany na stronie Palestry, w którym znajdują się długie rozważania na temat działania AI i tego, dlaczego żadne z wymienionych rozwiązań nie sprawdzi się w pełni przy szkodach wywołanych przy użyciu technologii AI. Między innymi dlatego z niecierpliwością czekano na uregulowanie pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji w ramach wspomnianej dyrektywy AILD. 

Na szczęście jest i dobra wiadomość – obecnie większość sporów dotyczących sztucznej inteligencji i wywołanych przez nią szkód dotyczy zobowiązań na podstawie umów. I to zarówno w relacjach między przedsiębiorcami, jak i w ramach relacji B2C. A tam wątpliwości jest już znacznie mniej.

Umowna (kontraktowa) odpowiedzialność za szkody spowodowane przez AI

W przypadku kontraktów sprawa jest dość prosta. Zgodnie z obowiązującymi przepisami strona, która nie wykonała lub wykonała nienależycie swoje obowiązki wynikające z umowy, musi naprawić powstałe w związku z tym szkody. Co równie ważne, jeśli nie wprowadzicie innych ustaleń do umowy, taka osoba odpowiada za niezachowanie należytej staranności.

Co to może oznaczać w praktyce? Załóżmy, że zamawiasz artykuł, który usługodawca ma dla Ciebie opracować. Niestety taka osoba jedynie wprowadza odpowiedni prompt, kopiuje treść wygenerowaną przez AI i dostarcza Ci efekt tej pracy. Nie sprawdza, czy tekst jest oryginalny, czy zawiera prawidłowe informacje i czy nie narusza praw innych osób. W tym przypadku dość łatwo jesteś w stanie wykazać, że taka osoba nie zachowała należytej staranności.

Problem należytej staranności przy szkodach spowodowanych przez system sztucznej inteligencji 

Takie kryterium zachowania należytej staranności może jednak również sprawić, że nie będziesz w stanie znaleźć osoby odpowiedzialnej za naprawienie szkody. Nawet jeśli taką szkodę rzeczywiście poniesiesz.  

Posłużmy się tu dość popularnym przykładem przytaczanym w artykułach prawniczych dotyczących właśnie odpowiedzialności za szkody wyrządzone przez AI:

Załóżmy, że zamawiasz system AI, który ma wspierać działania Twojego przedsiębiorstwa. Wykonawca tego rozwiązania dokłada wszelkich starań, żeby program nie działał na Twoją szkodę. Wprowadza filtry, które uniemożliwiają używanie określonych słów lub ograniczają funkcjonalności programu mogące prowadzić do szkód po Twojej stronie.

Problem w tym, że AI jako system zdolny do doskonalenia i uczenia maszynowego z czasem mimo wszystko może doprowadzić do wyrządzenia szkód tego rodzaju. W tym przypadku trudno mówić, że jego twórca nie dochował należytej staranności. Zrobił przecież wszystko, co było w jego mocy. W efekcie nie będziesz mieć więc podstaw do dochodzenia odszkodowania. 

Zakres odpowiedzialności za szkody wyrządzone przez AI możesz uregulować w umowie

Dzięki zasadzie swobody umów masz możliwość bardzo precyzyjnego i wyczerpującego uregulowania zakresu odpowiedzialności za szkody wyrządzone przez AI. Ty i druga strona możecie ustalić, co wchodzi w zakres takiej odpowiedzialności i jakie będą dokładne konsekwencje niewywiązania się z umowy. Tak samo jak macie prawo wprowadzić pewne ograniczenia w tym zakresie. 

W branży IT już od lat funkcjonują zresztą pewne standardy często powtarzające się w kontraktach – np. wyłączające odpowiedzialność za niektóre szkody lub ograniczające ją do konkretnej wysokości (np. do wysokości wynagrodzenia za opracowanie takiego rozwiązania). Analogiczne zapisy można stosować w kontekście roszczeń z tytułu odpowiedzialności wyrządzonej przez AI. To wymaga jednak przewidywania potencjalnych scenariuszy i zabezpieczenia się na te okoliczności w ramach umowy. 

Taka zasada swobody umów oznacza jednak także, że jako użytkownik otwartych modeli AI musisz uważnie czytać regulaminy. Korzystając z takich systemów jak np. ChatGPT, akceptujesz zasady jego działania, w tym również te dotyczące odpowiedzialności za wygenerowane z jego pomocą treści. A taki regulamin wiąże Cię na tej samej zasadzie co tradycyjna umowa.