Michał Barwicki
Odpowiedzialność cywilna za sztuczną inteligencję – projekt dyrektywy w sprawie odpowiedzialności AI
28 września 2022 r. Komisja Europejska opublikowała projekt dyrektywy w sprawie odpowiedzialności cywilnej za sztuczną inteligencję, który jest efektem prac nad inicjatywą prawodawczą mającą na celu wdrożenie ustaleń przedstawionych w Białej Księdze AI i sprawozdaniu na temat wpływu sztucznej inteligencji, Internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność.
Komisja Europejska słusznie dostrzegła, że obowiązujące przepisy, odnoszące się do dochodzenia roszczeń z tytułu szkody spowodowanej przez produkty cyfrowe nie są dopasowane do obecnego stanu rozwoju technologii. Problem ten dotyczy m.in. rozwiązań z zakresu sztucznej inteligencji, które charakteryzują się autonomicznością, ciągłą adaptacją, ograniczoną przewidywalnością i nieprzejrzystością. Brak jasnych reguł w tym zakresie utrudnia poszkodowanym uzyskanie odszkodowania za szkody wyrządzone przez tego typu produkty. Poszkodowani w odniesieniu do produktów opartych na działaniu sztucznej inteligencji, często nie są w stanie wskazać podmiotu odpowiedzialnego za szkodę, ani wykazać związku między szkodą, a stwierdzoną nieprawidłowością w funkcjonowaniu produktu.
Zakres dyrektywy
Wdrożenie dyrektywy ma na celu:
- ustanowienie jednolitych ram ułatwiających dochodzenie odszkodowania za szkody powstałe w wyniku działania AI;
- rozszerzenie zakresu ochrony osób poszkodowanych przez działanie AI;
- a także wdrożenie jednolitych zasad dla roszczeń, wykraczających poza zakres dyrektywy w sprawie odpowiedzialności za produkty.
Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję stanowić będzie kierunkową reformę systemów odpowiedzialności krajów członkowskich opartych na winie, w zakresie pozaumownych roszczeń cywilnoprawnych za szkodę spowodowaną przez AI.
W praktyce, zapisy dyrektywy odnosić się będą zatem np. do systemu odpowiedzialności z tytułu czynów niedozwolonych, ale nie będą miały zastosowania do odpowiedzialności wynikającej z umów, jak i odpowiedzialności za produkt niebezpieczny.
Co wprowadzi dyrektywa w sprawie odpowiedzialności za AI?
Projekt dyrektywy przewiduje ustanowienie prawa dostępu do informacji dla osób poszkodowanych przez AI wysokiego ryzyka i wprowadzenie „domniemania związku przyczynowego”, którego celem jest zmniejszenia ciężaru dowodu w zakresie szkód spowodowanych przez systemy AI.
Prawo dostępu do informacji
Ustanowienie prawa dostępu do informacji dla osób poszkodowanych przez AI wysokiego ryzyka ma ułatwić poszkodowanym dostęp do informacji i dowodów niezbędnych dla dochodzenia roszczeń.
Osoba poszkodowana, przy spełnieniu odpowiednich przesłanek, będzie uprawniona zwrócić się do sądu o nakazanie ujawnienia informacji o danym systemie sztucznej inteligencji wysokiego ryzyka. Dyrektywa przewiduje jednak w tym zakresie pewne zabezpieczenia, mające na celu ochronę poufnych informacji, takich jak tajemnice przedsiębiorstwa.
Domniemanie związku przyczynowego
Celem wprowadzenia domniemania związku przyczynowego jest wyeliminowanie trudności związanych z wykazaniem, że szkoda spowodowana przez system AI, powstała w wyniku konkretnego zawinionego działania, co w kontekście złożonych systemów sztucznej inteligencji, w praktyce obecnie jest trudne.
W świetle powyższej dyrektywy ułatwione będzie zatem dochodzenie roszczeń, w sytuacji w której osoba poszkodowana jest w stanie jedynie wykazać:
- niespełnianie odpowiednich norm prawnych przez dany system AI (np. przewidzianych w rozporządzeniu AI Act),
- i fakt poniesienia szkody w wyniku działania takiego sytemu sztucznej inteligencji.
Domniemanie związku przyczynowego będzie oczywiście mogło być obalone przez pozwanego.
Dyrektywa w sprawie odpowiedzialności AI, a dyrektywa w sprawie odpowiedzialności za produkty
Obok powyższej dyrektywy, Komisja Europejska przedstawiła także projekt zmienionej dyrektywy w sprawie odpowiedzialności za produkty, która ma na celu unowocześnienie i dostosowanie przepisów w tym zakresie do obecnego stanu rozwoju technologii.
Dyrektywa w sprawie odpowiedzialności za produkty zawiera jednak inny zakres regulacji, odnoszący się do niezawinionej odpowiedzialności za wadliwe produkty.
Należy zauważyć, że dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję, jak i dyrektywa w sprawie odpowiedzialności za produkt mają się wzajemnie uzupełniać, zatem – w założeniu – pomiędzy powyższymi regulacjami nie będzie dochodzić do konfliktu.
Komisja Europejska zdecydowała się zatem zarówno na reformę dyrektywy w sprawie odpowiedzialności za produkty, jak i wprowadzenie odrębnej dyrektywy mającej szersze zastosowanie do ogólnej odpowiedzialności cywilnej, opartej na zasadzie winy. Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję, ma być także w pełni spójna z obecnie procedowanym rozporządzeniem w sprawie sztucznej inteligencji (AI Act, o którym pisałem w artykule „AI act – krótki przegląd kluczowych elementów rozporządzenia”).
Dalsze prace nad dyrektywą
Projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję będzie podlegał dalszemu procesowi prawodawczemu Unii Europejskiej, zatem ostateczny kształt regulacji może się różnić od zaprezentowanego projektu.
Należy także mieć na uwadze, że nowa dyrektywa stanowić ma minimalną harmonizację. Implementacja dyrektywy w Polsce będzie mogła zatem zakładać przepisy korzystniejsze dla osób poszkodowanych przez działania systemów AI. Projekt dyrektywy w obecnym kształcie przewiduje, że państwa członkowskie będą zobowiązane do implementacji dyrektywy w terminie 2 lat od dnia jej wejścia w życie.