Směrnice o odpovědnosti za umělou inteligenci: Krok k odpovědnému využívání AI
Vstup do éry umělé inteligence přináší nejen inovace a pokrok, ale také klíčové otázky ohledně odpovědnosti a etického využívání této technologie. Směrnice o odpovědnosti za umělou inteligenci je jedním z pilířů, který by měl v této dynamické oblasti definovat právní rámec pro zaručení bezpečného, transparentního a morálně odpovědného užívání umělé inteligence. Směrnice o odpovědnosti za umělou inteligenci se týká mimosmluvních občanskoprávních nároků na náhradu škody, které byly způsobeny umělou inteligencí (tzv. „AI“). Řeší problematiku odpovědnosti za škody způsobené AI – tedy kdo, kdy a jak by měl být za takové škody odpovědný.
Umělá inteligence může v závislosti na okolnostech jejího užívání vytvářet rizika a poškozovat zájmy a práva, které jsou chráněny unijním nebo vnitrostátním právem. Může například nepříznivě ovlivnit řadu základních práv fyzických osob, včetně práva na život, fyzickou nedotknutelnost nebo práva na rovné zacházení a zákaz diskriminace. Zatímco účelem nařízení o umělé inteligenci je nastavit jasně definovaná pravidla o používání umělé inteligence, cílem směrnice o umělé inteligenci je stanovit pravidla pro vymáhání škod způsobených umělou inteligencí. Směrnice by měla primárně posílit důvěryhodnost užívání AI na vnitřním trhu a nastavit efektivní mechanismy k vymáhání případných škod. Tyto mechanismy budou sloužit nejen jako záruka dodržování bezpečnostních opatření, ale i jako prevence vzniku případných škod.
Evropská komise zdůraznila hned několik pádných argumentů pro vznik společné regulace odpovědnosti za umělou inteligenci. Prvním z nich je skutečnost, že současná vnitrostátní pravidla týkající se náhrady újmy založená na zavinění jednoduše nejsou pro oblast AI vhodná. Poškozená strana totiž musí prokazovat zavinění, pokud požaduje náhradu škody. Pokud ovšem mezi jednání a vznik škody vstoupí prvek AI, může se prokazování zavinění stát velice obtížným (ne-li nemožným), a to kvůli specifickým vlastnostem AI, jako jsou neprůhlednost, autonomní chování a komplexita. V takových situacích může být nadmíru obtížné prokázat, že konkrétní vstup, za který je osoba potenciálně odpovědná, způsobil konkrétní výstup systému AI, který vedl k dotčené škodě. Unesení důkazního břemene poškozeným by tak bylo takřka nemožné.
Dalším argumentem pro zavedení pravidel odpovědnosti za AI je skutečnost, že vnitrostátní soudy právo dotváří, svým výkladem vyplňují mezery v právu a není tak nastolena potřebná právní jistota, která by v případě AI měla být prioritou. V neposlední řadě hovoří ve prospěch vytvoření společného právního rámce v dané oblasti i potřeba harmonizace napříč jednotlivými státy EU, jelikož některé státy již mají nebo zvažují vlastní regulaci, která celkově sníží náklady na uplatňování nároků napříč EU a zjednoduší fungování vnitřního trhu.
Návrh směrnice se týká výhradně mimosmluvních poměrů založených na subjektivní odpovědnosti za škodu způsobenou systémem AI. Netýká se tedy např. trestněprávní odpovědnosti, pravidel odpovědnosti v oblasti dopravy či výjimek z odpovědnosti a povinností náležité péče stanovených v nařízení o digitálních službách. Směrnice svého cíle dosahuje zejména prostřednictvím dvou základních opatření: a) povinnosti poskytnout na žádost důkazy s vyvratitelnou domněnkou o porušení předpisů a b) vyvratitelné domněnky ohledně příčinné souvislosti v případě zavinění.
Zpřístupnění důkazů
Jedním z hlavních cílů směrnice je poskytnout osobám, které uplatňují nárok na náhradu škody způsobené vysoce rizikovými systémy AI, účinné prostředky k určení potenciálně odpovědných osob a příslušných důkazů pro uplatnění nároku. Směrnice v tomto směru stanoví, že soud může nařídit zpřístupnění příslušných důkazů o konkrétních vysoce rizikových systémech AI, u nichž existuje podezření, že škodu způsobily. Žádosti o důkazy jsou adresovány zpravidla poskytovateli systému AI. Zpřístupnění důkazů může soud nařídit vždy jen v rozsahu nezbytném pro vyhovění nároku – zpřístupnění by tedy mělo být omezeno na nezbytné minimum tak, aby se předešlo plošným žádostem o zpřístupnění důkazů. V případě nesplnění povinnosti důkaz vydat by se měla uplatnit vyvratitelná domněnka, že žalovaný nesplnil povinnost řádné péče.
Vyvratitelná domněnka příčinné souvislosti
Zavinění žalovaného musí žalobce být zpravidla schopen prokázat podle platných unijních nebo vnitrostátních právních předpisů (např. v případě nedodržení povinnosti řádné péče podle nařízení o umělé inteligenci nebo jiných unijních pravidel). Pro žalobce však může být značně obtížné prokázat příčinnou souvislost mezi takovým porušením a výstupem vytvořeným systémem AI. Z toho důvodu směrnice zavádí vyvratitelnou domněnku příčinné souvislosti v případě zavinění.
Na základě této vyvratitelné domněnky by se měla předpokládat příčinná souvislost mezi zaviněním žalovaného a výstupem vytvořeným systémem AI nebo tím, že systém AI takový výstup nevytvořil, pokud jsou kumulativně splněny následující podmínky:
- žalobce prokázal zavinění žalovaného spočívající v nedodržení povinnosti řádné péče stanovené unijním nebo vnitrostátním právem, jejímž přímým účelem je ochrana před vzniklou škodou;
- na základě okolností daného případu lze považovat za přiměřeně pravděpodobné, že zavinění mělo dopad na výstup vytvořený systémem AI nebo na to, že systém AI takový výstup nevytvořil; a
- žalobce prokázal, že výstup vytvořený systémem AI nebo to, že systém AI takový výstup nevytvořil, vedlo ke vzniku škody.
Tato domněnka může být aplikována například v případech nároku na náhradu fyzické újmy, jestliže soud prokáže zavinění žalovaného spočívající v porušení či nedodržení návodu k užívání, který má předcházet újmě fyzických osob. Jelikož směrnice zavádí vyvratitelnou domněnku, měl by mít žalovaný vždy možnost ji vyvrátit, a to zejména tím, že prokáže, že škodu nemohl způsobit svým zaviněním. Zavedení vyvratitelné domněnky reaguje především na obtížnost prokazování příčinné souvislosti mezi porušením povinnosti řádné péče a konkrétním vadným výstupem AI. Vyvratitelná domněnka přenáší důkazní břemeno na žalovaného v případě, kdy lze považovat příčinnou souvislost za pravděpodobnou. Cílem je opět zvýhodnit postavení poškozených, kteří by jinak před soudem měli velmi nezáviděníhodnou pozici.
Závěr
Směrnice o odpovědnosti za AI je prozatím v přípravné fázi a do jejího přijetí se toho samozřejmě může ještě mnoho změnit. S dynamickým vývojem AI a s nutností její regulace lze však očekávat, že finální verze směrnice se dočkáme poměrně brzy. Harmonizovaná úprava však ještě účinná není a první případy soudních sporů týkajících se odpovědnosti za škodu způsobenou umělou inteligencí se budou prozatím řídit stávající právní úpravou. Nechme se překvapit, jak budou v těchto případech soudy rozhodovat.
JUDr. Jiří Matzner, Ph.D., LLM.
Vedoucí partner, Advokát
JUDr. Jiří Matzner, Ph.D., advokát
Anny Letenské 34/7
120 00 Praha 2
Tel.: +420 222 254 555
e-mail: info@matzner.cz
© EPRAVO.CZ – Sbírka zákonů, judikatura, právo | www.epravo.cz