Regulace umělé inteligence v EU, co nás čeká?
Umělá inteligence (dále jen “AI”) se stala celosvětovým fenoménem a akt o umělé inteligenci (dále jen “AI ACT”) přichází jako první komplexní regulace AI na světě, přináší sjednocená pravidla a požadavky v rámci Evropské Unie, to jak na poskytovatele, tak i na provozovatele služeb umělé inteligence. AI ACT byl 13. března schválen jednomyslnou většinou Evropského parlamentu. V článku níže vysvětlíme co je to AI, rozebereme její kategorizaci a jaké povinnosti z nařízení pro poskytovatele a provozovatele vyplývají.
Nyní probíhá finalizace textu právníky a lingvisty, přičemž formální schválení se očekává na přelomu dubna a května. Co Vás jakožto poskytovatele nebo provozovatele těchto služeb čeká, co musíte dodržet a jaké sankce Vám případně hrozí? Právě o tom pojednává tento článek.
I. Základní informace
Evropská Unie převzala definici AI z nedávno aktualizované definice OECD (Organizace pro hospodářskou spolupráci a rozvoj), které je EU v plném rozsahu součástí, zároveň jsou součástí i USA, Kanada a další.
“Systém umělé inteligence je strojově založený systém, který na základě explicitních nebo implicitních cílů odvozuje ze vstupů, které obdrží, jak generovat výstupy, jako jsou předpovědi, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzické nebo virtuální prostředí. Různé systémy umělé inteligence se liší úrovní autonomie a adaptability po nasazení.”
Jak již bylo zmíněno výše AI ACT dopadá jak na poskytovatele systémů, tak i na jejich provozovatele.
- Poskytovatelem systému AI je subjekt, který systém vyvíjí a pod svým jménem uvádí na trh EU, přičemž tímto poskytovatelem může být fyzická, právnická osoba, ale i orgán veřejné moci.
- Provozovatelem systému AI se na druhou stranu rozumí subjekt, který systém používá při výkonu své pravomoci, s výjimkou, kdy je tento systém využíván pro osobní účely, nikoliv pro profesionální činnost. Pozn.: Zde došlo ke změně, původní návrh totiž používal pojem “uživatel”, což bylo matoucí, protože se tím nerozuměl koncový uživatel, ale právě provozovatel.
II. Rozdělení AI systémů do kategorií dle rizika
AI ACT je založen na rozdělení AI systémů do kategorií dle rizika, které jednotlivé systémy představují nebo mohou představovat a následně se podle těchto kategorií odvíjejí požadavky na poskytovatele a uživatele. Těmi kategoriemi jsou jmenovitě:
- Nepřijatelně rizikové systémy AI (zakázané)
- Vysoce rizikové systémy AI
- Omezeně rizikové systémy AI (GPAI)
- Minimálně rizikové systémy AI
První kategorie nepřijatelně rizikových systémů je zakázána bez dalšího, druhá zmíněná kategorie podléhá silné regulaci, na třetí kategorii dopadá “pouze” požadavek transparentnosti a poslední nepodléhá regulaci žádné.
III. Nepřijatelně rizikové systémy AI
První výše zmíněnou kategorií jsou nepřijatelně rizikové systémy AI, které jsou zcela zakázané. Zakázané jsou tyto systémy AI, protože nepřijatelně zasahují do práv garantovaných Listinou základních práv a svobod (např.: právo na ochranu soukromí, svoboda projevu, shromažďovací, zákaz diskriminace a mnoho dalších). Které systémy AI tedy mezi zakázané spadají?
- AI využívající lidské zranitelnosti (např. věk, postižení);
- biometrické kategorizační systémy využívající citlivé charakteristiky (rasa, sexuální orientace, politické či náboženské názory atp.), s výjimkou:
- označování nebo filtrování zákonně získaných souborů biometrických údajů nebo v případě kategorizace biometrických údajů orgány činnými v trestním řízení;
- použití podprahových, manipulativních nebo klamavých technik, které narušují chování a obcházejí svobodnou vůli;
- systémy sociálního kreditního hodnocení;
- shromažďování obličejů pro vytváření databáze pro rozpoznávání obličejů;
- specifické aplikace prediktivního policejního dohledu, tj. posuzování rizika, že se osoba na základě profilování nebo posuzování osobnostních rysů dopustí trestného činu, s výjimkou:
- případů, kdy se používá k doplnění lidského posouzení založeného na objektivních, ověřitelných skutečnostech přímo souvisejících s trestnou činností;
- rozpoznávání emocí na pracovišti nebo ve vzdělávacích institucích, s výjimkou:
- zdravotních nebo bezpečnostních důvodů;
- používání RBI (Real time dálková biometrická identifikace) na veřejně přístupných místech pro účely vymáhání práva, s výjimkou:
- zabránění závažnému a bezprostřednímu ohrožení života nebo předvídatelnému teroristickému útoku;
- pátrání po pohřešovaných osobách, obětech únosů a osobách, které se staly obětí obchodování s lidmi nebo sexuálního vykořisťování;
- identifikace podezřelých ze závažných trestných činů (vražda, ozbrojená loupež, organizovaná trestná činnost a další).
Používání výjimek výše zmíněného RBI s AI je povoleno pouze za případů, kdy by nepoužití systému způsobilo značnou škodu, zároveň však musí být respektována základní práva a svobody dotčených osob. Systém musí být registrovaný v databázi EU (v naléhavých případech může být nasazení zahájeno bez registrace, pokud bude později bez odkladu zaregistrováno, zároveň to musí být řádně odůvodněno) a policie tak smí učinit pouze po dokončení posouzení dopadu na základní práva a svobody.
Povolení od soudního orgánu nebo nezávislého správního orgánu je před nasazením také vyžadováno (v naléhavých případech může být systém nasazen bez povolení, pokud je o něj požádáno do 24 hodin, avšak je-li povolení zamítnuto musí být nasazení ihned ukončeno a všechny výstupy, data smazány).
IV. Vysoce rizikové systémy AI
Další kategorií jsou ty systémy AI, které Evropská unie vyhodnotila jako vysoce rizikové, a to z toho důvodu, že jsou vysoce rizikové buďto pro zdraví, bezpečnost nebo pro základní lidská práva a svobody osob. Tuto kategorii EU stanovuje v příloze II. a III.
Dle přílohy II. AI ACT jsou vysoce rizikové systémy AI ty, které jsou bezpečnostní součástí výrobku nebo výrobkem samotným a vztahují se na ně harmonizační předpisy EU v příloze uvedené. Těmi jsou systémy používané v autonomních nebo částečně autonomních vozidlech, nebo třeba zdravotnické systémy AI určené pro stanovení diagnózy nebo léčebného postupu.
Příloha III. stanoví, ve kterých oblastech jsou systémy AI vysoce rizikové:
- Biometrická identifikace, která není zakázaná;
- Vzdělávání (systémy, které mají za účel hodnocení studentů vzdělávacích institucí nebo institucí odborné přípravy a hodnocení účastníků zkoušek, které jsou vyžadovány pro přijetí ke studiu);
- Nábor a řízení pracovníků (systémy hodnocení kandidátů v průběhu pohovorů před zaměstnáním osob a systémy hodnotící výkonnost, chování osob v rámci pracovněprávních vztahů);
- Správa spravedlnosti (systémy AI určené na pomoc soudnímu orgánu při zkoumání a výkladu faktů a práva a při uplatňování práva na konkrétní soubor skutečností);
- Správa kritické infrastruktury (voda, plyn, elektřina apod.);
- Vymáhání práva, pohraniční kontrola, migrace a azyl (detektor lží, posouzení ilegální migrace nebo zdravotních rizik atp.);
- Přístup ke službám (bankovnictví, pojištění, sociální dávky, resp. systémy, které vyhodnocují sociální kredit v této oblasti);
- Specifické produkty a/nebo bezpečnostní komponenty specifických produktů
I v této kategorii jsou však výjimky a těmi jsou ty systémy AI, které vykonávají pouze úzkou procedurální úlohu, zlepšují výsledek dříve dokončené lidské práce nebo provádí přípravný úkol k posouzení, které je relevantní pro účely případů použití v příloze III.
Systémy AI, které jsou zařazeny v této kategorii podléhají přísné regulaci a na jejich provozovatele a poskytovatele jsou kladeny přísné požadavky.
Požadavky na poskytovatele vysoce rizikových systémů AI:
- systém řízení rizik (zavést systém řízení rizik, který nepřetržitě, v rámci celého životního cyklu systému AI vyhodnocuje rizika, která mohou vzniknout a zároveň přijímat vhodná opatření);
- data a správa dat, používaných k trénování modelů, za účelem ověření jejich případných nedostatků, chyb nebo rizika zkreslení;
- technická dokumentace a vedení záznamů. Prokazatelnost, že má systém AI vlastnosti požadované AI ACT;
- transparentnost a poskytování informací provozovatelům AI, povinnost poskytnout provozovatelům systému AI transparentní informace nezbytné k jeho užívání, včetně informací o jeho účelu, přesnosti, spolehlivosti a kybernetické bezpečnosti, jeho výkonnosti a specifikaci vstupních údajů;
- lidský dohled
- přesnost, spolehlivost a kybernetická bezpečnost
Požadavky na provozovatele vysoce rizikových systémů AI:
- přiměřená a relevantní data s ohledem na účel systému AI;
- monitorovat provoz vysoce rizikového systému AI, za účelem předcházení rizik a zjišťování incidentů, případně informovat poskytovatele systému AI;
- uchovávat po dobu nejméně 6 měsíců vybrané protokoly automaticky generované vysoce rizikovým systémem AI;
- povinnost provést posouzení vlivu na ochranu osobních údajů podle GDPR.
V. Omezeně rizikové systémy AI – GPAI
Jednotlivá ustanovení AI ACT se věnují i tzv. GPAI (General Purpose Artifficial Intelligence), tedy umělé inteligenci určené pro všeobecné účely, kterou je například celosvětově známá ChatGPT, ale i grafický Stable Difusion nebo překladač DeepL. V souvislosti s GPAI se vyskytují dva pojmy: model GPAI a systém GPAI.
- Model GPAI, tím se rozumí takový model umělé inteligence, který je vycvičen na velkém množství dat, vykazuje značnou obecnost a je schopen kompetentně vykonávat širokou škálu různých úloh a který lze integrovat do různých návazných systémů nebo aplikací (výjimkou jsou výzkumné a vývojové modely GPAI).
- Systém GPAI je založen na výše zmíněném modelu GPAI a je schopen sloužit různým účelům, a to jak pro přímé použití, tak pro integraci do jiných systémů AI.
Požadavky na poskytovatele GPAI
Jiné požadavky se vztahují na „běžné“ GPAI, na GPAI s „volnou a otevřenou licencí“, na systémy GPAI s jistým „systémovým rizikem“, a systémy GPAI, které mohou být použity jako vysoce rizikové systémy AI nebo do nich mohou být integrovány. Na poslední zmíněné dále dopadá povinnost spolupracovat s následnými poskytovateli, aby umožnili jejich soulad.
Požadavky jsou následující:
- technická dokumentace, včetně procesu školení, testování a hodnocení výsledků (tento bod se nevztahuje na GPAI s volnou a otevřenou licencí);
- informace a dokumentace, jež mají být poskytnuty poskytovatelům, kteří budou model GPAI dále integrovat do svých vlastních systémů AI, aby tito poskytovatelé znali možnosti a omezení modelu GPAI. (tento bod se nevztahuje na GPAI s volnou a otevřenou licencí);
- respektování autorských práv;
- dostatečně podrobné shrnutí obsahu použitého pro trénink modelu GPAI.
Další povinnosti plynou pro ty poskytovatele, jejichž systém je kategorizován jako GPAI se „systémovým rizikem“. To se posuzuje podle výpočetního výkonu, jehož kumulativní objem pro trénování musí přesáhnout 1025 operací s pohyblivou desetinnou čárkou za sekundu. AI ACT však stanoví i výjimky, kdy model přesahující výpočetní výkon nebude zařazen mezi ty se „systémovým rizikem“.
Nařízení zavádí u těchto systémů další povinnosti proto, že vysoký výpočetní výkon zvyšuje riziko případného zneužití, činí obtížnější kontrolu a provádění auditů.
Mimo čtyři výše zmíněné požadavky na tyto poskytovatele dopadají i požadavky:
- dokumentování a hodnocení modelu kontradiktorního testování s cílem identifikace systémových rizik;
- posuzování systémových rizik s cílem je zmírňovat;
- sledovat, dokumentovat a hlásit závažné incidenty a nápravná opatření úřadu pro umělou inteligenci
- kybernetická bezpečnost, respektive zajistit odpovídající úroveň.
VI. Minimálně rizikové systémy AI
Do této kategorie spadají systémy AI, které se využívají například k filtrování nevyžádané pošty v e-mailových schránkách, či k integraci ve videohrách. A tyto nařízení nereguluje nijak.
VII. Kdy začne AI ACT “platit”?
AI ACT se stane platným 20 dní od vyhlášení v Úředním věstníku EU, podstatné je ale, kdy vejde v účinnost, a to je rozděleno následovně:
- 6 měsíců – nepřijatelně rizikové systémy AI
- 12 měsíců – omezeně rizikové systémy AI
- 24 měsíců – vysoce rizikové systémy AI podle přílohy III.
- 36 měsíců – vysoce rizikové systémy AI podle přílohy II.
VIII. Závěr
Umělá inteligence s sebou kromě velkých příležitostí přináší i velká rizika a ovlivňuje každodenní život lidí. Je tedy nepochybné, že je její regulace třeba, není však přílišná regulace zhoubou pokroku?
JUDr. Jakub Dohnal, Ph.D., LL.M.,
advokát, partner
Matěj Menšík,
paralegal
150 00 Praha 5 – Smíchov
© EPRAVO.CZ – Sbírka zákonů, judikatura, právo | www.epravo.cz