Nová evropská pravidla pro fungování umělé inteligence
V březnu letošního roku europoslanci schválili nová pravidla pro fungování umělé inteligence (AI), tzv. Akt o umělé inteligenci. Ten byl představený Evropskou komisí v dubnu 2021. Jedná se o první komplexní právní úpravu AI na světě. Cílem Aktu je zlepšit fungování vnitřního trhu stanovením jednotného právního rámce pro vývoj AI, uvádění AI na trh a jejího využívání. Akt o umělé inteligenci rovněž usiluje o to, aby se snížila administrativní a finanční zátěž pro podniky, a to zejména pro malé a střední.
Hlavní cíle
Komise vytyčila čtyři hlavní cíle, na které regulační rámec míří:
- zajistit, aby systémy AI, které budou uváděny na trh a používány v rámci EU, byly bezpečné a byly v souladu se stávajícími právními předpisy o základních právech a hodnotách EU,
- zajistit právní jistotu s cílem usnadnit investice a inovace v oblasti AI,
- zlepšit správu a účinné vymáhání stávajících právních předpisů upravujících základní práva a bezpečnostní požadavky platné pro systémy AI, a
- usnadnit rozvoj jednotného trhu pro zákonné, bezpečné a důvěryhodné aplikace AI a zamezit roztříštění trhu.
Akt zavádí jednotnou definici AI, která zahrnuje jednak strojové učení, ale i expertní systémy či statistické modely. Akt AI definuje jako „software, který je vyvinut pomocí jedné nebo více technik a přístupů uvedených v příloze I. a který může pro daný soubor cílů definovaných člověkem generovat výstupy, jako je obsah, předpovědi, doporučení nebo rozhodnutí ovlivňující prostředí, ve kterém se nachází a s nimiž interagují“.
Zároveň dochází k harmonizaci pravidel pro vývoj systémů AI, jejich uvádění na trh a používání v rámci EU, a to na základě vyváženého přístupu založeného na posouzení rizik.
Úrovně rizik
Akt se řídí přístupem založeným na posouzení rizik, který rozlišuje mezi použitými AI, vytvářející (i) nepřijatelné riziko, (ii) vysoké riziko, (iii) omezené riziko a (iv) minimální riziko.
- Nepřijatelné riziko
Za nepřijatelné riziko se považují takové systémy AI, které jsou hrozbou pro člověka. Jedná se zejména o systémy, které:
- manipulují lidský názor, chování a rozhodování a mohlo by tím dojít k fyzické či psychické újmě,
- využívají zranitelnosti určité skupiny osob (např. dětí nebo mentálně postižených osob) za účelem manipulace jejich chování tak, že by tím mohlo dojít k fyzické či psychické újmě
- rozdělují lidi na základě jejich sociálního chování, a
- provádí dálkovou biometrickou identifikaci v reálném čase na veřejně přístupných místech.
Takové systémy budou zakázány. V určitých případech jim však může být udělena výjimka.
- Vysoké riziko
Za vysoce rizikové systémy AI budou považovány takové systémy, které mají negativní dopad na bezpečnost nebo základní práva. Ty budou rozděleny do dvou základních kategorií. První kategorii budou tvořit systémy, které se používají ve výrobcích, na než se vztahují právní předpisy EU o bezpečnosti výrobků. Jedná se například o hračky, automobily, zdravotnické prostředky, výtahy nebo výrobky leteckého a kosmického průmyslu.
Do druhé kategorie spadnou systémy AI z osmi specifických oblastí, které budou muset být registrovány v databázi EU. Jedná se o následující oblasti:
- biometrická identifikace a kategorizace osob,
- správa a provoz kritické infrastruktury,
- vzdělávání a odborná příprava,
- zaměstnanost, řízení pracovní síly a přístup k samostatnému zaměstnání,
- přístup k základním soukromým a veřejným službám, dávkám a jejich využívání,
- vymáhání práva,
- migrace, azyl a správa hranic, a
- výkon spravedlnosti a demokratické procesy.
Vysoce rizikové systémy AI musí splňovat přísná pravidla kvality a požadavky na zveřejňování, kontrolu a monitorování. Akt se podrobně zabývá právě těmito vysoce rizikovými systémy. Konkrétní požadavky regulace dopadají zejména na jejich poskytovatele. Poskytovatelé budou mimo jiné muset vytvářet systém řízení rizik během celého životního cyklu systému, provádět správu dat, vytvořit technickou dokumentaci k prokázání shody, vytvořit návod k použití pro uživatele, zavést systém řízení kvality apod.
- Omezené riziko
U systémů AI s omezeným rizikem bude dle nového regulačního rámce dostačující splnění minimálních požadavků transparentnosti. Jejich uživatelé budou muset být informování o tom, že interagují s AI a budou muset mít možnost se rozhodnout, zda daný systém chtějí nadále využívat či nikoliv.
Do této kategorie budou patřit zejména AI systémy, které generují obrazový, zvukový nebo video obsah nebo s ním manipulují.
- Minimální riziko
Akt umožňuje v zásadě volné využívání AI s minimálním rizikem. Tato skupina zahrnuje aplikace, jako jsou videohry či spamové filtry.
GPAI
GPAI je anglická zkratka pro „general purpose AI“, což lze přeložit jako „umělá inteligence obecného určení“. Jedná se o systémy, jako je například ChatGPT. Ty patří mezi nejpoužívanější typ AI veřejností v současné době. GPAI lze kvalifikovat jako vysoce rizikové systémy AI, a to v případě, že je lze přímo použít alespoň k jednomu účelu, který je klasifikován jako vysoce rizikový. Pro poskytovatele všech modelů GPAI platí zvláštní pravidla a musí dostát následujícím požadavkům:
- vytvořit technickou dokumentaci modelu GPAI a na vyžádání ji poskytnout Úřadu pro umělou inteligenci nebo místně příslušnému orgánu dohledu,
- vytvořit dokumentaci pro třetí strany, které používají model GPAI k vytváření vlastních systémů AI,
- zavést politiku respektování autorského práva EU, konkrétně principu opt-out pro těžbu textů a dat, a
- zpřístupnit shrnutí o obsahu použitém k trénování modelu GPAI
IMPLEMENTACE
Jak je již naznačeno v textu výše, dojde ke zřízení Úřadu pro umělou inteligenci, který bude působit v rámci Komise. Úřad bude sledovat účinné provádění a dodržování pravidel ze strany poskytovatelů modelů GPAI.
Účinnost Aktu je rozdělena do čtyř hlavních časových os:
- 6 měsíců pro zákaz využívání systémů AI představující nepřijatelné riziko,
- 12 měsíců pro pravidla týkající se GPAI,
- 24 měsíců pro pravidla týkající se vysoce rizikových systémů AI uvedených v příloze III, a
- 36 měsíců pro pravidla týkající se vysoce rizikových systémů AI uvedených v příloze II.
ZÁVĚR
Vzhledem k rostoucímu významu AI téměř ve všech odvětvích napříč společností, je zcela jistě vhodné, aby byla nastavená určitá pravidla pro její používání. Akt o umělé inteligenci představuje zásadní krok k vytvoření uceleného a harmonizovaného právního rámce pro AI v Evropské unii, který klade důraz na bezpečnost, transparentnost a dodržování základních práv. Otázkou zůstává, jak se nová regulace osvědčí v praxi a jaký vliv budou mít na tvorbu dalších obdobných předpisů mimo EU.
Jan Čermák,
koncipient
Jaroslav Tajbr,
partner
Eversheds Sutherland, advokátní kancelář, s.r.o.
Oasis Florenc
Pobřežní 394/12
186 00 Praha 8
Tel.: +420 255 706 500
Fax: +420 255 706 550
e-mail: praha@eversheds-sutherland.cz
© EPRAVO.CZ – Sbírka zákonů, judikatura, právo | www.epravo.cz