Vliv umělé inteligence na zaměstnávání a pracovní právo
V důsledku pokroku na poli vývoje umělé inteligence („UI“) se nám před očima začíná proměňovat svět. Dopady již nyní začínají být vidět i v oblasti lidské práce a zaměstnávání. Lze však očekávat, že v dohledné době tyto změny budou skutečně hluboce transformativní a dotknou se téměř každého z nás. Nepochybně bude předmětem veřejného zájmu chtít tyto dopady uchopit, respektive jim předcházet tak, aby umělá inteligence sloužila lidstvu ve prospěch a nikoliv naopak.
Je zjevné, že touto proměnou projdou i pravidla, která si společnost pro výkon práce vytváří, tedy jak vnitřní pravidla a postupy na pracovišti, tak zejména regulace této oblasti ze strany státu pomocí předpisů pracovního práva a sociálního zabezpečení.
V tomto příspěvku se podíváme na to, jaké změny lze pravděpodobně v horizontu nejbližších let v této oblasti práva očekávat.
Některé z těchto předvídaných změn nyní nacházejí odezvu v připravované regulaci. Na úrovni EU je tímto nástrojem zejména v březnu 2024 přijatý text Aktu o umělé inteligenci (tj. Nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (Akt o umělé inteligenci) a mění určité legislativní akty Unie, na jehož finální jazykové verzi se pracuje), který si klade za cíl mimo jiné „zachovat hodnoty Unie a tudíž podporovat inovace a zaměstnanost“. Některé z průniků tohoto nařízení s oblastí zaměstnávání a pracovních předpisů zmiňuji níže.
V současné době lze předvídat následující oblasti dopady UI na práci a potažmo pracovní právo:
Automatizace, strukturální změny a flexibilita
Využití UI spolu s robotizací způsobí automatizaci některých pracovních úkolů a ovlivní poptávku po určitých profesích. Nejen manuální úkony mohou být nahrazeny stroji, ale i některé vysoce kvalifikované typy práce budou nahrazeny umělou inteligencí.
Nevyhnutelně se tak objevují diskuse, zda využití UI povede k masové nezaměstnanosti, či naopak vytvoří nové pracovní příležitosti.
Aktuálně dostupné odborné zdroje se poměrně liší jak v odhadu, zda budou více ovlivněny právě nízkokvalifikované či vysoce kvalifikované pozice [1],[2], tak v tom, do jaké míry bude pracovní trh celkově ovlivněn[3]. Některé studie zdůrazňují, že dopad UI na zaměstnanost bude pravděpodobně asymetrický, neboť ovlivní pracovníky s různou úrovní kvalifikace odlišně[4].
Využití UI zřejmě povede nikoliv pouze k eliminaci pracovních míst, ale také ke vzniku nových, která však budou vyžadovat nové dovednosti a vyšší úroveň vzdělání.
Souvisejícím trendem bude bezesporu další rozvoj práce na dálku a práce na zakázku (tzv. gig economy), neboť využití UI podporuje větší flexibilitu při práci.
Změny ve struktuře zaměstnanosti a potenciálně rozevírající se nůžky nerovnosti budou nepochybně předmětem veřejných diskusí a vyvolají požadavky na regulaci ze strany státu. Jak uvedl nedávno evropský komisař pro pracovní místa a sociální práva, Nicolas Schmit, úkolem politiků bude zakotvit systém, který zajistí, že benefity využívání umělé inteligence budou distribuovány spravedlivě[5].
Z pracovněprávního pohledu tak lze v praxi očekávat změny v systémech podpor v nezaměstnanosti, podporu flexibilního a prekérního zaměstnávání (atypické, nestálé pracovní vztahy), např. úpravou podmínek pracovních smluv, rozvrhování práce a práce z domova, nebo oživení diskuse nad otázkou tzv. nepodmíněného příjmu.
Spravedlnost a transparentnost
Využívání algoritmů a UI v oblasti výkonu práce a zaměstnávání může být velmi kontroverzní tam, kde naráží na otázku spravedlnosti a základních lidských práv. Může to být například v náborových procesech nebo v situacích, kde se hodnotí výkon pracovníků. Jakékoli algoritmy využívané UI v pracovním prostředí by měly dodržovat tzv. algoritmickou spravedlnost, tj. zjednodušeně by měly být transparentní a neměly by diskriminovat žádnou skupinu, stejně tak by neměly obcházet svobodnou lidskou vůli a manipulovat s lidským chováním.
Demokratizace a relativní dostupnost nástrojů pro tvorbu tzv. deepfakes představuje jedno z největších aktuálních rizik v mnoha ohledech. Pracoviště zaměstnance však v tomto směru nemusí představovat žádný bezpečný přístav. Nástroje, které by zaměstnavatelé mohli využívat k testování schopností či loajality zaměstnanců, například pomocí video záběrů, online účtů či hlasových zpráv od „falešných“ kolegů, jsou již doslova na dosah ruky.
Akt o UI
Na některé z výše uvedených aspektů UI pomýšlí Akt o umělé inteligenci. Ten vytváří určitou hierarchizaci systémů UI dle jejich rizik a zakotvuje mj. kategorii zakázané UI a kategorii vysoce rizikové UI, kterou lze využívat pouze po splnění určitých podmínek.
Zakázané jsou všechny systémy UI, jejichž používání je považováno za nepřijatelné z důvodu rozporu s hodnotami Unie, například v důsledku porušování základních práv. Akt o UI uvádí následující výčet charakteristik takových systémů:
- Systémy UI, které využívají podprahových technik mimo vědomí osob nebo záměrně manipulativní či klamavé techniky vedoucí k podstatnému narušení chování osob tím, že znatelně zhoršují schopnost dané osoby činit informované rozhodnutí a mohou jí tak způsobit významnou újmu,
- systémy UI, které využívají zranitelných míst určité osoby, včetně vlastností známých nebo předpokládaných osobnostních znaků této osoby nebo skupiny nebo věku, sociální či ekonomické situace, fyzické nebo duševní způsobilosti s cílem nebo v důsledku podstatného narušení chování této osoby způsobem, který osobě může způsobit významnou újmu,
- biometrické kategorizačních systémy, které kategorizují fyzické osoby podle citlivých nebo chráněných vlastností,
- systémy UI pro hodnocení sociálního kreditu jedince, v jehož důsledku je s osobou nepříznivě zacházeno,
- systémy biometrické identifikace na dálku „v reálném čase“ na veřejně přístupných místech,
- systémy UI k posuzování osob za účelem posouzení rizika, zda osoba spáchá trestný čin nebo opětovně spáchá trestný čin, nebo k předvídání výskytu nebo opakování trestného činu nebo správního deliktu na základě profilování fyzické osoby nebo na základě posouzení osobnostních rysů a charakteristik, včetně určení lokace osoby, nebo minulého trestného chování fyzických osob nebo skupin fyzických osob,
- systémy UI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím vymazávání zobrazení obličeje z internetu nebo kamerových záznamů,
- systémy UI k odvození emocí fyzické osoby v oblasti prosazování práva, správy hranic, na pracovišti a vzdělávacích institucích,
- systémy UI pro analýzu záznamů z veřejně přístupných prostorů prostřednictvím systémů „zpětné“ biometrické identifikace na dálku (pokud nepodléhají předsoudnímu povolení a nejsou nezbytně nutné pro cílené vyhledávání spojené s konkrétním závažným trestným činem).
V oblasti zaměstnávání ve vztahu ke spravedlnosti a transparentnosti by takovým zakázaným nástrojem mohl být například umělou inteligencí vytvořený skóring důvěryhodnosti zaměstnance, v jehož důsledku by bylo se zaměstnancem zacházeno nepříznivě, tj. například by s ním byl automaticky ukončen pracovní poměr.
Častěji však bude využití UI v oblasti zaměstnávání pravděpodobně spadat do kategorie vysoce rizikové. Za vysoce rizikové by dle Aktu o UI měly být považovány systémy UI používané při zaměstnávání, řízení pracovníků a při přístupu k samostatné výdělečné činnosti, zejména při:
- náboru a výběru osob,
- při přijímání či ovlivňování rozhodnutí o zahájení smluvních pracovněprávních vztahů, povýšení nebo propuštění a
- při přidělování úkolů na základě individuálního chování, osobních vlastností nebo biometrických údajů,
- sledování nebo hodnocení osob ve smluvních pracovněprávních vztazích.
Tyto vysoce rizikové systémy UI jsou v souladu s přístupem založeným na posouzení rizik na evropském trhu povoleny pod podmínkou, že budou splňovat určité závazné požadavky a že bude provedeno posouzení shody ex ante a registrace do databáze EU.
Pro vysoce rizikové UI systémy bude platit řada dalších omezení a povinností, zejména implementace systémů řízení rizik a systému řízení kvality, pravidla pro zacházení s daty (tréninkovými, testovacími daty apod.) a pro jejich správu, technickou dokumentaci a vedení záznamů, transparentnost a poskytování informací uživatelům, lidský dohled, spolehlivost, přesnost a kybernetickou bezpečnost.
Akt o umělé inteligenci zohledňuje i specifická rizika manipulace, která souvisejí s využitím systémů umělé inteligence. Povinnosti transparentnosti se budou vztahovat na systémy, které:
- komunikují s lidmi;
- se používají k detekci emocí (není-li to zakázáno) nebo k určování spojení se (sociálními) kategoriemi na základě biometrických údajů; nebo
- generují obsah nebo s ním manipulují (tzv. deepfakes).
Pokud osoby komunikují s takovým systémem UI, musí být o této skutečnosti informovány. Pokud je systém UI používán k vytváření obrazového, zvukového nebo video obsahu, který se výrazně podobá obsahu autentickému, případně k manipulaci s ním, bude existovat povinnost zveřejnit, že tento obsah je generován automatizovanými prostředky (kromě výjimek pro legitimní účely). To umožní osobám činit informovaná rozhodnutí nebo se dané situace nezúčastnit. Takové povinnosti by se mohly uplatnit například na specifické nástroje náboru nebo testování či hodnocení zaměstnanců.
Ochrana soukromí a osobních údajů zaměstnanců
Nástroje UI mohou také zasahovat i do dalších práv zaměstnanců, a to zejména práva na soukromí a ochranu osobních údajů, pokud jde o nástroje používané k monitoringu osob nebo pokročilé analýzy dat. Dle Aktu o UI takové systémy mohou spadat pod vysoce rizikovou umělou inteligenci. Zejména to mohou být následující:
a) systémy UI určené k použití při náboru nebo výběru fyzických osob, zejména pro umisťování cílené reklamy týkající se pracovních míst, kontroly nebo třídění žádostí, hodnocení uchazečů v průběhu pohovorů nebo testů;
b) systémy UI určené k použití za účelem přijímání rozhodnutí nebo podstatného ovlivňování rozhodnutí, která mají vliv na zahájení smluvních pracovněprávních vztahů, postup v zaměstnání a ukončení smluvních pracovněprávních vztahů, přidělování úkolů na základě individuálního chování nebo osobních rysů či charakteristik nebo za účelem sledování a hodnocení výkonnosti a chování osob v rámci těchto vztahů.
Příkladem využití takových technologií v náborovém procesu může být např. automatizované vyhledávání, kdy UI může rychle prohledávat velká množství dat a identifikovat kandidáty na základě určitých kritérií, analýza sociálních médií uchazečů či zaměstnanců, extrahování klíčových informací z životopisů a motivačních dopisů, využití chatbotů pro interakci s kandidáty či testování dovedností.
Využití systémů UI k monitoringu zaměstnanců se jeví být kontroverzní, neboť může potenciálně také podstatně zasáhnout do práv a soukromí zaměstnanců. Umělá inteligence může v tomto ohledu sloužit například k analýze výkonnosti (sledování času stráveného na určitých úkolech a identifikace vzorců v práci), analýze chování na pracovišti - např. k detekci neobvyklých vzorců chování, které může naznačovat únavu, stres nebo další faktory ovlivňující výkon, k monitoringu komunikace, zajištění bezpečnost na pracovišti či predikci odchodu zaměstnanců ze společnosti.
Takové systémy bude možné využívat pouze pokud budou splňovat všechny požadavky na vysoce rizikové systémy stanovené Aktem o UI (viz pravidla nastíněná v odst. 2 výše). Mimo to však bude nutné dodržovat i specifická pravidla pro ochranu osobních údajů (na úrovni EU GDPR) a ochranu osobnosti (v ČR zejm. Občanský zákoník a Listina základních práv a svobod).
Právo na informace, konzultace a BOZP ve vztahu k psychickému zdraví
Vedle GDPR lze ze stávajících přepisů EU ve vztahu k ochraně zaměstnanců před potenciálně negativními vlivy UI využít také Směrnici Evropského parlamentu a Rady 2002/14/ES ze dne 11. března 2002, kterou se stanoví obecný rámec pro informování zaměstnanců a projednávání se zaměstnanci v Evropském společenství. Tato směrnice zakotvuje právo na informace a konzultace, které lze uplatnit například v případě, kdy by využití UI nebo jiného algoritmického nástroje mohlo vést k podstatným změnám v organizaci práce[6]. Právo na informace o tom, jak fungují automatizované systémy bude také nově zakotveno ve Směrnici Evropského parlamentu a Rady na ochranu práv pracovníků platforem (zatím ve fázi návrhu).
Již podle současných pravidel měli zaměstnavatelé při zavádění UI na pracovišti také provádět hodnocení rizik s cílem zajistit bezpečnost a ochranu zdraví při práci („BOZP“). BOZP se tradičně přezkoumává zejména ve vztahu k fyzickým rizikům hrozícím z uspořádání parametrů pracoviště a pracovních procesů. Zapojení UI však může mít podstatné dopady i do psychosociální oblasti s ohledem na zcela nové uspořádání výkonu práce. Jelikož pod ochranou zdraví musíme rozumět i zdraví psychické, je na zaměstnavatelích, aby tato rizika při využití UI posoudili a nepodceňovali. Výše zmíněný návrh Směrnice na ochranu práv pracovníků platforem již v tomto ohledu na psychické zdraví pamatuje a vyžaduje, aby „digitální pracovní platformy pravidelně monitorovaly a vyhodnocovaly dopad jednotlivých rozhodnutí přijatých nebo podporovaných automatizovanými systémy monitorování a rozhodování na pracovní podmínky. Digitální pracovní platformy budou muset zejména vyhodnocovat rizika automatizovaných monitorovacích a rozhodovacích systémů pro bezpečnost a zdraví pracovníků platforem a zajistit, aby tyto systémy žádným způsobem nevyvíjely nepřiměřený tlak na pracovníky platforem nebo jinak neohrožovaly fyzické a duševní zdraví pracovníků platforem.“[7]
V českém právu se ochrana duševního zdraví jakožto součást BOZP obecně dovozuje zatím poměrně těžko[8], Směrnice na ochranu platforem tak bude v tomto ohledu v případě jejího schválení a transpozice do národního práva jednou z prvních vlaštovek, minimálně ve vztahu k pracovníkům digitálních platforem.
Nové výzvy
Vstup UI do pracovního prostředí vytváří mnohé nové právní otázky. Pracovní právo bude pravděpodobně muset včas reagovat na tyto nové výzvy a zajistit, aby pracovníci byli spravedlivě chráněni. Mnohem více než dříve bude třeba dbát na transparentnost, etiku a dodržování právních norem.
V pracovní oblasti, nově osídlené umělou inteligencí, se jako klíčové jeví zachování lidského rozměru a zajištění, aby UI byla nástrojem pro podporu rozhodování, nikoli náhradou za lidský přístup.
Michaela Vimpelová,
advokátka
PIERSTONE s.r.o., advokátní kancelář
Perlová 371/5
110 00 Praha 1
Tel.: +420 224 234 958
E-mail: michaela.vimpelova@pierstone.com
[1] Viz např. MCKINSEY & COMPANY. Generative AI: How will it affect future jobs and workflows? Online. McKinsey. 2023. Dostupné >>> zde. [cit. 2024-02-20].
[2] Viz např. MCKINSEY & COMPANY. The economic potential of generative AI: The next productivity frontier. Online. McKinsey. 2023. Dostupné >>> zde. [cit. 2024-02-20].
[3] Viz např. BOSTON REVIEW. AI’s Future Doesn’t Have to Be Dystopian. Online. ACEMOGLU, Daron. Boston Review. 2021. Dostupné >>> zde. [cit. 2024-02-20] nebo Online. Scientific Foresight Unit. 2022, roč. 2022, č. 5, s. V. Dostupné >>> zde. [cit. 2024-02-20].
[4] Viz např. Mengmeng Xie, Lin Ding, Yan Xia, Jianfeng Guo, Jiaofeng Pan, Huijuan Wang, Does artificial intelligence affect the pattern of skill demand? Evidence from Chinese manufacturing firms, Economic Modelling, Volume 96, 2021, Pages 295-309, ISSN 0264-9993, >>> zde. (zde) nebo Can we Have Pro-Worker AI? Choosing a path of machines in service of minds. Online. ACEMOGLU, Daron; AUTOR, David a JOHNSON, Simon. 2019, 2023. Dostupné >>> zde. [cit. 2024-02-20].
[6] Online. Scientific Foresight Unit. 2022, roč. 2022, č. 5, s. V. Dostupné >>> zde. [cit. 2024-02-20].
[7] Čl. 7 návrhu Směrnice Evropského parlamentu a Rady na ochranu práv pracovníků platforem, [cit. 2024-02-20]
© EPRAVO.CZ – Sbírka zákonů, judikatura, právo | www.epravo.cz