Evropská komise představila pravidla, která nejspíš nepotěší tvůrce zařízení využívajících umělou inteligenci. Návrh směrnice o odpovědnosti za škodu způsobenou prostředky umělé inteligence (AI) bude pro tyto vývojáře znamenat nová rizika. Pokud jimi vyvinutý dron, samořiditelné vozidlo, anebo třeba hlasový asistent či vyhledávač někomu způsobí škodu, mělo by být daleko snazší po nich vymáhat odškodnění.
„Nová pravidla poskytnou obětem škod způsobených systémy umělé inteligence rovné šance a přístup ke spravedlivému soudnímu řízení a odškodnění,“ řekl v rámci představení návrhu eurokomisař pro spravedlnost Didier Reynders.
Návrh direktivy obsahuje dvě zásadní opatření: vyvratitelnou domněnku příčinné souvislosti a právo na zpřístupnění důkazů. Obojí má usnadnit případný soudní spor o náhradu škody, v němž je třeba dokazovat, že došlo k porušení uložené povinnosti, že vznikla škoda a že mezi příčinou (porušením povinnosti) a následkem (vznikem škody) existuje souvislost (tzv. kauzální nexus). A právě to může být u složitých systémů AI problém.
Obrácené dokazování
Důkazní břemeno dnes leží na poškozeném, a před soudem tak je na něm, aby dokázal, že nebýt chyby výrobce, ke škodě by nedošlo. „Když vás zraní probíjející pračka nebo žehlička, prokázat závadu na elektroinstalaci nebude nic těžkého. Když do vás ale narazí dron, který se vymkne kontrole a nereaguje na pokyny pilota, bude dokazování o dost obtížnější,“ naznačuje advokátka Marie Koričanská z BKS advokáti. Jak pilot, tak výrobce dronu totiž mohou vinu svalovat jeden na druhého a poškozený se může dostat do úzkých, když nebude mít jak prokázat, vůči kterému z nich je jeho nárok oprávněný.
A přesně na podobné případy návrh směrnice cílí. Snižuje důkazní břemeno tím, že ve vyjmenovaných případech nově zavádí fikci, že škodlivý následek umělá inteligence způsobila. Půjde o takzvanou vyvratitelnou domněnku, to znamená, že tvůrce umělé inteligence se bude moci vyvinit, pokud sám prokáže, že na nehodě nemá žádný podíl.
Jedná se o princip obrácení důkazního břemene, který české civilní právo zná například u diskriminačních sporů. Pokud budete svého zaměstnavatele žalovat, že s vámi nerovně zachází, nebudete to vy, kdo bude muset diskriminaci dokázat, ale bude to žalovaná firma, která bude muset prokázat, že k žádným nepravostem nedochází.
„Díky těmto opatřením budou mít oběti účinnou šanci prokázat své oprávněné nároky z odpovědnosti u soudu,“ navrhl eurokomisař Didier Reynders. „Základní právo na přístup ke spravedlnosti se totiž stává účinným teprve tehdy, když mají strany rovné nástroje k tomu, aby se mohly před soudem obhájit.“
Na Twitteru pak podpořil i další příklady využití nové směrnice. Má jít o situace, kdy například dron doručující balík svým nákladem někomu rozbije okno, anebo kdy někoho zraní robotický vysavač.
New EU rules on liability for #ArtificialIntelligence will make it easier for victims to claim compensation for damages in scenarios such as:
— EU Justice (@EU_Justice) September 28, 2022
📦a delivery drone dropping a package in the wrong place & smashing a window
🤖a cleaning robot injuring someone
Learn more ⤵
Soud bude moci nařídit poskytnutí důkazů
I druhá sada pravidel má zjednodušit vymáhání nároku a poškozeným dát přístup k potřebným důkazům. Mají mít možnost soudu navrhnout, aby nařídil zpřístupnění informací o vysoce rizikových systémech AI. Poškozený by tak mohl nahlédnout pod ruce vývojářům a dostat se k cenným podkladům, které mohou ukázat na viníka: mohl by třeba identifikovat osobu, která by mohla být shledána odpovědnou, a zjistit, kde se stala chyba. Na druhou stranu se i na toto zveřejnění bude vztahovat přiměřená záruka na ochranu citlivých informací, jako je obchodní tajemství.
Právník John Buyers, vedoucí oddělení AI u mezinárodní advokátní kanceláře Osborne Clarke, poukazuje na to, že pokud se dokumentace bude moci takto snadno dostat do rukou nespokojených žalobců, ovlivní to způsob, jakým jsou tyto texty psány. „Není pochyb o tom, že přinejmenším u aplikací klasifikovaných jako vysoce rizikové budou tvůrci muset zvažovat, jak zákon dodržet, a přitom ochránit svoje zájmy,“ říká.
Návrh směrnice připouští dosavadní „roztříštěnost pravidel, jakými se jednotlivé členské státy při vyřizování nároků řídí“, a proto je potřebný harmonizovaný právní rámec. Pokud se podíváme na tuzemskou právní úpravu, zrovna tato část evropské direktivy (na rozdíl od prve zmíněného odlehčení důkazního břemene) žádný hmatatelnější užitek nepřináší. Žalující strana má už teď v Česku možnost označit důkaz, který není v jejím držení, a nechat na soudu, aby si ho od žalovaného nebo třetí osoby vyžádal. Předpokládá to však alespoň elementární znalost toho, jaké systémy jsou v zařízení používány a který z nich by mohl být v nepořádku.
Regulace robotů Brusel láká
Návrh směrnice je nejnovějším pokusem evropských úředníků regulovat AI a nastavit standard, podle kterého se budou tyto technologie kontrolovat. Iniciativa přichází v době, kdy je v běhu projednávání návrhu Artificial Intelligence Act (AIA), tedy evropského nařízení, které významně omezí případy, kdy bude možné přistoupit k automatizovanému rozpoznávání obličejů, nasadit systém bodování sociálního statusu, jaký používá třeba Čína, nebo nechat umělou inteligenci rozhodovat o tom, komu udělit víza nebo nárok na sociální dávky.
Loni v dubnu představené evropské nařízení AIA zakazuje ty systémy umělé inteligence, které představují jasnou hrozbu pro bezpečnost, živobytí a práva lidí. Nerespektování pravidel pak znamená hrozbu vysokých pokut, a to až do výše 6 % celosvětového obratu. Pro největší technologické společnosti je toto riziko vyčíslitelné v řádech miliard eur.
Aby bylo možné určit, jak moc které systémy a aplikace škodí, zavádí AIA jejich kategorizaci. Do zakázané skupiny „nepřijatelného rizika“ spadají ty aplikace, které manipulují s lidským chováním s cílem obejít svobodnou vůli uživatelů.
Aplikace ve vysoce rizikové kategorii principiálně vyloučené nejsou, před jejich nasazením je však nutné splnit celou řadu podmínek. Do této skupiny patří sektor vzdělávání, zaměstnanost, finance nebo vymáhání práva. Tím pádem by například program pro třídění životopisů při náboru zaměstnanců nebo systém hodnocení bonity u bankovních úvěrů musely prokázat přesnost a spravedlnost, vést záznamy o všech svých činnostech a mít odpovídající lidský dohled.
Naprostá většina technologií umělé inteligence by ale spadala do kategorie s nízkým rizikem a platila by pro ně mnohem mírnější pravidla. Například chatboti v zákaznickém servisu bank nebo e-shopů by jen měli jednoduše dát najevo, že lidé komunikují se strojem. A jednoduché systémy, například spamfiltery rozřazující došlou poštu na základě strojového učení, by pak neměly omezení žádná.
Artificial Intelligence is a fantastic opportunity for Europe.
— Ursula von der Leyen (@vonderleyen) April 21, 2021
And citizens deserve technologies they can trust.
Today we present new rules for trustworthy AI. They set high standards based on the different levels of risk. pic.twitter.com/EuzaIUBW9i
Za fantastickou příležitost pro Evropu považuje AI předsedkyně Evropské komise Ursula von der Leyen. Podle ní si občané zaslouží technologie, kterým mohou důvěřovat. A proto je nutné stanovit vysoké standardy založené na různých úrovních rizika.