Evropský parlament velkou většinou (499 pro, 28 proti, 93 se zdrželo) v prvním čtení schválil svou verzi Nařízení o umělé inteligenci (AI Act). To má nalinkovat pravidla pro používání AI systémů v Evropě.
Některé používání tzv. umělé inteligence zcela zakazuje. Jde například o systémy využívající podprahové, manipulativní či klamavé techniky pro ovlivnění chování uživatelů, systémy pro tzv. sociální skóring, systémy předpovídající, že někdo spáchá trestný čin nebo systémy pro biometrické sledování lidí na veřejných místech v reálném čase.
AI rozevře nůžky mezi dobrými a špatnými vývojáři. V Netclubu debatovali Michal Pěchouček, Honza Sládek a Jan Macek. Poslechněte si záznam:
Do parlamentní verze nakonec neprošel pozměňovací návrh, který navrhoval výjimku ze zákazu real-time biometrického sledování pro cílené vyhledávání pohřešovaných osob, včetně dětí, prevenci teroristického útoku a stíhání podezřelých ze závažnějších trestných činů (s horní hranicí trestu nad tři roky).
Návrh omezuje také používání biometrické identifikace „zpětně“. Ta má být přípustná jen po předchozím povolení soudu a má se smět používat výhradně pro cílené vyhledávání spojené s konkrétním závažným trestným činem.
„Umělé inteligence bychom se neměli bát, naopak bychom ji měli vnímat jako pozitivní nástroj, který může zlepšit náš život. Výhody vidím například v oblasti výzkumu, zdravotnictví, ale i třeba v oblasti boje proti terorismu nebo při vyhledávání unesených dětí. Určitě potřebujeme nastavit pravidla pro využívání umělé inteligence a být ostražití vůči možným rizikům. Obávám se, že návrh Parlamentu jde ale s některými zákazy příliš daleko. Vadí mi například zákaz používání technologií rozpoznávání obličejů v reálném čase. Nemohu proto hlasovat pro návrh, který by měl negativní dopad na inovace v Evropě,“ řekla k hlasování místopředsedkyně Evropského parlamentu Dita Charanzová (ANO 2011).
Největší riziko AI? Evropa si technologii nechala utéct a teď na ní vydělají Google a Microsoft, řekl v Netclubu Tomáš Mikolov. Poslechněte si záznam:
Nařízení zavádí také kategorii tzv. vysoce rizikových systémů, jejichž tvůrci a dodavatelé mají splňovat řadu nových povinností: například vyhodnocovat rizikovost, získat před uvedením na trh evropskou certifikaci, zajistit na systémy lidský dohled nebo kontinuálně logovat jejich provoz.
Mezi vysoce rizikové systémy má podle návrhu patřit také takzvaný e-proctoring, který využívají i některé školy v Česku. „Jde o programy na kontrolu studentů při zkouškách. Za pomoci vstupů z kamery a mikrofonu systém vyhodnocuje, jestli student nepodvádí. Problém je, že často chybují. Špatně vyhodnotí třeba pohyby studenta se zdravotním postižením, u studenta s tmavou barvou pleti zase může dojít k závěru, že v ruce drží třeba mobilní telefon. Diskriminovat může program i lidi z chudších poměrů, když třeba hluk vycházející ze sdílené místnosti nebo chodby na studentských kolejích vyhodnotí jako konverzaci,“ popisuje europoslanec Marcel Kolaja (Piráti), který zahrnutí e-proctoring do návrhu prosadil.
Další podrobnosti o návrhu najdete v naší dřívější zprávě: Tvůrce AI modelů čekají nové povinnosti, návrh nařízení prošel klíčovými evropskými výbory.
Návrh teď míří do tzv. trialogu, tedy vyjednávání mezi europarlamentem, Radou EU a Evropskou komisí, ze kterého má vzejít jeho finální podoba.