ChatGPT je v ohrožení. Evropská unie se ho pokusí svázat pravidly pro umělou inteligenci

Umělá inteligence naplno ukázala svůj potenciál. Teď se jedná o její regulaci.

Umělá inteligence naplno ukázala svůj potenciál. Teď se jedná o její regulaci. Zdroj: Profimedia

V době, kdy bruselští úředníci začali sepisovat Artificial Intelligence Act čili zákon o umělé inteligenci, byla tato technologie záležitostí hrstky zasvěcených. Nyní, téměř o tři roky později, to vypadá zcela jinak. Nástroje, které pokročilou AI zpřístupnily široké veřejnosti, změnily situaci a přiměly evropské politiky k úpravám na poslední chvíli. Poslanci Evropského parlamentu by rádi zkrotili i velké jazykové modely typu ChatuGPT organizace Open AI. 

Pravidla pro vývoj a provozování systémů založených na AI míří do finále. Poté co členské státy loni v prosinci sjednotily svůj přístup a pozici pod taktovkou českého předsednictví, bude o návrhu hlasovat Evropský parlament. Někteří europoslanci by do něj rádi protlačili pravidla, která reagují na ChatGPT.

Základem regulace je rozlišení AI systémů do čtyř kategorií podle rizikovosti. „Během českého předsednictví v Radě EU se podařilo pozici Rady EU dotáhnout k jednomyslné shodě. Vychází z principu, který staví do popředí zájmy člověka a zaměřuje se na míru rizika, jež daný systém AI může lidem způsobit,“ popisuje Michael Rigó z kabinetu ministra Ivana Bartoše, který měl vyjednávání na starosti. 

S vývojem legislativy nebyli spokojení zástupci českého byznysu, podle nichž se na přijetí kompromisu příliš spěchalo. Vadilo jim, že by schválená pravidla mohla brzdit vývoj v členských zemích, což by ve výsledku zvýhodnilo americké a čínské technologické firmy. To potvrzuje i průzkum mezi evropskými startupy zabývajícími se umělou inteligencí. Třetina respondentů uvedla, že by jejich systémy pravděpodobně spadaly do kategorie vysoce rizikových, pro které by platila nejpřísnější pravidla. 

„To je výrazný rozdíl proti pěti až patnácti procentům, s nimiž počítala Evropská komise při posuzování dopadů nařízení. Regulace AI nemůže spočívat pouze v tom, že se z opatrnosti klasifikuje většina aplikací jako vysoce riziková, jak vypadá současný přístup,“ myslí si Ondřej Vykoukal z advokátní kanceláře KroupaHelán. Upozorňuje také na skutečnost, že se seznam vysoce rizikových systémů rozšiřuje. 

Původně měla pravidla předcházet zneužití umělé inteligence, které by mohlo diskriminovat či omezovat Evropany. Příkladem může být skóre sociálního kreditu, které testuje Čína, aby zpřísnila kontrolu obyvatel, nebo rozpoznávání lidí bezpečnostními kamerami v reálném čase. Druhým problémem je, že se vznikající regulace částečně zabývá technologií, která ještě neexistuje, tedy obecnou umělou inteligencí, která by se uměla bez přispění člověka uzpůsobit k plnění nových úkolů. 

„Drtivá většina nových povinností se bude vztahovat na systémy s vysokým rizikem. Jejich poskytovatelé budou povinni zavést robustní a nepřetržitý systém řízení rizik, dodržovat podmínky týkající se kvality tréninkových dat, vytvořit podrobnou technickou dokumentaci nebo zajistit dostatečnou sledovatelnost fungování systému,“ vysvětluje Vykoukal. 

Po vypuštění ChatGPT třetí a dalších generací na veřejnost však vyvstala otázka, zda celou regulaci nehodit do koše a nezačít znovu. Teoreticky by totiž ChatGPT jako velký jazykový model pravděpodobně spadal do nejmírnější regulované kategorie AI systémů, což se některým politikům nelíbí. 

„V době, kdy komise vydala návrh zákona o AI, se o velkých jazykových modelech, jako je ChatGPT, téměř nehovořilo, a proto v původním návrhu takové modely nebyly,“ vysvětluje Rigó. Zároveň podle úřadu vlády Evropská komise nezahrnula podobné systémy do dopadové studie, což je důvod, proč se české předsednictví rozhodlo tyto modely v legislativě nezmiňovat.

„Lze očekávat, že právě problematika velkých jazykových modelů bude jedním z hlavních bodů vyjednávání AI aktu v trialozích s Evropským parlamentem,“ předpokládá Rigó. Přístup české vlády se ani teď nemění.

Nicméně v Evropském parlamentu se rýsuje návrh, který by reagoval právě na rozmach ChatGPT. Podle serveru Euractiv by legislativa mohla určit kategorii základních modelů (Foundations models – pozn. red.), do které by oblíbený jazykový model spadal. Takový systém definuje Stanfordova univerzita jako „model umělé inteligence vycvičený na rozsáhlých datech ve velkém měřítku, který je navržený pro poskytování obecných výstupů a může být přizpůsoben široké škále úloh“.

Z toho by pro vývojáře takových modelů vyplývala nová sada povinností. Mezi ně patří testování a zmírnění předvídatelných rizik pro zdraví, bezpečnost nebo demokracii. Ta rizika, která nelze zmírnit, by měla být zdokumentována. Zároveň by organizace jako Open AI musely vytvořit systém řízení kvality, který by poskytoval příslušné dokumenty až deset let po uvedení na trh. Modely typu ChatGPT by se zároveň musely registrovat v unijní databázi.  

Evropská unie tak stojí před rozhodnutím, které bude mít značný vliv na ekonomický rozvoj. „Zejména pro evropské startupy mohou být tyto povinnosti likvidační a mohou vést k omezení služeb poskytovaných v EU nebo i k přestěhování startupů do USA. Nepřiměřený rozsah povinností může vést také k omezení investic do AI,“ říká Vykoukal. 

Unijní firmy už nyní zaostávají za americkou konkurencí, technologičtí obři v posledních dekádách vznikali výhradně na druhém břehu Atlantiku nebo v Číně. Není výjimkou, že se nadějné evropské, často i české firmy snaží co nejdříve přesunout do Spojených států, kde pro ně panuje přívětivější prostředí. V Česku zároveň působí řada startupů z oboru umělé inteligence, jako jsou Rossum, Resistant AI, Digitoo, Mama AI, Filuta AI nebo Neuron Soundware. 

V Bruselu se tak v blízké době rozhodne i o jejich budoucnosti. Klíčové hlasování v příslušných výborech Evropského parlamentu je naplánované na 26. dubna. „Diskuze o regulaci umělé inteligence v EU začaly již v roce 2018. Od té doby došlo k vývoji AI bezprecedentní rychlostí. Je naprosto klíčové, aby regulace byla natolik flexibilní, že bude reálně efektivní i v roce 2027, kdy se předpokládá konec přechodného období a její finální účinnost,“ dodává Vykoukal.