AI Act v USA nikoho nezajímá, varuje vědec Matyáš Boháček, podle kterého už Evropa není velkým hráčem

Matyáš Boháček

Matyáš Boháček Zdroj: Gedeon Drapak

Sandra Sýkorová
Diskuze (1)

Pomáhal odhalovat deepfakes pro Google DeepMind, nyní upozorňuje na alarmující etická i bezpečnostní rizika AI. Matyáš Boháček studuje počítačovou vědu na prestižní Stanfordově univerzitě a zaměřuje se na umělou inteligenci. Ta se podle něj prolíná do zásadních společenských témat a lidé v jejím výzkumu by proto měli přijmout širší odpovědnost než jen vědeckou. Boháček už nepovažuje Evropu za lídra v oboru, i protože místní regulace na americké technologické giganty nedoléhá, ale stále věří v potenciál starého kontinentu. Mladý vědec, který vystoupil na Moonshot Youth Innovation Summitu, nastínil, že v současnosti na vývoji systémů spolupracuje i s bezpečnostními složkami. 

Jaké nejnovější trendy v AI vás dnes znepokojují? 

Dnes už je AI schopna vytvořit nejenom video nebo audio odděleně, ale vše dohromady, velmi kvalitně a konzistentně. Studia, která produkují oscarové snímky, integrují tyto systémy do produkce. Hranice mezi tím, co vypadá jako reálné, a tím, co je falešné, se naprosto stírá. To není samo o sobě špatně, kdokoliv si díky tomu může doma vytvořit kvalitní krátký film. Ale rizika, ať už politická, dezinformační nebo třeba zneužití, jsou markantní.

Musíme proto přemýšlet jinak o důvěryhodnosti a bezpečnosti na internetu. Platformy to zatím příliš neřeší, protože jejich hlavní motivací je čas uživatelů strávený na síti, který falešný obsah často prodlužuje.

A pak jsou tu takzvaní AI agenti. To jsou samooperující systémy, které permanentně tvoří obsah, pohybují se po stránkách, mají nějaké úkoly. Takových botů je už dnes spousta a obsah, který produkují, roste exponenciálně. A my nejsme schopni to kontrolovat. Jak budovat internet, na který spoléháme, s takovou populací AI botů? To je pro mě velký otazník.

Například filmová studia tedy mají podle vás nedostatečně propracovanou etiku práce s AI?

Etický standard není dostatečný. Ty systémy jsou postavené na stovkách tisíců hodin lidské práce, která nebyla nijak licenčně kompenzovaná nebo ani poptaná. Z mého hlediska je to naprosto neetické, hraničně ilegální a právní systémy nejsou schopné s tím rozumně pracovat. My vezmeme velké množství dat z internetu, trénujeme na nich modely, které jsou potom dopracovávané pro filmy, text nebo jiné modality, a legislativa s tím neumí naložit. 

Ani evropská regulace, jako je třeba AI Act, vám nepřijde dobře nastavená?

Myslím, že není dostatečná a není informovaná tím, jak ty systémy reálně fungují. Propast mezi tvůrci zákonů a vývojáři AI systémů je značná. AI Act je super v tom, že se tomu Evropa věnuje, ale firmy v USA to ve většině případů vůbec nezajímá. Když se dívají na trhy, řeknou si: dobře, Evropa je nám kvůli regulaci uzavřená, to nevadí, máme dál Ameriku, máme Asii. A Evropa se nakonec podvolí, protože my budeme mít dominanci na trhu.

Je potřeba vytvářet podněty, které firmy přimějí se tématem regulace vůbec zabývat. Ty by měly být sladěné s jejich byznys plánem, aby to pro ně bylo zajímavé.

Vnímáte tedy dnes Evropu ještě jako velkého hráče?

Evropa není velkým hráčem. Má potenciál být partnerem Americe, ale dnes jím není.

S ohledem na etické otázky spojené s AI, se kterou pracujete, jak dnes vnímáte svou roli v této oblasti?

Vnímám se teď jako vědec, výzkumník a student, do budoucna snad doktorand. Ale myslím si, že lidé ve vědě, zvlášť v AI, mají odpovědnost daleko širší než jen výzkumnou. Prolíná se to do společnosti, politiky, médií. Jsou lidé, kteří to nereflektují, a chápu to, protože věda tak fungovala dlouho. Ale pokud dneska chceme dělat produktivní a vlivný výzkum v AI, tak to podle mě nelze od těchto témat oddělit.

Spolupracujete v současnosti při vývoji systémů umělé inteligence i s bezpečnostními složkami?

Ano, systémy, které vyvíjíme, vznikají při konzultaci a spolupráci s různými entitami, které je potom uvádějí do praxe. Konkrétní organizace nemůžu uvádět, ale vedeme dialog už dlouho. Některé projekty jsou veřejně komunikované, jiné ne, protože si nemůžeme dovolit šířit informace do všech míst. Sdílíme je velmi strategicky –⁠⁠⁠⁠⁠⁠ s vládními, bezpečnostními i korporátními partnery, podle toho, kde to dává smysl.

Vstoupit do diskuze (1)