Nikdo nezná scénář, až umělá inteligence překoná lidskou, varuje vědec. Založil nový obor

Roman Yampolskiy

Roman Yampolskiy Zdroj: Speed School of Engineering

Zatímco nadnárodní společnosti i výzkumné organizace po celém světě pokračují ve vývoji co nejkomplexnějšího systému umělé inteligence, Roman Yampolsky z University of Louisville jde opačnou cestou. Ve svém výzkumu se zabývá možnostmi, jak inteligenci strojů omezit a jakým způsoben novou generaci počítačů zasadit do právních rámců. Také proto, že rozmach superinteligentních zařízení by mohl pro lidskou rasu znamenat problém. „Vypuštění umělé inteligence bez bezpečnostních mechanismů je stejné jako vypuštění viru,“ říká Yamposky, který vystoupil na festivalu Future Port Prague.

V jednom z článků o vás jsem četl přirovnání, že jste takový John Connor, postava ze série filmů Terminátor.

Primárně se totiž zabývám výzkumem toho, jak zajistit, aby byly stroje bezpečné a zabezpečené. Ve filmu je John Connor ten, který se snaží stroje kontrolovat a řešit problémy, kterým v souvislosti se stroji také budeme muset čelit. Navíc je pravda, že filmy o Terminátorovi jsou dobrým studijním materiálem. Lidé totiž rychle pochopí podstatu problému bezpečnosti robotiky.

Takže se také snažíte proti umělé inteligenci bojovat?

Zatím tu není žádná umělá inteligence, proti které bychom bojovat měli. Doufám ale v to, že pomůžu lidem vyvinout takovou umělou inteligenci, která bude obsahovat bezpečnostní pojistky. Nabízí se jedno přirovnání. Když se rozvinul internet, nikdo nebral bezpečnost v potaz, na což nyní doplácíme. Stejná věc platí i pro takzvaný web 2.0 (změna způsobu používání internetu, například jako sociálního nástroje, pozn. red.), se kterým se nyní rovněž pojí mnohé problémy. A já doufám, že se těchto chyb v případě vývoje umělé inteligence vyvarujeme.

Jak?

Od základů je nutné, aby byl systém odolný a pružný proti hackerům, stejně tak aby byl vypracovaný v souladu s uživatelskou zkušeností. U internetu se s tímto mělo začít hned od samého začátku.

Myslíte si ale, že bude možné donutit vývojáře AI, aby opatření přijali?

Oni si musí uvědomit, že je to jejich nejlepší zájem. Už jsme viděli několik projektů, které spustily svou verzi umělé inteligence, ale selhaly. Tím se zhoršila reputace firmy, opustili ji zákazníci, akcionáři přišli o peníze. Když chcete mít úspěšný produkt, musíte ho udělat bezpečný a zabezpečený, tyto věci od umělé inteligence nejde oddělit. Systém se prostě bude muset chovat tak, jak očekáváte. Například, že nezabije svého uživatele nebo neprovede jinou šílenost.

Co tedy nyní vidíte jako hlavní hrozbu?

Ve velmi krátké době budeme mít potíže s předpojatostí a zaujetím systémů umělé inteligence, z toho může plynout například diskriminace. Problémem může být také nezaměstnanost nebo ekonomické problémy, kterým čelíme už nyní. Musíme se ale zaměřovat na problémy, které nás čekají za pět, deset nebo dvacet let, kdy budou systémy mnohem pokročilejší, mnohem schopnější a pro lidi více konkurenční. Nebo dokonce mnohem výkonnější než lidi.

Může pak být problémem, když současní technologičtí giganti budou držet na umělou inteligenci monopol?

Je určitě možné, že se k tomu ti největší hráči dostanou první. Už nyní vidíme, že například Google kontroluje velké množství informací a dat. Na druhou stranu to neznamená, že zde nebude existovat konkurence mezi všemi možnými zeměmi a korporacemi.

Takže si myslíte, že by měly země nějak podobu umělé inteligence regulovat?

To je stále otevřená otázka, kdy musíme zjistit, jak moc by měl stát do této věci vstupovat. Řeší se to také na těch nejvyšších úrovních, vlastní program spustily například Spojené národy, problematikou se zabývá i World Government Summit a plno dalších skupin. Součástí mého výzkumu jsou tak i právní aspekty. Například zda by mělo být legální vypustit umělou inteligenci v situaci, kdy se nedisponuje dostatečnými bezpečnostními mechanismy. Můžeme to totiž přirovnat k vypuštění viru. Takže vidíme, že zde prostor pro regulaci je, ale není zřejmé, jak užitečná bude. Pokud si totiž umělou inteligenci vyrobíte na svém laptopu ve sklepě, žádná regulace se na vás reálně vztahovat nebude. Když ale vytváříte velký projekt, potřebujete infrastrukturu za miliardy dolarů, kterou je možné regulovat.

Uváděl jste příklad internetu, i u něj však v současnosti funguje takzvaný dark web, tedy neveřejná část, kterou je možné využívat k nelegálním aktivitám. Není to budoucí problém umělé inteligence?

Ano, ale jen do té doby, než se umělá inteligence dostane na úroveň lidského mozku. Nicméně už nyní vidíme různé úrovně umělé inteligence, jež se využívají pro odlišné účely.

Co se tedy stane, až umělá inteligence dostane na úroveň té lidské?

Předpovědi ukazují, že umělá inteligence nejen tu lidskou dožene, ale také ji brzy předežene, čímž se stane superinteligentní. Problémem ale je, že už pak nikdo nedokáže předpovědět, co se stane. V podstatě to ale nevypadá nijak slibně, protože může dojít k boji proti lidem. K určení primárních hodnot tak musí dojít nyní, ne později.

Je tak skutečnou hrozbou, že zde vznikne něco jako je „univerzální umělá inteligence“?

V současnosti ji zatím nemáme. Ale probíhají některé výzkumy a přenosová učení, která mohou vést k cíli. Někteří odborníci očekávají, že by k jejímu vzniku mohlo dojít někdy kolem roku 2045, takže nejsme nijak blízko.

Souvisí s tím existenční riziko pro lidskou rasu?

Problémem bude, když takovýmto systémům dáme řídící schopnost. Například v případě nukleárního arzenálu by mohlo dojít k rozpoutání jaderné války, která by znamenala vyhubení značné části lidstva. To platí pro veškeré zbraně, které by se měly na základě umělé inteligence rozhodovat podle svého vlastního uvážení, rozhodně se nejedná o dobrý nápad. Rozhodně byste měli chtít, aby součástí rozhodovacího procesu byl nějaký člověk.

Takže situace, kdy bude dron ovládat přímo nějaký voják, je ideální.

Ano, v tom případě slouží technologie jako nástroj, který je ovládán lidským rozhodováním. Ale pokud by pouze létal po nebi a hledal chlápky s plnovousem, to by rozhodně nebylo dobré řešení.

V roce 2015 jste uvedl nový studijní obor, který jste nazval intelektologie. Jak s tím souvisí?

Je to nový obor, kde navrhujeme, aby se do zkoumání intelektu zapojilo více vědních oborů. Například psychologie umožňuje inteligenci měřit, třeba za pomocí IQ testů. Ale v podstatě nás zajímá vše týkající se inteligence, kromě měření také její detekování, konstrukce nebo kontrola. Všechny možné obory tak mohou těžit z toho, že se výzkum přesune pod jednu střechu, což vidíme i v praxi, kdy právě díky protnutí oborů docházíme vždy k těm nejlepším výsledkům.

Zároveň se zabýváte výzkumem umělé mysli, je vůbec možné ji nějak přirovnat k té lidské?

Některé parametry ano, některé ne. Například nás zajímá, jakou paměť mysl má, jestli je virtuální nebo v cloudu, poté je také možné ji dělit podle schopností, například na lidskou nebo zvířecí, zabývat se můžete také pohlavím mysli. V návaznosti na to pak můžeme přicházet s různými limity umělé inteligence tak, aby se příliš nevyvinula. Zabývali jsme se tím v naší nedávné práci, kdy jsme fenomén pojmenovali „umělá stupidita“. V rámci něj se třeba zabýváme tím, aby stroje měly hranice stejně jako lidé, právě například co do velikosti paměti. Pak je pro nás snadnější takové stroje kontrolovat a hlídat. Občas je totiž výhodou nebýt příliš chytrý, nechcete totiž, aby byl kartáček chytřejší než vy, to by bylo zvláštní.

Proč jsme ještě nedospěli k umělé inteligenci na úrovni té lidské?

Jedním z velkých problémů je přesun znalostí, který se jeví jako komplikovaný. Lidé také dokáží lépe zobecňovat, pokud se například naučím hrát dámu, dokážu odvodit pravidla šachu. Rovněž je možné, že budeme v budoucnu potřebovat větší výpočetní výkon. Je pravdou, že neurověda je největším zdrojem poznatků pro učení strojů.

Kde se bude umělá inteligence nacházet za dvacet let?

Nejspíš se bude pohybovat někde na lidské úrovni, přičemž někteří odhadují, že se tak stane ještě dříve.

Myslíte si tedy, že budete úspěšní v implementaci pravidel pro umělou inteligenci?

Částečně ano, nemyslím si ale, že je zde perfektní řešení, se kterým nebude mít nikdo problém, rozhodně to ale bude bezpečnější.

Roman Yampolsky

Yampolsky pochází původně z Lotyšska, doktorát však získal na univerzitě v Buffalu. V současnosti vede laboratoř kyberbezpečnosti na Katedře počítačového inženýrství a počítačové vědy na Speed School of Engineering, která je součástí University of Lousiville. Yampolsky vydal přes 100 publikací, pravidelně přispívá také do zahraničního tisku. V roce 2015 stál u zrodu nového oboru intelektologie.