DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí

DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí

DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí Zdroj: VTM.cz

DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí
DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí
DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí
DeepXplore hledá chyby a nebezpečí v neznámých útrobách hlubokých neuronových sítí
5
Fotogalerie

Vědci vytvořili nástroj pro zkoumání a testování hlubokých neuronových sítí. DeepXplore má za cíl prozkoumat zákoutí chování, které může být značně nebezpečné. S novým nástrojem budou umělé inteligence ještě „dokonalejší“.

 

Vědci z univerzity v Kolumbii a univerzity Lehigh představili systém automatického testování hlubokých neuronových sítí DeepXplore, který se snaží odkrývat dosud neviděné souvislosti a chování uvnitř těchto sítí a odhalit tak jejich chyby, problémy, slabiny či potenciální nebezpečí, které se mohou projevit jen v určitých případech, takže je nelze jednoduše detekovat při standardních testech.

Vzhledem k tomu, že se hluboké neuronové sítě (DNN) začínají používat v rámci umělé inteligence takřka všude, je nový systém testování velkým přínosem pro všechny segmenty.

Hluboké neuronové sítě zažívá za poslední roky obrovský rozmach, především díky tomu, že jsou velmi efektivní v mnoha oblastech, kde doposud vládl lidský mozek. Dočkali jsme se tak opět typických porážek člověka strojem, tentokrát v mnohem náročnějších úlohách (například ve hře Go, rozpoznávání obrazu, zvuku a další) a brzy tak dojde k nahrazení ve velmi „lidských“ dovednostech jako je třeba řízení vozidla a dalších činnostech, které pracují s obrovským množstvím dat i ze spousty senzorů.

Černá skříňka

Problémem hlubokých neuronových sítí je, že jsou uvnitř tak komplikované (generují se dle trénování, nikoli přímo člověkem), že vlastně nevíme, co je uvnitř, respektive proč má daná hluboká neuronová síť takovou či makovou konfiguraci. Pochopitelně jde o komplexní modely, nikoli jednoduché, kde si lze částečně představit například různé váhy rozhodování a podobně. Taková komplexnost je zkrátka pro lidský mozek nepochopitelná.

S používáním těchto sítí tak přichází nebezpečná situace, protože je mnohem těžší predikovat, jak se bude daná umělá inteligence chovat a hlavně, zda se bude chovat správně v nějakém nestandardním případě. Důvodem komplikací je několik, kromě samotných trénovačích algoritmů je to i chyba ve vstupních datech nebo třeba přetrénování.

Tvůrci pochopitelně podrobně testují nové modely, ale není v možnostech otestovat vše a problém se tak týká v různých krajních situacích. A právě na detaily uvnitř sítí se zaměřuje systém DeepXplore alias „whitebox framework“.

Nalezení a odstranění chyby

Najít v takto komplexních sítích logickou chybu je jedna věc, druhou (a možná ještě těžší) je její odstranění. DeepXplore přichází s takzvaným „neuronovým pokrytím“ coby metrikou, kdy se snaží na základě vstupních dat měřit i jednotlivé částí hluboké neuronové sítě a tedy i její chování při různých krajních situacích.

Základní kontrola se provádí ve spojení s několika hlubokými neuronovými sítěmi s mírně odlišnými nastaveními. Díky tomu dochází i ke kontrole konzistence s pomocí diferenciálního testování.

Obrovské množství chyb

Automatizovaný systém je extrémně důležitý, protože chyb je opravdu hodně. Vědci si vzali na paškál snímky ze známých databází MNIST, ImageNet nebo třeba data o virech a pomocí těchto dat trénovali populární hluboké neuronové sítě.

V rámci testování přes DeepXplore našli velmi rychle tisíce různých nestandardních chování, což platí jak pro chybné autonomní řízení (vyhodnocování obrazu), tak i špatnou detekci virů. Celkem bylo otestováno 15 modelů s 132 057 neurony na datech o objemu 162 GB.

Typickou ukázku můžete vidět i na fotografii vozovky, kdy při standardním jasnosti obrazu umělá inteligence správně vyhodnotila, že má zatáčet doleva. V případě nižšího jasu ale nesmyslně začala zatáčet doprava, což potenciálně může znamenat smrt uživatele. Odstranění takových nebezpečných chyb je tak extrémně důležité a aby bylo možné vyzkoušet co možná nejvíce variant všeho, je nutné vše provádět automatizovaně v rámci několika sítí. Nelze si totiž představovat, že se bude člověk ručně probírat každým rozdílem, ale zkrátka jakmile třeba jedna z pěti sítí dá jiný výsledek, s velkou pravděpodobností se jedná o nějakou krajní situaci a ostatní sítě se zachovaly správně.

Robustnější umělá inteligence

Pokud chceme umělé inteligenci dát do rukou doslova vlastní život, je nutné, aby byla neuvěřitelně dobrá a konzistentní. Nerozhodily ji nějaké změny barev nebo nelogické věci, které jsou ke správnému vyhodnocení jednoduché i pro malé děti.

DeepXplore slouží přesně k tomu, aby umělé inteligence byly ještě více testované i zevnitř a jejich robustnost tak byla na stále vyšší úrovni.