Učitelka AI výchovy zbavuje umělou inteligenci lidských stereotypů a firmy učí používat ji tak, aby negenerovala víc škody než užitku
Barbora Brabcová, zakladatelka iniciativy AI eticky, pomáhá firmám zvládnout masivní nástup otevřených modelů AI a vyvarovat se diskriminaci a stereotypům při jejich používání. Zároveň pomáhá uživatelům pracovat s umělou inteligencí bezpečně: aby jí zbytečně neprozradili firemní tajemství.
Příběh z pravěku umělé inteligence jako by předznamenal poslání Barbory Brabcové. Společnost Amazon před deseti lety přišla na to, že její tehdy přelomový systém hodnocení nových uchazečů o práci preferuje muže. Trénoval se totiž převážně na historických datech a vyšel z premisy, že když je mužů ve firmě více, znamená to, že jsou lepší než ženy.
V Amazonu tehdy pouhá zmínka „Byla jsem kapitánkou ženského šachového klubu“ přiměla počítačový model k tomu, aby žádost o práci poslal na druhou kolej. „Ale nebyla to chyba AI. Ten nástroj prostě jen postupoval na základě minulých vzorů. A pokud dostal zavádějící vstupní data, byl jimi logicky ovlivněn i výsledek. V naprosté většině je to způsobeno lidským selháním,“ uvádí Barbora Brabcová.
AI má podle ní obrovský potenciál, zároveň však může způsobit víc škody než užitku, pokud ji neuchopíme správně. „Proto je pro mě klíčové šířit osvětu o etice AI. Nejde jen o technologii samotnou, ale o její společenské dopady. Selhání ve firmách i u jednotlivců často nastává, když chybí komunikace a jasná pravidla,“ doplňuje.
Její iniciativa AI eticky, která se zaměřuje na bezpečné a etické využívání umělé inteligence, má za cíl podobným chybám v byznysu i ve společnosti předcházet.
Začalo to nápravou chyb
Směřování Barbory Brabcové k AI začalo už za jejího předchozího působení v nadnárodním korporátu. Analyzovala chyby, jež se kolegům staly, vytvořila jejich databázi a seznam, jak jednu každou napravit, aby se situace neopakovala.
Časem bylo dat tolik, že se pustila do programování nejdříve jednoduché, poté složitější aplikace. Když pak její firma v roce 2019 v důsledku globálních změn svoji pobočku v Česku rušila, napadlo ji odejít na volnou nohu a pokračovat v započaté práci a aplikaci na nápravu chyb přetavit v širší systém, který by nabízela firmám na trhu. Poté co se dozvěděla o nových AI jazykových modelech, všechno secvaklo do jejího stávajícího poslání.
Nejde zdaleka jen o férový přístup k pohlaví, ale třeba i téma politických kampaní. Koneckonců Barbora Brabcová byla jednou z prvních, která předpověděla zneužívání AI právě v téhle oblasti. „Dopadu účelově vygenerovaných fotek a videí do nálady společnosti se docela bojím. Budou stále dokonalejší,“ říká. Česká asociace umělé inteligence, v níž je sama členkou, právě kvůli tomu vydala kodex pro politické strany ohledně využívání AI a požádala jejich zástupce o jeho podpis.
Barbora Brabcová v rámci své mise také programuje nebo nastavuje asistenty, například GPT asistenta Amose pro usnadnění výuky dětí i dospělých. Vyškolila rovněž stovky manažerů ve firmách jako Rohlík, Alza, Notino či CrossCafe. Její jméno v oboru roste podobně rychle jako obliba AI.
AI chat a únik dat
Nejde přitom jen o etiku, ale také bezpečnost používání modelů umělé inteligence. Není to tak dlouho, co společnost Samsung řešila nepříjemný problém. Jeden z vývojářů nahrál citlivý interní kód do ChatGPT, aby s ním dále pracoval. Potíž byla v tom, že data sdílená s chatboty s umělou inteligencí jsou ukládána na serverech vlastněných společnostmi provozujícími službu, jako jsou OpenAI, Microsoft a Google – bez snadného způsobu, jak k nim přistupovat a smazat je. A chatboti se podle nich také učí, aby pak podávali ostatním uživatelům co nejpřesnější výsledky. Vzniklo tak velké riziko úniku citlivých firemních dat.
Podobné to bylo v již zmíněném Amazonu, jen tamní manažeři na to přišli z druhé strany – zadávali úkoly a výsledky jim až nápadně připomínaly interní informace z jejich firmy. Technologický gigant pak vyzval své zaměstnance, aby s ChatGPT nesdíleli žádný kód ani důvěrné informace o společnosti. „Na podobné chyby narážím poměrně často. Firmám chybí formální postup pro používání otevřených modelů. Obecně platí, že není dobré sdílet cokoli, co nechceme, aby se dozvěděl někdo jiný. Platí to u sociálních sítí stejně jako u AI,“ doporučuje Barbora Brabcová.
Je AI na vaší straně?
Řešením, jež mají firmy zvolit, je podle ní vybrat takový model, který se na datech uživatelů netrénuje, zvolit takovou variantu modelu, jež má takový trénink zakázaný, pořídit si řešení v rámci svého vlastního prostředí, případně použít anonymizovaná data.
Stejné je to u osobních dat. „Jsou AI aplikace, které vyloženě tvrdí: ,Já jsem tady za každé situace a vždy na vaší straně,‘ a přitom sbírají data. To je za mě velmi neetické, a dokonce bych si troufla tvrdit že i nelegální,“ varuje před sdílením zdravotních či rodinných situací.
Koneckonců k průšvihu stačí hlas vygenerovaný umělou inteligencí. Hongkongská firma, jejíž jméno úřady neuvedly, přišla o 25 milionů dolarů kvůli podvodu postavenému na zneužití této technologie. Jeden z jejích zaměstnanců dostal podezřelý e-mail, který ho naváděl k převodu částky. Situaci sice vyhodnotil správně, jako phishingový útok, ovšem všechno si rozmyslel po videocallu se svými kolegy. Jak se později ukázalo, jejich tváře i hlasy byly falešné a šlo o druhou fázi podvodu.
AI pro každého
Práce na firemních pravidlech a předvídání, čeho bude AI jednou schopna, jsou pro Barboru Brabcovou nekončící. „Když vystoupím ze své pracovní bubliny, překvapí mě, jak velké množství lidí s AI ještě pořád nepracuje. Bojí se třeba, že jim vezme práci, nebo ji vyzkoušeli a myslí si, že není pro ně. Seznámit je s ní a naučit ji správně používat je velká výzva,“ říká.
Koneckonců ani její první zkušenost s chatbotem AI nebyla kdovíjaká. Nicméně doba, kdy se s ní hádal o tom, že kilo železa je těžší než kilo peří, je už nenávratně pryč.














