Equal Pay Day: AI first nefunguje vždy. Firmy by měly začít menšími kroky, radí expertky
- S rozšiřováním umělé inteligence roste i řada nových problémů.
- Od genderových předsudků zabudovaných v jazykových modelech přes „šedou AI“ ve firmách až po deepfaky a oslabování kritického myšlení.
- Zástupkyně TV Nova, Dr. Max i České asociace umělé inteligence se na konferenci Equal Pay Day shodly, že rozhodovat bude to, jak ji lidé nastaví, uhlídají a dokážou používat.
Umělá inteligence nepřebírá jen technické zadání, ale i nedokonalosti společnosti, ze které vyrůstá. Právě proto se podle hostek panelové debaty o umělé inteligenci na březnové konferenci Equal Pay Day nedá mluvit jen o neutrálním nástroji. Naopak je potřeba tlačit na to, aby firmy i vývojáři aktivně potlačovali předsudky, které se do modelů propisují z trénovacích dat.
Lucie Malá, legal specialist Legitas a Legal & Public Affairs Manager v České asociaci umělé inteligence, upozornila, že problém nevznikl až s nástupem AI. „Společnost je špatně genderově nastavená. AI si pouze vzala to, co jsme my,“ řekla. Zároveň ale odmítla rezignaci na argument, že technologie jen odráží realitu. Podle ní by naopak měla existovat snaha dělat systémy lepší, než byla vstupní data, na nichž vznikly. Připomněla i evropský AI Act, který podle ní ukazuje, že zákonodárci už téma rovnosti a nediskriminace vnímají, byť konkrétní řešení zatím často chybí. „Ví se, že ten problém existuje, ale nejsem stoprocentně přesvědčená, že ho aktivně řešíme,“ dodala.
Vedle otázky genderového biasu se řeč stočila i k tomu, jak firmy AI skutečně používají. Kristina Komárková, Business Architect TV Nova, mluvila o tom, že data ani modely by neměly za člověka automaticky rozhodovat. Jejich role je podle ní jiná: zpřesňovat úsudek a zlepšovat intuici. Na příkladu produktových rozhodnutí popsala, že nestačí slepě přijmout výsledek testu nebo doporučení algoritmu. Důležité je pochopit, proč lidský odhad nevyšel a co si z toho vzít pro příště. „Data by neměla sloužit k tomu, aby za nás rozhodovala, ale aby zpřesňovala náš úsudek,“ řekla.

Právě tady se podle ní ukazuje, že umělá inteligence může firmám výrazně pomáhat, ale jen tehdy, pokud ji manažeři nenasazují bezhlavě. V TV Nova se podle Komárkové posouvá pozornost od přístupu „data for AI“ k opačnému gardu, tedy „AI for data“. Jinými slovy: firmy už neřeší jen to, jak připravit data pro modely, ale i to, jak AI využít k odhalování anomálií, chyb a souvislostí v datech samotných.
Varování před přehnanou automatizací
Současně ale zaznělo i varování před přehnanou automatizací. Komárková upozornila, že nedává smysl tlačit umělou inteligenci do každého procesu jen proto, že je to zrovna módní. „Nemá smysl nasazovat AI a automatizaci všude jenom proto, abyste nahradili člověka,“ řekla. Firmy by podle ní měly začínat menšími projekty a ověřovat si jejich skutečný přínos. Namísto velkých revolučních prohlášení o celkové transformaci dává větší smysl postup přes menší řešení, která rychle ukážou, zda nástroj opravdu funguje.

Podobně mluvila i Kateřina Lesch, Group AI Manager Dr. Max. Ta upozornila, že v praxi je velmi časté, že zaměstnanci používají nástroje umělé inteligence ještě dřív, než firma stihne nastavit pravidla. Právě tomu se často říká „šedá AI“. „Low-hanging fruit už je dávno snězené, protože ti lidé už to používají, jenom k tomu nemají policy,“ popsala. Podle Lesch je proto lepší některé nástroje řízeně povolit a doplnit je jasnými interními pravidly než se tvářit, že se ve firmě nic neděje.
V regulovaných odvětvích navíc nejde jen o efektivitu, ale i o bezpečnost a odpovědnost. Lesch zmínila, že například v lékárenství může být rozdíl mezi běžným chatbotem a rizikovým systémem velmi tenký. „Když dám chatbota bez důkladného testování na e-shop a on bude radit babičce, jaké prášky na tlak si má koupit a kolikrát denně je má brát, tak už jsme tam,“ naznačila hranici, za kterou se z pohodlného pomocníka může stát problém s reálnými dopady na zdraví.
Use gap
Z debaty vyplynulo i to, že AI může na jedné straně pomáhat ženám vstupovat do technických profesí, na druhé ale zároveň odhaluje další typ nerovnosti. Panelistky připomněly, že podle některých výzkumů ženy využívají AI méně než muži, což může vytvářet nový „use gap“. Komárková ale zároveň popsala vlastní zkušenost, že právě generativní AI dokáže složité technické věci vysvětlovat srozumitelně a může být vstupní branou pro lidi, kteří se technologií dosud spíš báli.

Lesch k tomu přidala i méně optimistický rozměr. Vedle vyšší efektivity podle ní roste také imposter syndrom a ztráta důvěry ve vlastní úsudek. Lidé si zvykají, že AI připraví e-mail, shrne schůzku nebo vytvoří podklady, a postupně přestávají vnímat, kdy jim nástroj skutečně pomáhá a kdy je spíš otupuje. „Občas se zdá, že ten úkol zrychlí, ale vy potom vůbec nepochopíte, co děláte, a to vás zpomalí,“ upozornila.
Deepfakes a generativní obsah
Silné téma přinesla i část věnovaná deepfakeům a generativnímu obsahu. Lucie Malá připomněla, že od začátku roku v Česku platí nový trestný čin související s deepfake pornem. Ještě důležitější ale podle ní budou nové povinnosti vycházející z AI Actu. „Generativní modely budou mít povinnost do každého obsahu nějak zanést informaci, že je uměle generovaný,“ řekla. Vedle toho má přijít i povinnost označovat deepfaky, tedy obsah, který napodobuje reálné osoby, místa nebo události a tváří se jako pravý. Podle Malé to sice samo o sobě problém nevyřeší, ale může to výrazně pomoct v orientaci v záplavě manipulovaného obsahu.
Hostky debaty na konferenci Equal Pay Day se shodly, že nejde o to používat AI co nejvíc, ale používat ji chytře, bezpečně a s odstupem. Komárková vyzvala publikum, aby se lidé naučili výstupy umělé inteligence rozporovat a ověřovat. Lesch zase doporučila občasný „detox“ a schopnost rozpoznat chvíli, kdy je lepší nástroj vůbec nezapínat. A Malá připomněla, že ani v době AI neplatí, že právo a odpovědnost přestávají existovat. Právě naopak. Čím rychleji technologie postupuje, tím důležitější bude nepřestat u ní přemýšlet jako člověk.

















