Víte, s kým si na sociálních sítích píšete? Kalifornie se chystá bojovat s falešnými účty

Zástupci amerického státu Kalifornie navrhli nový zákon, který má pomoci v boji proti internetovým botům. Klíčovou roli proti automatickým účtům na sociálních sítích mají hrát společnosti Facebook a Twitter. 

Takzvaní boti v posledních letech významně ovlivnili dění na internetu. Automatické účty, které se však tváří jako reální uživatelé, je možné si na sítích koupit a využívat je pro rozličné účely. Nejčastěji se hovoří například o jejich aktivitě v průběhu amerických voleb, kdy boti automaticky sdíleli statusy současného amerického prezidenta Donalda Trumpa a tím se kandidátovy myšlenky dostaly k širšímu publiku.

Pokud projde legislativní návrh potřebným procesem, budou muset sociální sítě tyto umělé účty jasně identifikovat a tím zabránit, aby je ostatní uživatelé považovali za skutečné osoby. „Potřebujeme vědět, zda se na síti bavíme s reálnými lidmi, nebo zda jsme manipulováni,“ uvedl pro Bloomberg demokratický senátor Bob Hertzberg, který zákon navrhl.

To však nemusí být tak jednoduché. Kvůli stále se zlepšující technologii automatizace a umělé inteligence je totiž stále složitější falešné účty rozpoznat. Roli v tom hraje i skutečnost, že mnohé účty nejsou automatizovány plně, ale stále mají část úkonů s provozem na starosti reální lidé, což jim dodává autentičnost.

Kalifornie zákon navrhuje z pozice státu, ve kterém sídlí většina amerických technologických firem. Podobné návrhy přitom padaly i ve Washingtonu, konkrétní zákon však v Kongresu na stole není. Problémem vlivu technologií na běžný život se však zabýval minulý roku již takzvaný Honest Ads Act (Zákon o poctivé reklamě), který se zaměřil na regulaci politické reklamy.

Snahy o boj s umělými účty však projevují i samotné sociální sítě. Twitter ve své analýze uvedl, že až 15 procent účtů mohou být takzvaní boti, v reakci na to pak upravil svůj algoritmus, aby mohlo dojít k jejich snazšímu odhalení. Jednotlivé kroky v minulosti představil i Facebook nebo Google.