Snímky z války mezi Izraelem a Hamásem názorně a bolestně ukázaly potenciál umělé inteligence jako nástroje propagandy, který se používá k vytváření realistických obrazů krveprolití. Budí soucit, rozhořčení, ale také naštvání těch, kteří fakt, že jde o přibarvení reality, rozpoznají.
„Bude hůř, mnohem hůř, než bude líp,“ řekl Jean-Claude Goldenstein, generální ředitel technologické společnosti CREOpoint se sídlem v San Francisku a Paříži, která využívá umělou inteligenci k ověřování tvrzení na internetu. „Fotky, videa a zvuky: s generativní AI to bude eskalace, jakou jste ještě neviděli,“ dodal.
V některých případech byly fotografie z jiných konfliktů nebo katastrof znovu použity a vydávány za nové. V jiných byly programy generativní umělé inteligence použity k vytvoření snímků od základu nebo ke zhotovení videí ukazujících údajné izraelské raketové údery, tanky projíždějící zničenými čtvrtěmi nebo rodiny, které v sutinách hledají přeživší.
V mnoha případech se zdá, že tyto podvrhy mají vyvolat silnou emocionální reakci tím, že obsahují kojence, děti nebo rodiny.
Propagandisté, kteří takové snímky vytvářejí, jsou cíleně působí na nejhlubší pudy a obavy lidí, uvedl Imran Ahmed, generální ředitel Centra pro potírání digitální nenávisti (CCDH). To je nezisková organizace, která sleduje dezinformace z války. Ať už se jedná o deepfake dítěte, nebo o skutečný obrázek kojence z jiného konfliktu, emocionální dopad na diváka je stejný.
Umělá inteligence je příležitost. Je na nás, zda přinese více užitku než škody |
Čím je obrázek odpornější, tím je pravděpodobnější, že si ho uživatel zapamatuje a bude ho sdílet, čímž nevědomky šíří dezinformaci dál, soudí pozorovatelé.
Programy odhalující AI dezinformace
Každý nový konflikt nebo volební období poskytuje šiřitelům dezinformací nové příležitosti k demonstraci nejnovějších pokroků umělé inteligence. To nutí mnoho odborníků na AI a politologů varovat před riziky v příštím roce, kdy se v několika zemích konají významné volby, včetně USA, Indie, Pákistánu, Ukrajiny, Tchaj-wanu, Indonésie a Mexika.
Po celém světě funguje řada začínajících technologických firem na nových programech, které dokážou rozpoznat deepfakes.
„Další vlna umělé inteligence bude o tom, jak můžeme ověřit obsah, který je tam venku. Jak lze odhalit dezinformace, jak analyzovat text, abychom zjistili, zda je důvěryhodný?“ řekla Maria Amelieová, spoluzakladatelka norské společnosti Factiverse. Ta vytvořila program AI, jenž dokáže skenovat obsah a hledat v něm nepřesnosti nebo zkreslení vnesené jinými programy umělé inteligence.
KOMENTÁŘ: Začlenění AI do akademické práce není volbou, ale nezbytností |
Takové programy by byly bezprostředně zajímavé pro pedagogy, novináře, finanční analytiky a další zájemce o vyvracení nepravd, plagiátů nebo podvodů. Podobné programy jsou vyvíjeny také k odhalování zfalšovaných fotografií nebo videí.
Podle Davida Doermanna, počítačového vědce, který vedl snahu výzkumné agentury amerického ministerstva obrany DARPA reagovat na hrozby pro národní bezpečnost, jež představují obrázky zmanipulované umělou inteligencí, je tato technologie slibná. Ti, kdo AI využívají k podvádění, jsou ale podle něj často o krok napřed.
Doermann uvedl, že bránit se dezinformacím umělé inteligence půjde jen pomocí lepších technologií a účinných zákonných opatření. Nutné budou rozsáhlé investice do programů digitální gramotnosti, které mají uživatelům internetu umožňovat rozlišovat pravdu od fantazie.