Na sociálních sítích se v posledních dnech šíří grafika, která má údajně zachycovat moment, kdy americký zdravotník Alex Pretti drží v ruce střelnou zbraň těsně předtím, než byl při protestech v Minneapolis smrtelně postřelen agentem americké pohraniční služby. Obrázek je vydáván za důkaz, že Pretti představoval bezprostřední hrozbu a snažil se tasit pistoli. Ve skutečnosti však nejde o autentickou fotografii, ale o obraz vygenerovaný umělou inteligencí, který vede k falešným závěrům o průběhu události.

Grafika se objevila nejen na zahraničních profilech na Facebooku a síti X, ale také v česky a slovensky psaných příspěvcích, které přebírají narativ o „ozbrojeném útočníkovi“. Autoři těchto postů tvrdí, že Alex Pretti vyšel z domu s pistolí, vyhledával konflikt s agenty imigrační služby ICE a pokusil se sáhnout po zbrani. Jako klíčový „důkaz“ přitom používají právě zmíněný obraz, na němž má Pretti v ruce černý předmět připomínající pistoli.

Podle dostupných informací však byl tento obraz vytvořen pomocí nástrojů umělé inteligence na základě jedné z rozmazaných videozastávek ze záznamu incidentu. V původním videu, které bylo pořízeno z více úhlů a různými svědky, nejsou detaily ruky ani předmětu v Prettiho dlani čitelné. AI nástroj zde „doplnil“ chybějící informace tím, že je pouze odhadl – nikoli rekonstruoval skutečný stav. Výsledkem je syntetický obraz, který neodpovídá realitě, ale působí přesvědčivě pro diváka, který nezná kontext.

Při bližším zkoumání celé grafiky jsou navíc patrné chyby typické pro AI generované obrazy. V plnější, nekadrové verzi si lze všimnout například postavy zasahujícího agenta bez hlavy a bez rukou, deformované obuvi, kterou algoritmus „zaměnil“ za kameru, nebo levé ruky Alexe Prettieho se špatným počtem prstů. V českých a slovenských příspěvcích je obraz často záměrně oříznut tak, aby tyto nesrovnalosti nebyly viditelné.

Nezávislé analýzy redakcí Associated Press, CBC nebo Lead Stories, které pracovaly s kompletními videozáznamy z místa, přitom dospěly k jednoznačným závěrům. Alex Pretti sice legálně vlastnil střelnou zbraň, tu mu však agenti odebrali ještě předtím, než padl první výstřel. V okamžiku střelby Pretti podle svědeckých záznamů držel v ruce mobilní telefon, nikoli pistoli, a nepokoušel se žádnou zbraň tasit.

Přesto někteří představitelé americké administrativy událost veřejně interpretovali způsobem, který je v rozporu s dostupnými důkazy. Padala tvrzení o údajném úmyslu „způsobit masakr“ či dokonce označení Prettieho za teroristu. Právě tato vyhrocená politická rétorika se následně propsala i do dezinformačních příspěvků na sociálních sítích, kde je AI obraz využíván jako nástroj k dodatečné legitimizaci smrtícího zásahu.

Případ Alexe Prettieho ukazuje, jak snadno lze pomocí umělé inteligence vytvořit vizuálně přesvědčivý, ale zcela nepravdivý „důkaz“, který posiluje jednu z konkurenčních narativních verzí události. V českém informačním prostoru se tak opět setkáváme s jevem, kdy technologická manipulace obrazu nahrazuje fakta a je používána k polarizaci veřejné debaty. U nejasných a emotivních událostí je proto zásadní pracovat s ověřenými zdroji, původními záznamy a upozorňovat na to, že „vylepšený“ obraz z AI není zpřesněním reality, ale její fikcí.


administrator

Jsem šéfredaktor projektu. Narodil jsem se a žiji v Kolíně. Ve svém mládí jsem se angažoval v radikálním levicovém hnutí, což považuji za velkou osobní chybu. Mnoho lidí proto nechápe, proč najednou ověřuji faktické informace. Má odpověď je "právě proto". Válka na Ukrajině a následná islamofobní vlna mi pomohla si uvědomit, že spousta věcí na internetu není pravda. Vím, jak se dezinformace šíří i kdo je vytváří. Znám cílovou skupinu, na kterou jsou dezinformace zaměřeny. Těmito lidmi neopovrhuji a ani si nemyslím, že jsou nesvéprávní jedinci, kterým musíme vše vysvětlovat. Na stranu druhou zásadně odmítám, aby lež byla nazývána jiným názorem.