Na českých sociálních sítích se na konci října 2025 začalo masově šířit video, v němž muž s ukrajinským přízvukem křičí v supermarketu, že má všechny potraviny zdarma, protože je z Ukrajiny. Doprovodné komentáře obviňovaly uprchlíky z zneužívání české pomoci a vyvolávaly vlnu nenávistných reakcí. Jak ale zjistila agentura AFP, žádný takový incident se nikdy nestal. Video totiž nebylo skutečné – vytvořila ho umělá inteligence pomocí generátoru videí Sora od společnosti OpenAI.
Na záběrech jsou jasně patrné typické chyby projevující se u výtvorů umělé inteligence – nepřirozeně vyhlazená tvář, digitálně působící bunda s umělou nášivkou ukrajinské vlajky i vodoznak s mrkajícím obláčkem, který značí původ z modelu Sora. Analýza zvuku pomocí nástrojů Hiya a Fraunhofer AISEC potvrdila, že i hlas rozčíleného muže byl synteticky vytvořen s 98% pravděpodobností. Video se poprvé objevilo na tiktokovém účtu „CzechStreetsAI“, jehož majitel redakci AFP výslovně sdělil, že veškerý obsah je dílem umělé inteligence.
K šíření falešného videa došlo v situaci, kdy podle průzkumů veřejného mínění část české společnosti pociťuje únavu z dlouhodobé přítomnosti ukrajinských uprchlíků. Z dat Eurostatu vyplývá, že Česká republika přijala od roku 2022 nejvíce ukrajinských válečných běženců v přepočtu na obyvatele v celé Evropské unii. AFP upozorňuje, že podobná dezinformační videa často cílí právě na oslabení solidarity s Ukrajinci a na vyvolávání protiuprchlických nálad.
Co je Sora a jak poznat video vytvořené umělou inteligencí
Sora je nástroj vyvinutý společností OpenAI, který dokáže proměnit textový popis (tzv. prompt) v krátké realisticky působící video. Od září 2025 je dostupná druhá verze tohoto modelu, zatím zatím jen pro omezený okruh uživatelů v Severní Americe. Sora generuje videa dlouhá přibližně deset vteřin a je schopna napodobit přirozený pohyb lidí, světelné odrazy či mimiku obličeje, avšak s určitými vizuálními nedostatky, které lze při pozorném pohledu odhalit.
Mezi typické znaky videí vytvořených Soru či jinými generátory patří nepřirozeně hladká pleť, nesouměrné rysy obličeje, rozmazané nebo deformované objekty na pozadí a uměle působící nápisy nebo loga. U Sory se navíc často objevuje specifický vodoznak – mrkající obláček – který je do záběrů automaticky vkládán. Pro ověření autenticity lze využít také online detektory, které analyzují pixelové chyby, anomálie ve zvuku či nekonzistentní stíny a odlesky.
Základní prevencí proti šíření podobných manipulací je kritické ověřování zdroje a porovnání videa s jinými informacemi. Pokud se záběry objevují pouze na jednom anonymním účtu, chybí jim další nezávislé potvrzení nebo vyvolávají silné emoce, je vhodné být mimořádně opatrný. V případě pochybností lze video nahrát do nástrojů jako InVID-WeVerify, Hive Moderation nebo Reality Defender, které umí rozpoznat syntetický obsah. Dezinformace založené na umělé inteligenci se šíří čím dál častěji – a jejich rozpoznání je proto klíčové pro udržení důvěry ve skutečné zprávy.