Během současné války na Blízkém východě jsme viděli, jak se umělá inteligence masově využívá k šíření válečné propagandy. Množství falešného obsahu prudce vzrostlo, přičemž někdy byl zveřejňován i z oficiálních profilů úřadů zemí zapojených do konfliktu, tedy Spojených států, Izraele a Íránu. RTVE s odborníky analyzovala, jak se AI používá k šíření dezinformací a k jakým účelům.
„Obsah vytvořený pomocí umělé inteligence zaznamenal exponenciální nárůst,“ popisuje Lucía Ortiz de Zárateová, profesorka morální filozofie na Autonomní univerzitě v Madridu. Podle ní jej využívá íránská strana, stejně jako Izrael a Spojené státy, a to k velmi rozličným účelům, jako jsou „propaganda, výsměch nebo motivace jedné či druhé strany“.
Jedná se o obsah, který se šíří od začátku války. Brzy ráno 28. února americký prezident Donald Trump potvrdil útok USA koordinovaný s Izraelem. O několik hodin později byla oznámena smrt ajatolláha Alího Chameneího, zatímco na sítích se šířila fotografie nejvyššího vůdce v troskách, vytvořená pomocí umělé inteligence.
Pro Ramóna Salaverríu, profesora žurnalistiky na Univerzitě v Navaře a koordinátora Iberské observatoře digitálních médií (Iberifier), představuje válka s Íránem „vývojovou fázi“ dezinformací: během pandemie přišla „masivní vlna textových dezinformací“, ale už ze své podstaty šlo o „velmi málo vizuální fenomén“. Během ruské války na Ukrajině se rozšířily „grafické dezinformace“ spolu s „manipulací videí a fotografií“, zatímco v tomto konfliktu na Blízkém východě jsou „dezinformace mnohem více spojené s obsahem vytvořeným umělou inteligencí“.
Tal Hagin, výzkumník specializující se na dezinformace a zpravodajství z otevřených zdrojů (OSINT), upozorňuje, že za tímto rozsahem fotografií a videí vytvořených umělou inteligencí stojí pokrok platforem, „který umožňuje vytvářet kvalitnější padělky s nižšími náklady“. Zároveň vyzdvihuje jednu z výzev, které tento fenomén představuje pro fact-checkery (ověřovatele faktů): „Videa vytvořená AI může být obtížné vyvrátit způsobem, který je pro diváka srozumitelný,“ zatímco „stará videa nebo zprávy bez uvedení zdroje lze vyvrátit poměrně snadno“.
Obsah vytvořený umělou inteligencí šířený Izraelem, Íránem a USA
Editorka zpravodajství v Evropské vysílací unii (EBU) Mahsa Aminolahiová považuje válku s Íránem za první válku, v níž se „AI používá v tak velkém měřítku“. Podle ní nejde jen o množství, rozdíl je i v tom, kdo tento obsah šíří: „Nepoužívají ho jen neoficiální účty nebo propagandistické mašinerie, ale objevuje se i v oficiálních zdrojích.“
Připomíná, že izraelský premiér Benjamin Netanjahu zveřejnil video, jehož zvuk byl zmanipulován pomocí umělé inteligence, aby simuloval projev v perštině, jak VerificaRTVE dříve popsala v tomto článku. Příkladů je však více: „Vidíme videa jasně vytvořená pomocí AI, která zveřejnil Bílý dům, a vidíme, že íránské revoluční gardy zveřejňují videa raketových útoků vylepšená pomocí AI“, dodává Aminolahiová. Existuje také případ fotografie zakrváceného dětského batohu, kterou na X zveřejnilo íránské velvyslanectví v Rakousku, aby odsoudilo útok na školu v Minábu.
Lze AI vnímat jen jako další propagandistickou zbraň? „Je naprosto zřejmé, že jakékoli sdělení, které upravíte pomocí AI, aniž byste na to diváky upozornili, se určitým způsobem stává součástí této propagandistické mašinerie,“ říká Aminolahiová. „AI umožňuje různým aktérům konfliktu vytvářet působivější obraz jejich vojenské síly,“ dodává.
Když uživatelé internetu považují videa vytvořená AI za skutečná
Šíření a popularizace videí vytvořených umělou inteligencí vede uživatele k pochybnostem i o obsahu, který je skutečný. To se stalo i v případě nepravdivého tvrzení, že Benjamin Netanjahu je mrtvý. Izraelský premiér v posledních týdnech veřejně vystupoval a zveřejňoval videa na svých sociálních sítích, přesto uživatelé trvají na tom, že je mrtvý a že zveřejněný obsah vytvořila AI. „Myslím, že AI se obecně využívá k šíření konspiračních teorií a umožnila, aby se konspirace o Netanjahuově smrti rozšířila mnohem více, než by tomu bylo ještě před rokem,“ vysvětluje Tal Hagin.
Podle Ramóna Salaverríi tyto falešné narativy ukazují, že „v mnoha případech má větší váhu to, čemu lidé chtějí věřit, než samotné empirické důkazy“, protože „někteří lidé se cítí pohodlněji s dezinformacemi, které jim dávají za pravdu, než s informacemi, jež jejich postoje zpochybňují“. Mahsa Aminolahiová vysvětluje, že „na íránské straně lidé režimu natolik nedůvěřují, že když oficiální fotografové pořídí snímky americko-izraelského útoku na civilní místa v Íránu a jsou na nich vidět zranění lidé, mnohé komentáře zpochybňují, zda nebyly vytvořeny pomocí AI“.
V jiných případech matou uživatele samotné nástroje umělé inteligence, když jsou asistenti chybně používáni jako prostředky k ověřování informací. Umělá inteligence společnosti X Grok například tvrdila, že skutečné záběry útoku na školu v Minábu z 28. února byly pořízeny v Afghánistánu v roce 2021. V jiném případě zašla ještě dál a tvrdila, že video z bombardované budovy v Bejrútu zachycuje valencijské slavnosti Fallas.
„Generativní nástroje umělé inteligence nebo chatboti mají určitou auru, že nejsou kontaminovány lidskou zaujatostí,“ říká profesor žurnalistiky Ramón Salaverría. To je však podle něj „nezbavuje chyb“. Dodává, že se navíc najdou lidé, kteří se za to schovávají a vkládají větší důvěru do AI „než do obsahu, který vyhodnocují a upřednostňují informační profesionálové“. Když se tyto technologie „spletou“, „vznikají nežádoucí situace“.
Sociální síť X pozastavuje účty, pokud neupozorní na obsah vytvořený AI
Dne 3. března, tedy pouhé tři dny po začátku války, oznámila sociální síť X, že pozastavuje možnost monetizace účtů, které bez upozornění zveřejňují videa ozbrojeného konfliktu vytvořená pomocí AI. Oznámil to hlavní produktový ředitel společnosti X Nikita Bier: „V době války je zásadní, aby lidé měli přístup k autentickým informacím z místa dění,“ napsal.
Lucía Ortiz de Zárateová se domnívá, že nedůvěra veřejnosti vůči obsahu vytvořenému AI „souvisí s nedostatky evropské regulace“. Tvrdí, že jakýkoli uměle vytvořený obsah by měl nést „označení, například vodoznaky“. „Pravidla nebo mechanismy, které by měly zajistit, aby občané poznali, zda byl obsah vytvořen AI, nefungují,“ říká. Zároveň se ale domnívá, že i kdyby fungovaly, tento typ narativů zesiluje „krize důvěry v instituce a média“.
Mario Pérez Galindo, RTVE, 7/04/2026 09:37 (GMT+2)
Tento článek byl přeložen za pomocí umělé inteligence.












