Un exemplu viral pe platforma X a susținut că arată un atac cu rachete asupra unei baze militare israeliene. Totuși, videoclipul era de fapt o înregistrare din ianuarie, provenind dintr-o explozie într-un cazinou din Culiacán, Mexic, conform Il Post.
Postarea a acumulat peste 200.000 de vizualizări în câteva ore, evidențiind viteza cu care se răspândesc astfel de materiale în perioade de criză.
Un alt videoclip, care a strâns milioane de vizualizări, ar fi prezentat bombardamente masive asupra orașului Tel Aviv. Analizele au arătat că imaginile erau generate prin inteligență artificială.
THREAD: Misinformation in the Iran/US/Israel war – 28 February
Aceast videoclip, vizionat de peste cinci milioane de ori, pretinde că arată rachete balistice iraniene deasupra Dubaiului.
Însă clipul este vechi. A fost filmat în octombrie 2024, arătând rachete iraniene lansate spre Tel Aviv la acel moment. pic.twitter.com/8gvTYxMc2d
— Shayan Sardarizadeh (@Shayan86) February 28, 2026
Dezinformarea se intensifică în perioade de conflict
Experți în verificarea informațiilor, inclusiv jurnaliști de la BBC Verify, au observat o creștere semnificativă a materialelor false legate de războiul din Orientul Mijlociu.
Unele videoclipuri conțin imagini reale, dar din alte evenimente sau din alte perioade. De exemplu, un clip distribuit pe scară largă pretindea că arată rachete iraniene pe cerul Dubaiului, dar imaginile proveneau dintr-un atac din 2024 asupra Israelului.
Alte videoclipuri false sunt complet generate prin inteligență artificială, cum ar fi cele care pretind că arată corpul liderului suprem iranian sub dărâmături.
Videoclipuri false: de ce se răspândesc atât de repede
În timpul conflictelor majore, imaginile spectaculoase sau șocante sunt distribuite pe scară largă deoarece captează atenția și emoțiile publicului. De asemenea, atât susținătorii unei tabere, cât și ai celeilalte au interesul de a promova imagini care sugerează succes militar sau distrugeri semnificative.
Platformele sociale contribuie la amplificarea acestui fenomen, întrucât algoritmii favorizează conținutul viral, indiferent de veridicitatea acestuia.
Pe platforma X, simbolul de cont verificat (bifa albastră) nu mai garantează neapărat credibilitatea. Oricine poate obține statutul premium plătind un abonament, iar unele conturi monetizează conținutul viral.
Astfel, utilizatorii sunt încurajați să distribuie materiale spectaculoase, chiar dacă acestea sunt false sau manipulate.
Cum pot fi verificate imaginile
Există diverse instrumente care pot ajuta la verificarea conținutului generat prin inteligență artificială, precum tehnologia SynthID dezvoltată de Google sau platforme specializate în analizarea imaginilor.
Cu toate acestea, chiar și aceste instrumente nu oferă întotdeauna răspunsuri certe. Din acest motiv, specialiștii recomandă verificarea informațiilor din mai multe surse înainte de a distribui imagini sau videoclipuri virale.











