- Une vidéo impressionnante montrant la collision entre un bateau de croisière et un pont est devenue virale. L’incident aurait eu lieu en Norvège.
- En réalité, il s’agit de contenu généré par IA.
Suivez la couverture complète
L’info passée au crible des Vérificateurs
A peine inauguré, déjà effondré ? Sur les réseaux sociaux, la vidéo d’une collision entre un bateau de croisière et un pont est devenue virale. Dans cette publication vue plus de 3,2 millions de fois sur X (nouvelle fenêtre), un internaute assure que cet accident a eu lieu en Norvège. On y voit de nombreuses voitures et des camions traverser le pont avant qu’il ne s’effondre après le contact avec le navire. « Le nombre de victimes n’est pas encore connu »
, indique la légende. Les Vérificateurs se sont penchés sur ces images.
Nous ne retrouvons aucune trace d’un tel accident dans la presse norvégienne ou sur les canaux officiels des autorités du pays. L’incident le plus récent est l’effondrement du pont de Tretten en 2022 (nouvelle fenêtre), sans lien avec une collision et à une échelle beaucoup plus petite. En y regardant de plus près, nous remarquons quelques incohérences visuelles sur la vidéo. Au moment de l’effondrement, le pont ne se brise pas tout à fait. Des ondulations apparaissent dans l’image, comme si une matière malléable bougeait. Ce n’est pas crédible : ce type d’infrastructure est construit avec du béton. Des remorques semblent avancer sans être attachées à un camion et les voitures effectuent des mouvements inhabituels. Tous ces indices sont typiques des images générées par intelligence artificielle (IA).
En effectuant une recherche par image inversée, nous retrouvons la vidéo sur YouTube (nouvelle fenêtre)et sur TikTok (nouvelle fenêtre). Les comptes à l’origine des publications partagent régulièrement des contenus générés par IA, sans l’indiquer, tout comme le compte qui a partagé ces images sur X (nouvelle fenêtre). Dans la vidéo sur TikTok (nouvelle fenêtre), à la fin le logo Grok (nouvelle fenêtre) Imagine apparaît, ce qui suggère que le contenu a été généré avec l’IA d’Elon Musk. Interrogé, le « chatbot » nie avoir généré cette vidéo, même s’il affirme qu’il s’agit bien d’IA. Une réponse à prendre avec des pincettes, car le « chatbot » débite régulièrement des fausses informations. Les Vérificateurs vous en parlaient déjà lors des affrontements en Californie en juin 2025 (nouvelle fenêtre), sur ces images réelles d’enfants gazaouis affamés dont Grok niait l’authenticité en juillet 2025 (nouvelle fenêtre). L’IA d’Elon Musk a même été visée par une enquête (nouvelle fenêtre)après des propos négationnistes sur les chambres à gaz d’Auschwitz.
Les tempêtes et catastrophes naturelles font très régulièrement l’objet de fausses informations alimentées par l’IA. Des comptes dédiés (nouvelle fenêtre) à la création de ce type de contenus existent. Même s’ils ne cachent pas forcément le fait que leurs publications sont générées par IA, ces dernières peuvent être reprises par erreur ou par opportunisme financier. En effet, ces contenus font très souvent le buzz, ce qui rime souvent avec gains financiers sur les réseaux sociaux.
Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse [email protected]. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.









