vendredi, septembre 20

Le rappeur américain P. Diddy a été placé en détention provisoire à New York, dans le cadre d’une affaire de trafic sexuel.
Une vidéo relayée en ligne prétend montrer une perquisition réalisée à son domicile par les enquêteurs.
Cette courte séquence n’a rien d’authentique : elle a été générée via un programme informatique qui s’appuie sur l’intelligence artificielle.

Suivez la couverture complète

L’info passée au crible des Vérificateurs

Placé en détention, le rappeur américain P. Diddy, est accusé de trafic sexuel. Il a comparu devant la justice new-yorkaise, où il est accusé par les procureurs d’avoir mis son « empire » au service d’un système violent de trafic sexuel. Dans ce contexte, une vidéo a émergé en ligne : des images présentées comme celles d’une perquisition réalisée par les enquêteurs à son domicile. Une très courte séquence, cinq secondes à peine, sur laquelle on observe des policiers en uniforme dans une salle de bain. On remarque également de nombreux contenants transparents, à l’intérieur desquels se trouve une lotion difficilement identifiable.

Selon cette publication consultée plus de 16 millions de fois sur X, il s’agirait d’huile pour bébé. Des produits qui font écho aux articles parus ces derniers jours dans la presse anglophone. En effet, quelque 1000 flacons d’huile pour bébé et de lubrifiant auraient été retrouvés lors d’investigations menées aux domiciles de l’article, à Los Angeles et à Miami.

Capture X

Une vidéo créée de toutes pièces

La séquence présentée ici n’est pas authentique. Si elle tente de surfer sur l’actualité judiciaire du rappeur, nous sommes ici en présence d’une vidéo qui a été générée via une IA. Plusieurs éléments le trahissent, à commencer par le plus évident : la présence d’un bloc WC sur le côté gauche de la pièce. Sa localisation n’est absolument pas crédible, puisqu’il se trouve juste en dessous d’un lavabo. Une configuration que l’on ne retrouverait pas dans une salle de bain, a fortiori dans un logement luxueux.

Plusieurs éléments nous permettent d'attester que cette séquence n'est pas authentique.
Plusieurs éléments nous permettent d’attester que cette séquence n’est pas authentique. – Capture écran X

Sur l’image ci-dessus, on peut également constater que le reflet visible sur la droite dans le miroir se révèle troublant. Il semble montrer le dessus d’un canapé, sans reproduire fidèlement la partie de la pièce qui lui fait face. Notons par ailleurs que la durée de la vidéo elle-même constitue un indice supplémentaire pour douter de son authenticité. En effet, le risque qu’une IA génère des éléments invraisemblables augmente à mesure que la séquence qui lui est « commandée » est longue. Encore faillibles, les logiciels et outils informatiques qui ont recours à ces technologies ne permettent pour l’heure pas de générer à moindres frais des contenus 100% crédibles.

Alors que les deep fake se perfectionnent et que des IA génératrices d’images (photo) affinent leurs capacités, l’arrivée de programmes capables de concevoir intégralement des vidéos réalistes fait redouter la prolifération de contenus trompeurs, liés à l’actualité. En début d’année, des exemples bluffants avaient ainsi été présentés, laissant entrevoir le potentiel futur des intelligences artificielles en matière de génération d’images animées.

Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse lesverificateurs@tf1.fr. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.


Thomas DESZPOT

Partager
Exit mobile version