dimanche, décembre 14

  • Les outils permettant de générer des images sont de plus en plus réalistes.
  • La diffusion de ces images sur les réseaux sociaux entraîne parfois l’intervention des services publics.
  • En Grande-Bretagne, en Inde ou aux États-Unis… les cas concrets se multiplient.

Suivez la couverture complète

L’info passée au crible des Vérificateurs

Impossible d’échapper à ces images générées par des outils d’intelligence artificielle sur les réseaux sociaux ces derniers mois. Le développement d’outils tels que Sora d’Open AI ou Nano Banana de Google ont rendu accessible à n’importe quel internaute la fabrication d’images ultraréalistes. Si la plupart des contenus sont plutôt à des fins de divertissement et n’ont pour objectif principal que de faire des vues sur les réseaux sociaux, d’autres ont parfois des conséquences concrètes.

L’équipe des Vérificateurs vous racontait cette semaine l’histoire incroyable d’une photo d’un pont détruit diffusée dans la nuit du 3 décembre à Lancaster. Un léger séisme avait touché cette ville du nord-ouest de l’Angleterre, et une image montrant une barrière protégeant les rails cassée avait circulé. La société gérant le réseau ferroviaire britannique avait alors jugé nécessaire de suspendre le trafic pour procéder à des vérifications… avant de s’apercevoir que le pont était intact. La photo avait été générée par intelligence artificielle, mais son incidence est bien réelle : 32 trains de voyageurs et de marchandises affectés, et « plusieurs milliers de livres de préjudice » selon la déclaration d’une porte-parole de la Network Rail à la rédaction des Vérificateurs.

Faux léopards et blagues de mauvais goût sur les sans-abris

Les cas concrets où une photo ou une vidéo ont un impact dans la vie réelle sont encore relativement rares. Mais quelques exemples à travers le monde montrent que le réalisme de ces contenus peut affecter les services publics. En Inde, par exemple, il n’est pas rare de voir de vraies images de léopards (nouvelle fenêtre) ou d’autres animaux sauvages (nouvelle fenêtre) déambulant dans les espaces publics et créant la panique. Mais ces derniers mois, plusieurs internautes ont diffusé des images générées par intelligence artificielle montrant de faux félins (nouvelle fenêtre) se balader dans les rues près de chez eux, voire dans des supermarchés (nouvelle fenêtre)

Les agents forestiers doivent ainsi vérifier chaque cas, et parfois se rendre sur place pour finalement constater qu’il n’y a aucun léopard. Suite à un nouvel incident avec une fausse photo générée par IA d’un léopard dans la ville de Vellalore, la Fonction publique forestière indienne a déclaré (nouvelle fenêtre)qu’elle engagerait des poursuites contre les personnes créant ce type d’images.

Ces trois images de léopards dans les rues ou centres commerciaux indiens qui ont circulé ces dernières semaines ont été générées par IA. – Réseaux sociaux indiens

Aux États-Unis, c’est une tendance au mauvais goût à base d’IA qui a entraîné l’intervention de la police : des internautes ont ainsi fait de mauvaises blagues à leurs proches en leur faisant croire que des sans-abris s’étaient introduits dans leurs maisons. Les photos étaient fabriquées à partir de vraies images des domiciles, sur lesquelles des sans-logis ont été ajoutés par des outils d’intelligence artificielle. 

Sur TikTok (nouvelle fenêtre), de très nombreuses vidéos montrent des internautes piéger leur famille avec de telles photos, et filmer leur réaction. Certaines ont été vues jusqu’à 11 millions de fois. La tendance n’a pas fait rire les polices des États du Massachusetts, du Michigan, de New York et du Wisconsin, qui ont toutes publié des communiqués (nouvelle fenêtre) pour expliquer qu’elles avaient non seulement reçu des appels de propriétaires inquiets, mais qu’en plus, dans certains cas, elles avaient dû intervenir pour rien. 

Ces images de sans abris ont été générées par IA dans de vraies images montrant des salons ou des chambres. Elles sont envoyées aux propriétaires des maisons comme un canular. - TikTok
Ces images de sans abris ont été générées par IA dans de vraies images montrant des salons ou des chambres. Elles sont envoyées aux propriétaires des maisons comme un canular. – TikTok

L’émergence de ces images par IA change également l’approche des services publics, qui doivent procéder à des vérifications complémentaires pour éviter des interventions inutiles. Le service de lutte contre les incendies de forêt de la Colombie-Britannique a par exemple publié un avertissement (nouvelle fenêtre)le 6 août dernier, expliquant que les fausses images de feux de forêt pouvaient « être source de peur et d’anxiété » et nuire à leur travail sur le terrain.

Et en France ? Le ministère de l’Intérieur a indiqué à la rédaction des Vérificateurs ne pas avoir connaissance, à ce stade, d’intervention menée par la Gendarmerie nationale à cause d’une fausse image générée par IA. Ils indiquent que les services de l’État sont équipés d’outils pour détecter ce type de contenus et éviter ainsi des interventions inutiles.

Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse lesverificateurs@tf1.fr. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.

Alexandre CAPRON

Share.
Exit mobile version