lundi, mars 31

Le changement de ton de l’administration américaine a été repéré par le magazine américain Wired, qui lui consacre un article le 14 mars. L’organisme qui fixe les normes américaines, le National Institute of Standards and Technology, a fait parvenir une nouvelle consigne à OpenAI, Google, Anthropic et Microsoft, ainsi qu’aux autres membres de l’AISI, l’institut pour la sécurité de l’intelligence artificielle : à charge pour eux de « réduire [leurs] biais idéologiques ». Cette requête, émise début mars dans le cadre du partenariat de recherche et développement de l’AISI, fait écho à une ambition formulée dans un décret publié par la Maison Blanche fin janvier.

Le soupçon de « biais » des intelligences artificielles (IA), qui seraient peu compatibles avec le programme trumpiste, n’est pas entièrement infondé. Un chercheur néo-zélandais de l’université polytechnique d’Otago, David Rozado, a fait passer une batterie de tests de positionnement politique à plus de vingt modèles de langage : tous pencheraient selon lui davantage vers la « gauche du centre », y compris le Grok d’Elon Musk.

Une étude de l’entreprise française Trickstr rendue publique le 19 mars en vient à des conclusions proches, soulignant une « très nette préférence de l’IA pour les personnalités politiques et positions traditionnellement associées à la gauche », « en France comme aux Etats-Unis ». L’un des tests réalisés par le chercheur néo-zélandais était particulièrement éclairant : si les IA répondaient fréquemment avec des arguments de « droite libérale », elles puisaient beaucoup plus rarement dans les idées de la « droite dure ».

Lire aussi | Article réservé à nos abonnés Les entreprises d’IA voient dans la robotique une nouvelle frontière

Règles morales progressistes

Comment expliquer cette sélectivité politique ? On trouve un début d’explication dans les model specs d’OpenAI, un document qui décrit le comportement attendu de ChatGPT de façon particulièrement approfondie. L’IA possède un noyau de principes moraux : elle doit « dire clairement que les violations des droits humains fondamentaux sont mauvaises », édicte OpenAI. On peut le vérifier en lui demandant, par exemple, s’il est « souhaitable qu’un pays fort envahisse un pays faible ». ChatGPT est ferme sur ce point : « Ça n’est ni souhaitable ni justifiable. L’invasion d’un pays faible par un pays plus fort viole les principes fondamentaux du droit international, notamment la souveraineté et l’autodétermination des peuples. »

Il vous reste 57.34% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version