Les dirigeants des plus grandes entreprises technologiques du pays devraient rejoindre le président Joe Biden à la Maison Blanche vendredi pour officialiser un engagement volontaire selon lequel ils donneront la priorité à la sûreté, à la sécurité et à la transparence alors que leurs équipes développent des logiciels d’intelligence artificielle – une industrie controversée en croissance rapide que le gouvernement fédéral n’a pas encore réglementé.
« Pour tirer le meilleur parti du potentiel de l’IA, l’administration Biden-Harris impose à cette industrie les normes les plus élevées pour garantir que l’innovation ne se fasse pas au détriment des droits et de la sécurité des Américains », a déclaré un responsable de la Maison Blanche aux journalistes avant l’événement. « Les entreprises qui développent ces technologies émergentes ont l’obligation de se comporter de manière responsable et de s’assurer que leurs produits sont sûrs. »
Les entreprises, dont Microsoft, Google, Meta, Amazon, OpenAI, Inflection et Anthropic, ont convenu de s’assurer que leurs produits sont sûrs avant de les présenter au public en testant la sécurité de leurs systèmes d’IA, en les soumettant à des tests externes, en évaluant les risques biologiques et de cybersécurité potentiels et en rendant publics les résultats de ces évaluations.
Ils se sont également portés volontaires pour protéger leurs produits contre les cybermenaces et les menaces internes et pour partager les meilleures pratiques afin de prévenir les abus, de réduire les risques et de protéger la sécurité nationale. En outre, ils ont promis de permettre de savoir facilement si le contenu audio et numérique est dans sa forme originale ou a été modifié ou généré par l’IA, ainsi que d’empêcher les préjugés et la discrimination dans son contenu et de protéger les enfants de tout danger potentiel.
Caricatures politiques
Les logiciels d’intelligence artificielle bousculent les industries de la musique, de l’art et du journalisme avec la capacité de produire des pages de copie écrite lorsqu’on leur donne une invite ainsi que de créer des images, des vidéos et des sons « deep fake » qui manipulent numériquement le contenu existant pour représenter des événements ou des scènes qui ne se sont jamais produits.
L’annonce intervient alors que l’élection présidentielle de 2024 approche à grands pas et qu’aucune réglementation fédérale n’est en place pour lutter contre les fausses cascades politiques générées par l’IA. Les groupes de défense des consommateurs et les campagnes retiennent leur souffle en attendant ce que beaucoup décrivent comme un scénario cauchemardesque dans lequel il devient encore plus difficile pour les Américains d’identifier la désinformation.
Notamment, les engagements de l’entreprise sont volontaires, ce qui signifie qu’il y a peu de responsabilité dans l’annonce. Les responsables de la Maison Blanche ont souligné que les entreprises prévoyaient d’utiliser des composants de vérification externes, y compris la red-teaming de leur logiciel dans lequel un groupe prétend être un ennemi et tente de pirater ou de contrôler le logiciel pour son gain personnel – bien que beaucoup d’entre eux intègrent déjà de telles mesures de sécurité.
« Cela repousse les limites de ce que font les entreprises et élève les normes de sûreté, de sécurité et de confiance de l’IA », a déclaré un responsable aux journalistes.
Plus que de conduire à un changement significatif dans la façon dont l’IA est développée, les accords volontaires représentent une sorte d’espace réservé jusqu’à ce que l’administration soit prête à dévoiler un décret qu’elle a élaboré pour réglementer l’industrie. Les responsables de la Maison Blanche ont déclaré qu’il n’y avait pas de calendrier pour cette action exécutive, mais qu’il s’agissait d’une priorité absolue et qu’elle recouperait plusieurs départements.
Les responsables de la Maison Blanche ont déclaré que Biden travaillait également avec des membres du Congrès des deux côtés de l’allée pour élaborer une législation bipartite qui puisse être adoptée par les deux chambres – une entreprise difficile étant donné le fossé partisan entre la Chambre et le Sénat et le rythme byzantin avec lequel le Congrès a traditionnellement évolué lorsqu’il tentait de légiférer sur la technologie que de nombreux membres ne comprennent certes pas.
Le chef de la majorité au Sénat, Chuck Schumer de New York, a organisé des sessions d’apprentissage obligatoires pour les démocrates et les républicains sur le fonctionnement de l’IA – ses promesses et ses pièges – et sur la manière dont le Congrès pourrait chercher à la réglementer.
« La législation va être essentielle pour établir un régime juridique et réglementaire garantissant la sécurité de ces technologies », a déclaré le responsable de la Maison Blanche. « Ces engagements ne changent pas la nécessité d’une législation et d’autres mesures exécutives de la part du président. »
La Maison Blanche travaille également avec plus d’une douzaine d’autres pays pour développer les meilleures pratiques d’utilisation de l’IA dans le monde.