Le PDG d’OpenAI témoigne devant le sous-comité judiciaire du Sénat américain et appelle à la réglementation de l’IA

Des experts en intelligence artificielle (IA), dont le développeur de ChatGPT et un responsable de la confidentialité chez IBM, ont appelé le gouvernement américain à réglementer l’industrie, notamment en créant éventuellement une agence de surveillance internationale, pour s’assurer que la technologie naissante est contrôlée. 

« Nous pensons que les avantages des outils que nous avons déployés jusqu’à présent l’emportent largement sur les risques », a déclaré Sam Altman, PDG du développeur de ChatGPT, OpenAi, lors d’une audience du comité du Sénat américain ce matin. Mais, a-t-il ajouté, « si cette technologie tourne mal, ça pourrait aller très mal ». 

Les États-Unis « pourraient envisager une combinaison d’exigences en matière de licences et de tests pour le développement et la publication de modèles d’IA au-dessus d’un seuil de capacités », a-t-il déclaré. « Les modèles d’IA les plus puissants doivent respecter un ensemble d’exigences de sécurité, ce qui peut nécessiter une coopération mondiale », a-t-il ajouté. 

« Nous pouvons et devons travailler ensemble pour identifier et gérer les inconvénients potentiels afin que nous puissions tous profiter des énormes avantages. » 

Gary Marcus, professeur de psychologie et fondateur de plusieurs sociétés d’IA, qui craignait que les criminels « ne créent des personnes contrefaites », a déclaré que jusqu’à présent, nous ne savons pas si les avantages de l’IA l’emporteront sur les risques. « Fondamentalement, ces nouveaux systèmes seront déstabilisants », a-t-il déclaré. « Ils peuvent et vont créer des mensonges déstabilisants à une échelle que l’humanité n’a jamais vue auparavant. » 

« Nous avons probablement besoin d’une organisation au niveau du cabinet aux États-Unis pour résoudre ce problème. Mon raisonnement est que le nombre de risques est important, la quantité d’informations à suivre est tellement importante, je pense que nous avons besoin de beaucoup d’expertise technique, nous avons besoin de beaucoup de coordination de ces efforts. » 

En plus de cela, il a suggéré la création d’une organisation internationale de sécurité de l’IA similaire au CERN, l’organisation européenne pour la recherche nucléaire. Des chercheurs indépendants devraient superviser les essais cliniques des systèmes d’IA avant qu’ils ne soient rendus publics, a-t-il déclaré. 

Christina Montgomery, responsable de la confidentialité et de la confiance chez IBM, a déclaré que la société exhorte le Congrès à adopter « une approche de réglementation de précision pour l’IA ». Cela signifie établir des règles pour régir le déploiement de l’IA dans des cas d’utilisation spécifiques, et non réglementer la technologie elle-même. Cela signifierait créer les réglementations les plus strictes pour les cas d’utilisation présentant les plus grands risques pour les personnes ; définir clairement les risques élevés ; assurer la transparence afin que les consommateurs sachent quand ils interagissent avec un système d’IA ; et obliger les entreprises à mener des évaluations d’impact pour les systèmes à haut risque afin de montrer leurs performances par rapport aux tests de partialité. 

Tous les trois témoignaient devant le sous-comité judiciaire du Sénat sur la vie privée, la technologie et la loi. L’audience est la première de plusieurs que le sous-comité tiendra sur une réglementation éventuelle des systèmes d’IA aux États-Unis. Plusieurs sénateurs ont déclaré que le Congrès ne devrait pas commettre l’erreur qu’il a commise il y a des années en accordant l’immunité légale aux services informatiques en ligne basés aux États-Unis, tels que les médias sociaux, pour le contenu créé par les utilisateurs. 

Dans son allocution d’ouverture aujourd’hui, le président du sous-comité, le sénateur Richard Blumenthal, a déclaré que le Congrès n’avait pas réussi à prendre le contrôle des médias sociaux « et le résultat est la présence de prédateurs sur Internet, du contenu toxique, l’exploitation des enfants… Maintenant, nous avons l’obligation de le faire avec l’IA avant que les menaces et les risques deviennent réels ». Il a appelé à des « garanties raisonnables », qui, a-t-il ajouté, ne sont pas un fardeau pour l’innovation. 

Le sénateur Blumenthal avait sa propre liste de réglementations fédérales possibles, y compris la transparence (les entreprises d’IA devraient être tenues de tester leurs systèmes, de divulguer les risques connus et d’autoriser l’accès au système aux chercheurs indépendants) ; la création de tableaux de bord des biais similaires aux étiquettes nutritionnelles sur les aliments ; limiter ou interdire l’utilisation de l’IA là où elle pourrait affecter la vie privée et les moyens de subsistance des personnes ; et la responsabilité, ce qui signifie que les entreprises peuvent être légalement responsables des dommages. Ce dernier, a-t-il ajouté, « pourrait être l’outil le plus puissant de tous ». 

« L’industrie de l’IA n’a pas à attendre le Congrès » pour être proactive, a-t-il ajouté. 

Gary Marcus était le plus alarmiste, citant des reportages sur un système d’IA qui conseillait à un jeune de 13 ans comment mentir à ses parents pour partir en voyage avec un inconnu. « Les systèmes actuels ne sont pas transparents », s’est-il plaint, « ils ne protègent pas adéquatement notre vie privée et ils continuent de perpétuer les préjugés. Même leur créateur ne comprend pas entièrement comment ils fonctionnent. Surtout, nous ne pouvons pas garantir à distance qu’ils sont sûrs. L’espoir ici ne suffit pas. Le plan préféré des grandes entreprises technologiques consiste à dire : “Faites-nous confiance”. Mais pourquoi devrions-nous ? Les sommes d’argent en jeu sont ahurissantes ». 

L’audience a également eu lieu 12 jours après que l’administration Biden eut rencontré OpenAI et les PDG d’Alphabet, Anthropic et Microsoft pour discuter des problèmes d’IA. La Maison Blanche a également publié cinq principes pour une utilisation responsable de l’IA. 

Par ailleurs, un comité du Parlement canadien devrait bientôt entamer des audiences sur un projet de loi sur l’IA et le Parlement européen s’est rapproché de la création d’une loi sur l’IA. 

L’audience intervient au milieu d’une division entre les chercheurs en IA et en informatique après le lancement public en novembre dernier de ChatGPT-3 (qui est maintenant à la version 4). Certains ont été éblouis par sa capacité à répondre aux requêtes de recherche avec des paragraphes de texte ou des organigrammes, par opposition aux listes de liens émises par d’autres moteurs de recherche. D’autres, cependant, étaient consternés par les erreurs et l’imagination apparemment folle de ChatGPT, et son potentiel à être utilisé pour aider les étudiants à tricher, les cybercriminels à écrire de meilleurs logiciels malveillants et les États-nations à créer de la désinformation. 

En mars, des experts en IA du monde entier ont signé une lettre ouverte appelant à un arrêt de six mois du développement de systèmes d’IA avancés. Les signataires craignent que « les systèmes d’IA dotés d’une intelligence compétitive humaine puissent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA ». 

Pendant ce temps, un groupe d’experts canadiens a exhorté le Parlement à adopter rapidement la législation proposée par ce pays sur l’IA, arguant que, quelles que soient les imperfections possibles, « le rythme auquel l’IA se développe nécessite désormais une action rapide ». 

Certains problèmes peuvent être résolus sans législation, comme interdire aux employés qui utilisent ChatGPT ou des systèmes d’IA génératifs similaires de charger des données sensibles sur les clients ou l’entreprise dans les systèmes. Samsung a été contrainte d’émettre une telle interdiction. 

Outre le problème de la définition d’un système d’IA — la Loi canadienne sur les données d’intelligence artificielle proposée stipule que « un système d’intelligence artificielle désigne un système technologique qui, de manière autonome ou partiellement autonome, traite des données liées aux activités humaines grâce à l’utilisation d’un algorithme génétique, d’un réseau de neurones, l’apprentissage automatique ou une autre technique afin de générer du contenu ou de prendre des décisions, des recommandations ou des prédictions ». Il y a des questions sur ce que les systèmes d’IA peuvent être autorisés à faire ou interdits de faire. 

Bien qu’il n’y ait pas encore de projet, le Parlement européen a été chargé de créer une loi avec un certain nombre d’interdictions, y compris l’utilisation de systèmes d’identification biométrique à distance « en temps réel » dans les espaces accessibles au public. 

La législation canadienne proposée stipule qu’une personne responsable d’un système d’IA à fort impact – ce qui n’a pas encore été défini – doit, conformément à des réglementations non encore publiées, « établir des mesures pour identifier, évaluer et atténuer les risques de préjudice ou de sortie biaisée qui pourrait résulter de l’utilisation du système ». 

Johannes Ullrich, doyen de la recherche au SANS Technology Institute, a déclaré à IT World Canada qu’il y avait beaucoup de questions concernant la transparence des modèles d’IA. Celles-ci incluent d’où ils obtiennent les données de formation et comment tout biais dans les données de formation affecte la précision des résultats. 

« Nous avons déjà eu des problèmes avec le biais des données de formation dans la reconnaissance faciale et d’autres modèles d’apprentissage automatique », a-t-il écrit dans un courriel. « Ils n’ont pas été bien traités dans le passé. La nature opaque d’un grand modèle IA/AA rend difficile l’évaluation de tout biais introduit dans ces modèles. » 

« Les moteurs de recherche plus traditionnels conduiront les utilisateurs à la source des données, alors qu’actuellement, les grands modèles d’apprentissage automatique sont un peu aléatoires en essayant d’obtenir des sources originales. » 

« L’autre grande question en ce moment concerne les droits de propriété intellectuelle », a-t-il déclaré. Les modèles d’IA ne créent généralement pas de nouveau contenu original, mais ils présentent des données dérivées de travaux existants. « Sans proposer de citations, les auteurs de l’œuvre originale ne sont pas crédités, et il est possible que les modèles aient utilisé des données d’entraînement qui leur étaient propriétaires ou qu’ils n’étaient pas autorisés à utiliser sans référencer la source (par exemple, beaucoup de licences “creative commons” nécessitent ces référence). » 

L’article original (en anglais) est disponible sur IT World Canada, une publication sœur de Direction informatique. 

Adaptation et traduction française par Renaud Larue-Langlois. 

Howard Solomon
Howard Solomon
Actuellement rédacteur pigiste, Howard est l'ancien rédacteur en chef de ITWorldCanada.com et de Computing Canada. Journaliste informatique depuis 1997, il a écrit pour plusieurs publications sœurs d'ITWC, notamment ITBusiness.ca et Computer Dealer News. Avant cela, il était journaliste au Calgary Herald et au Brampton Daily Times en Ontario. Il peut être contacté à [email protected].

Articles connexes

Le monde selon Hinton: Ralentir l’IA n’est pas la solution

Y a huit mois, Geoffrey Hinton, professeur émérite à...

Intel se lance dans l’aventure avec de nouvelles offres centrées sur l’IA

Le lancement d'un produit majeur par Intel Corp. jeudi dernier a prouvé que l'organisation est clairement en plein essor, affirme Denis Gaudreault, directeur national d'Intel Canada, ajoutant qu'il espère que dans quelques années, « les gens écriront des livres sur notre redressement ».

Les protecteurs canadiens de la vie privée publient des principes pour le développement responsable de l’IA

Dans la foulée des directives de cybersécurité pour les systèmes d’IA générative publiées par le gouvernement fédéral, les régulateurs fédéraux, provinciaux et territoriaux de la protection de la vie privée du Canada ont publié leur propre ensemble de lignes directrices liées à la confidentialité.

Lancement de Coveo Relevance Generative Answering

Coveo, un fournisseur montréalais de plateformes d'IA d'entreprise, lance Coveo Relevance Generative Answering, une solution basée sur l’IA qui peut générer des réponses aux requêtes complexes des utilisateurs en tirant parti des grands modèles de langage (GML).

Un accord politique européen ouvre la voie à une loi sur l’IA

L'Union européenne est parvenue à un accord sur la première loi globale sur l'intelligence artificielle au monde. Selon l'Associated Press, les négociateurs du Parlement européen et des 27 pays membres de l’union ont signé vendredi un accord politique provisoire qui facilitera l'adoption de la loi sur l'intelligence artificielle.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.