Microsoft détaille cinq façons de gouverner l’IA dans un nouveau rapport

Microsoft publiait jeudi dernier un nouveau rapport intitulé « Governance AI: A Blueprint for the Future », détaillant cinq lignes directrices que les gouvernements devraient suivre lors de l’élaboration de politiques, de lois et de réglementations autour de l’intelligence artificielle (IA). Le rapport cherche également à mettre en évidence la gouvernance de l’IA au sein de Microsoft.

La société a été à l’avant-garde de la frénésie de l’IA, publiant une foule de mises à jour basées sur l’IA de ses produits, soutenant le ChatGPT viral d’OpenAI, enrichissant son propre robot Bing avec des fonctionnalités telles que des images et des vidéos et abandonnant la liste d’attente pour sa sortie complète, malgré la tendance infâme du robot pour « halluciner » ou inventer de fausses informations.

Microsoft voit les promesses encore plus grandes de l’IA : de nouveaux remèdes contre le cancer, de nouvelles connaissances sur les protéines, le changement climatique, la lutte contre les cyberattaques et même la protection des droits de l’homme dans les pays touchés par des guerres civiles ou des invasions étrangères.

Il n’y a pas de ralentissement des progrès, mais la pression pour réglementer l’IA est maintenant retentissante alors que les régulateurs du monde entier commencent à enquêter et à réprimer la technologie.

Le président de Microsoft, Brad Smith, a déclaré dans le rapport, « il ne suffit pas de se concentrer uniquement sur les nombreuses opportunités d’utiliser l’IA pour améliorer la vie des gens », ajoutant que les médias sociaux, par exemple, étaient un outil dont les technologues et les commentateurs politiques se sont empressés de parler, mais cinq ans plus tard, est devenu « à la fois une arme et un outil – dans ce cas, visant la démocratie elle-même ».

Les hypertrucages, la modification de contenu existant ou la génération de contenu totalement nouveau presque indiscernable de la « réalité », a noté Smith, sont la plus grande menace de l’IA. « Nous avons vu, par exemple, il y a quelques mois, la circulation massive d’une vidéo synthétique du président américain Joe Biden prononçant un discours transphobe ».

Mais la lutte contre ces maux émergents de l’IA ne devrait pas être la seule responsabilité des entreprises technologiques, a déclaré Smith, en demandant « comment les gouvernements garantissent-ils au mieux que l’IA soit soumise à l’État de droit ? » et « quelle forme les nouvelles lois, réglementations et politiques devraient-elles prendre » ?

Selon Microsoft, les cinq lignes directrices pour régir l’IA sont :

  1. Mettre en œuvre et s’appuyer sur les réussites des cadres de sécurité de l’IA existants et nouveaux dirigés par le gouvernement, notamment le cadre de gestion des risques liés à l’IA élaboré par le National Institute of Standards and Technology (NIST) des États-Unis. Microsoft a proposé les quatre suggestions suivantes pour s’appuyer sur ce cadre.
  2. Créez des freins de sécurité pour les systèmes d’IA qui contrôlent le fonctionnement d’une infrastructure critique désignée. Ils seraient similaires aux systèmes de freinage que les ingénieurs ont intégrés dans les ascenseurs, les bus, les trains, etc. Avec cette approche, le gouvernement classerait les systèmes d’IA à haut risque qui contrôlent des infrastructures critiques et qui pourraient justifier des freins, obligerait les opérateurs à mettre en œuvre le freins et s’assurer qu’ils sont en place avant le déploiement de l’infrastructure.
  3. Créer un nouveau cadre juridique qui reflète l’architecture technologique de l’IA elle-même. À cette fin, Microsoft a inclus des détails sur les éléments critiques qui entrent dans la construction de modèles d’IA génératifs et a proposé des responsabilités spécifiques à mettre en œuvre aux trois couches de la pile technologique – couche applications, couche modèle et couche infrastructure. Pour la couche applicative, la sécurité et les droits des personnes seront la priorité. La couche modèle nécessitera des réglementations impliquant l’octroi de licences pour ces modèles et la couche infrastructure impliquera des obligations pour les opérateurs d’infrastructure d’IA sur lesquels ces modèles sont développés et déployés.
  4. Un rapport annuel sur la transparence de l’IA et un accès élargi aux ressources d’IA pour la recherche universitaire et la communauté à but non lucratif. La recherche scientifique et technologique souffrira à moins que les chercheurs universitaires ne puissent accéder à davantage de ressources informatiques, indique le rapport.
  5. Poursuivre les partenariats public-privé pour utiliser l’IA pour aider à relever les défis sociétaux

Microsoft a également vanté ce que l’entreprise fait en interne pour régir l’IA, notant qu’elle compte près de 350 employés travaillant sur une IA responsable. Elle a ajouté qu’elle a développé des principes éthiques au cours des six dernières années qui se sont traduits par des politiques d’entreprise spécifiques couvrant la formation, l’outillage et les tests de systèmes. De plus, la société a déclaré avoir effectué environ 600 examens de cas d’utilisation sensibles depuis 2019.

L’article original (en anglais) est disponible sur IT World Canada, une publication sœur de Direction informatique.

Adaptation et traduction française par Renaud Larue-Langlois.

Ashee Pamma
Ashee Pamma
Ashee est rédactrice pour IT World Canada. Elle a obtenu son diplôme en communication et études médiatiques à l'Université Carleton à Ottawa. Elle espère devenir chroniqueuse après d'autres études en journalisme. Vous pouvez lui envoyer un courriel à [email protected].

Articles connexes

Le monde selon Hinton: Ralentir l’IA n’est pas la solution

Y a huit mois, Geoffrey Hinton, professeur émérite à...

Balado Hashtag Tendances, 4 janvier 2024 — Une app Copilot, des iPhones compromis, Google et les applications Android et Adobe n’acquiert pas Figma

Cette semaine : Copilot sur Android et iOS, une attaque de porte dérobée de milliers d’iPhone, Google paie l’amende et assouplit les règles sur les applications Android et Adobe abandonne son projet d’acquérir Figma.

Intel se lance dans l’aventure avec de nouvelles offres centrées sur l’IA

Le lancement d'un produit majeur par Intel Corp. jeudi dernier a prouvé que l'organisation est clairement en plein essor, affirme Denis Gaudreault, directeur national d'Intel Canada, ajoutant qu'il espère que dans quelques années, « les gens écriront des livres sur notre redressement ».

Les protecteurs canadiens de la vie privée publient des principes pour le développement responsable de l’IA

Dans la foulée des directives de cybersécurité pour les systèmes d’IA générative publiées par le gouvernement fédéral, les régulateurs fédéraux, provinciaux et territoriaux de la protection de la vie privée du Canada ont publié leur propre ensemble de lignes directrices liées à la confidentialité.

Des pirates abusent d’OAuth pour automatiser des cyberattaques, selon Microsoft

Selon Microsoft, des acteurs malveillants utilisent à mauvais escient les applications basées sur OAuth comme outil d'automatisation d'authentification.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.