Google, Microsoft et d’autres conviennent d’une action volontaire de sécurisation de l’IA

Sept grandes sociétés américaines d’intelligence artificielle, dont Google et Microsoft, ont promis que les nouveaux systèmes d’IA subiraient des tests externes avant d’être rendus publics et qu’ils étiquetteraient clairement le contenu généré par l’IA, a annoncé vendredi le président américain Joe Biden.

« Ces engagements, que les entreprises mettront en œuvre immédiatement, soulignent trois principes fondamentaux : sûreté, sécurité et confiance », a déclaré le président Biden aux journalistes.

– Les entreprises ont l’obligation de s’assurer que leur technologie est sûre avant de la rendre publique, a déclaré Joe Biden. « Cela signifie tester les capacités de leurs systèmes, évaluer leur risque potentiel et rendre publics les résultats de ces évaluations. »

– Les entreprises ont promis de donner la priorité à la sécurité de leurs systèmes en protégeant leurs modèles contre les cybermenaces et en gérant les risques pour la sécurité nationale des États-Unis, et en partageant également les meilleures pratiques et les normes de l’industrie.

– Les entreprises ont convenu qu’elles avaient le devoir de gagner la confiance des gens et de donner aux utilisateurs les moyens de prendre des décisions éclairées – en étiquetant le contenu qui a été modifié ou généré par l’IA, en éliminant les préjugés et la discrimination, en renforçant la protection de la vie privée et en protégeant les enfants contre les préjudices.

– Les entreprises ont convenu de trouver des moyens pour que l’IA aide à relever les plus grands défis de la société – du cancer au changements climatiques – et d’investir dans l’éducation et de nouveaux emplois pour aider les étudiants et les travailleurs à profiter des énormes opportunités de l’IA.

Ces entreprises comprennent également Amazon, Meta, OpenAI, Anthropic et Inflection.

Ces engagements volontaires ne sont qu’une première étape dans l’élaboration et l’application d’obligations contraignantes devant être adoptées par le Congrès américain. La réalisation de la promesse et la minimisation du risque d’IA nécessiteront de nouvelles lois, règles, surveillance et application, selon un document d’information de la Maison Blanche. L’administration continuera de prendre des mesures exécutives et de poursuivre une législation bipartite pour aider l’Amérique à montrer la voie en matière d’innovation et de protection responsables.

« Alors que nous ferons avancer ce programme chez nous, nous travaillerons avec des alliés et des partenaires sur un code de conduite international solide pour régir le développement et l’utilisation de l’IA dans le monde », ajoute le communiqué.

L’accord indique que les entreprises qui prennent cet engagement reconnaissent que les systèmes d’IA peuvent continuer à présenter des faiblesses et des vulnérabilités même après des tests rigoureux. Ils s’engagent à établir des systèmes de primes, des concours ou des prix pour inciter à la divulgation responsable des faiblesses, telles que les comportements dangereux, pour les systèmes concernés, ou à inclure les systèmes d’IA dans leurs programmes de primes de bogues existants.

Il y avait un certain scepticisme après l’annonce. PBS a cité James Steyer, fondateur et PDG de l’association à but non lucratif Common Sense Media, qui a déclaré : « L’histoire indique que de nombreuses entreprises technologiques ne tiennent pas réellement leur promesse volontaire d’agir de manière responsable et de soutenir une réglementation stricte. »

L’article original (en anglais) est disponible sur IT World Canada, une publication sœur de Direction informatique.

Adaptation et traduction française par Renaud Larue-Langlois.

Howard Solomon
Howard Solomon
Actuellement rédacteur pigiste, Howard est l'ancien rédacteur en chef de ITWorldCanada.com et de Computing Canada. Journaliste informatique depuis 1997, il a écrit pour plusieurs publications sœurs d'ITWC, notamment ITBusiness.ca et Computer Dealer News. Avant cela, il était journaliste au Calgary Herald et au Brampton Daily Times en Ontario. Il peut être contacté à [email protected].

Articles connexes

Balado Hashtag Tendances, 4 janvier 2024 — Une app Copilot, des iPhones compromis, Google et les applications Android et Adobe n’acquiert pas Figma

Cette semaine : Copilot sur Android et iOS, une attaque de porte dérobée de milliers d’iPhone, Google paie l’amende et assouplit les règles sur les applications Android et Adobe abandonne son projet d’acquérir Figma.

Google conclut un accord avec le gouvernement du Canada sur le projet de loi C-18

Après des mois de résistance et de rencontres, Google a finalement conclu un accord avec le gouvernement canadien concernant la promulgation du projet de loi C-18, qui devrait entrer en vigueur dans environ deux semaines.

Balado Hashtag Tendances, 30 novembre 2023 — Purge des comptes Google, Pika 1.0, une centrale géothermique pour Google et les effets néfastes des visioconférences

Cette semaine : Google supprime les comptes inactifs, Pika utilise l’IA pour générer des vidéos, Google inaugure une centrale électrique géothermique et les visioconférences comme cause de fatigue.

Partenariat élargi entre CGI et Google pour stimuler l’innovation liée à l’utilisation responsable de l’IA générative

CGI annonce cette semaine l'expansion de son partenariat avec Google pour stimuler l'innovation quant à l'utilisation responsable des technologies issues de l'intelligence artificielle (IA). Le but de ce partenariat est d’aider les clients à accélérer le rendement de leurs investissements dans de nouveaux cas d'utilisation d'IA générative propres à leur secteur d'activité.

Balado Hashtag Tendances, 2 novembre 2023 — OpenAI Preparedness, Google et Anthropic, débâcle de X et faillite de WeWork

Cette semaine : OpenAI se protège contre l’IA, Google investit dans Anthropic, X aurait perdu plus de la moitié de sa valeur et WeWork en faillite.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.