Un ingénieur de Google AI mis à pied dans la controverse

Blake Lemoine, un ingénieur principal de logiciel au sein de l’organisation Responsible AI de Google, est en mise à pied administrative au cœur d’une vague de controverses. Il a exprimé sa pensée selon laquelle le LaMDA AI de l’entreprise est, selon ses propres termes, « une personne », avec laquelle il a eu une conversation dans laquelle elle aurait expliqué pourquoi elle devrait être considérée comme « douée de sentiments ».

Image : Getty

Google ne partage pas son opinion. Mais selon le Washington Post, Lemoine aurait été mis à pied non pas pour ses opinions, mais pour avoir violé la politique de confidentialité de la société en travaillant avec des gens de l’extérieur de l’entreprise pour confirmer sa théorie. La veille de sa mise à pied, Lemoine avait remis des documents au bureau d’un sénateur américain en affirmant qu’ils montraient les technologies de l’entreprise faisant de la discrimination religieuse.

Lemoine a expliqué dans son blog personnel qu’il avait volontairement fourni une liste de noms de personnes avec lesquelles il avait discuté du sujet, dont plusieurs travaillaient pour le gouvernement américain et avaient exprimé leur intérêt pour la surveillance fédérale du projet. Google a insisté sur le fait qu’une telle surveillance n’était aucunement nécessaire.

De plus, Lemoine avait invité un avocat pour représenter LaMDA et avait parlé à un représentant du comité judiciaire de la Chambre au sujet d’activités présumées contraires à l’éthique chez Google, a rapporté le Post.

La controverse entoure LaMDA, un acronyme de Language Model for Dialogue Applications. Lancé en 2021, LaMDA est un système d’intelligence artificielle (IA) de traitement du langage naturel (NLP) qui imite les conversations humaines en raison de sa capacité avancée à comprendre les sous-entendus. Contrairement aux chatbots couramment utilisés aujourd’hui dans le secteur du service à la clientèle, LaMDA peut tenir des conversations fluides sur une variété de sujets.

Lors de l’annonce, Google a déclaré que LaMDA adhère à ses principes d’IA et que son équipe de développement s’efforce de minimiser les risques. Les systèmes de PNL de formation peuvent être délicats en raison de la discrimination et du discours de haine intégrés dans les données de formation, qui sont difficiles à filtrer.

Dans une déclaration au Washington Post, Google a déclaré que même si ses systèmes imitent les conversations, ils n’ont pas de conscience. Google a également déclaré que LaMDA avait été examiné par son équipe et qu’il avait été démontré qu’il adhérait aux principes d’IA de l’entreprise.

Pour plus de détails, l’article original (en anglais) est disponible sur le site IT World Canada, une publication sœur de Direction informatique.

Lire aussi :

Google I/O 2022 : De nouvelles fonctionnalités dans Google Workspace

Nouveau laboratoire d’intelligence artificielle à Montréal

Québec lance un appel de projets en matière d’intelligence artificielle

Traduction et adaptation française par Renaud Larue-Langlois

Tom Li
Tom Li
Les télécommunications et le matériel grand public sont les principaux sujets couverts par Tom chez IT World Canada. Il aime parler de l'infrastructure de réseau du Canada, des produits semi-conducteurs et, bien sûr, de tout ce qui est nouveau dans le domaine des technologies grand public. Vous le verrez aussi occasionnellement signer des articles sur les actualités liées à l'infonuagique, à la sécurité et au logiciel en tant que service. Si vous êtes prêt pour une longue discussion sur les nuances de chacun des secteurs ci-dessus ou si vous avez un produit à venir que les gens vont adorer, n'hésitez pas à lui envoyer un message à [email protected].

Articles connexes

Le monde selon Hinton: Ralentir l’IA n’est pas la solution

Y a huit mois, Geoffrey Hinton, professeur émérite à...

Intel se lance dans l’aventure avec de nouvelles offres centrées sur l’IA

Le lancement d'un produit majeur par Intel Corp. jeudi dernier a prouvé que l'organisation est clairement en plein essor, affirme Denis Gaudreault, directeur national d'Intel Canada, ajoutant qu'il espère que dans quelques années, « les gens écriront des livres sur notre redressement ».

Les protecteurs canadiens de la vie privée publient des principes pour le développement responsable de l’IA

Dans la foulée des directives de cybersécurité pour les systèmes d’IA générative publiées par le gouvernement fédéral, les régulateurs fédéraux, provinciaux et territoriaux de la protection de la vie privée du Canada ont publié leur propre ensemble de lignes directrices liées à la confidentialité.

Lancement de Coveo Relevance Generative Answering

Coveo, un fournisseur montréalais de plateformes d'IA d'entreprise, lance Coveo Relevance Generative Answering, une solution basée sur l’IA qui peut générer des réponses aux requêtes complexes des utilisateurs en tirant parti des grands modèles de langage (GML).

Un accord politique européen ouvre la voie à une loi sur l’IA

L'Union européenne est parvenue à un accord sur la première loi globale sur l'intelligence artificielle au monde. Selon l'Associated Press, les négociateurs du Parlement européen et des 27 pays membres de l’union ont signé vendredi un accord politique provisoire qui facilitera l'adoption de la loi sur l'intelligence artificielle.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.