Un ingénieur de Google AI mis à pied dans la controverse

Blake Lemoine, un ingénieur principal de logiciel au sein de l’organisation Responsible AI de Google, est en mise à pied administrative au cœur d’une vague de controverses. Il a exprimé sa pensée selon laquelle le LaMDA AI de l’entreprise est, selon ses propres termes, « une personne », avec laquelle il a eu une conversation dans laquelle elle aurait expliqué pourquoi elle devrait être considérée comme « douée de sentiments ».

Image : Getty

Google ne partage pas son opinion. Mais selon le Washington Post, Lemoine aurait été mis à pied non pas pour ses opinions, mais pour avoir violé la politique de confidentialité de la société en travaillant avec des gens de l’extérieur de l’entreprise pour confirmer sa théorie. La veille de sa mise à pied, Lemoine avait remis des documents au bureau d’un sénateur américain en affirmant qu’ils montraient les technologies de l’entreprise faisant de la discrimination religieuse.

Lemoine a expliqué dans son blog personnel qu’il avait volontairement fourni une liste de noms de personnes avec lesquelles il avait discuté du sujet, dont plusieurs travaillaient pour le gouvernement américain et avaient exprimé leur intérêt pour la surveillance fédérale du projet. Google a insisté sur le fait qu’une telle surveillance n’était aucunement nécessaire.

De plus, Lemoine avait invité un avocat pour représenter LaMDA et avait parlé à un représentant du comité judiciaire de la Chambre au sujet d’activités présumées contraires à l’éthique chez Google, a rapporté le Post.

La controverse entoure LaMDA, un acronyme de Language Model for Dialogue Applications. Lancé en 2021, LaMDA est un système d’intelligence artificielle (IA) de traitement du langage naturel (NLP) qui imite les conversations humaines en raison de sa capacité avancée à comprendre les sous-entendus. Contrairement aux chatbots couramment utilisés aujourd’hui dans le secteur du service à la clientèle, LaMDA peut tenir des conversations fluides sur une variété de sujets.

Lors de l’annonce, Google a déclaré que LaMDA adhère à ses principes d’IA et que son équipe de développement s’efforce de minimiser les risques. Les systèmes de PNL de formation peuvent être délicats en raison de la discrimination et du discours de haine intégrés dans les données de formation, qui sont difficiles à filtrer.

Dans une déclaration au Washington Post, Google a déclaré que même si ses systèmes imitent les conversations, ils n’ont pas de conscience. Google a également déclaré que LaMDA avait été examiné par son équipe et qu’il avait été démontré qu’il adhérait aux principes d’IA de l’entreprise.

Pour plus de détails, l’article original (en anglais) est disponible sur le site IT World Canada, une publication sœur de Direction informatique.

Lire aussi :

Google I/O 2022 : De nouvelles fonctionnalités dans Google Workspace

Nouveau laboratoire d’intelligence artificielle à Montréal

Québec lance un appel de projets en matière d’intelligence artificielle

Traduction et adaptation française par Renaud Larue-Langlois

Tom Li
Tom Li
Les télécommunications et le matériel grand public sont les principaux sujets couverts par Tom chez IT World Canada. Il aime parler de l'infrastructure de réseau du Canada, des produits semi-conducteurs et, bien sûr, de tout ce qui est nouveau dans le domaine des technologies grand public. Vous le verrez aussi occasionnellement signer des articles sur les actualités liées à l'infonuagique, à la sécurité et au logiciel en tant que service. Si vous êtes prêt pour une longue discussion sur les nuances de chacun des secteurs ci-dessus ou si vous avez un produit à venir que les gens vont adorer, n'hésitez pas à lui envoyer un message à [email protected]

Articles connexes

Microsoft renforce son partenariat avec OpenAI

Microsoft a annoncé hier qu'elle entamait la troisième phase de son partenariat avec la société d'intelligence artificielle OpenAI, après des investissements en 2019 et 2021.

Balado Hashtag Tendances, 19 janvier 2023 — L’IA écrit des articles, une maison imprimée, le syndicat chez Amazon et une employée démasquée

Cette semaine : Des articles générés par l’intelligence artificielle, une maison imprimée en 3D, la syndicalisation d’un centre Amazon confirmée et une employée démasquée par un logiciel-espion.

Une session d’Info-Tech pour les responsables informatiques va « plus loin que le battage médiatique » autour de ChatGPT

Maintenant que le ChatGPT d'OpenAI est dans le domaine public, les réflexions et les discussions cours tournent autour de l'impact qu'il aura sur la société dans son ensemble et dans l'entreprise.

Lia 27, une intelligence artificielle montréalaise. Menacerait-elle l’avenir des agents de relations publiques ?

Elle se nomme Lia 27 et elle est originaire de Montréal. Elle est une intelligence artificielle dotée de capacités humaines, et elle s'est fait un nom en tant que personne « intelligente, apte et émotionnellement futée ».

Balado Hashtag Tendances, 15 décembre 2022 — ChatGPT, le prochain Twitter, Amazon style TikTok et de très longs tweets

Cette semaine : Le robot conversationnel ChatGPT, des rivaux veulent détrôner Twitter, une fonctionnalité de type Twitter sur Amazon et des tweets beaucoup plus longs.