Le partenariat Microsoft-OpenAI est-il en péril ? Des analystes s’expriment

Mardi dernier, Microsoft et OpenAI ont été désignés comme défendeurs dans un autre recours collectif pour avoir prétendument enfreint plusieurs lois sur la confidentialité.

Il s’agit du deuxième recours collectif auquel les deux sociétés sont confrontées depuis le début de l’année, marqué par le début de leur partenariat de plusieurs milliards de dollars.

Un dossier déposé auprès d’un tribunal américain accusait les deux sociétés d’utiliser des techniques de moissonnage du Web pour voler des informations privées de millions d’internautes, y compris des enfants, sans leur consentement éclairé ou à leur connaissance, pour former ChatGPT et d’autres modèles d’intelligence artificielle (IA).

Plus tôt cette année, OpenAI a également été accusée d’avoir divulgué la propriété intellectuelle des utilisateurs de ChatGPT, ce qui a conduit un certain nombre d’entreprises à interdire l’utilisation du robot sur le lieu de travail.

Peu de temps après, Microsoft a annoncé Azure ChatGPT, une solution d’entreprise, qu’elle a présentée comme « votre ChatGPT privé », et a en même temps reconnu les lacunes de ChatGPT d’OpenAI dans un message désormais supprimé.

Cela s’est produit alors qu’OpenAI se préparait à publier sa propre version entreprise de ChatGPT.

Les rumeurs d’un fossé entre les deux sociétés ont continué à tourbillonner alors que le directeur général d’OpenAI, Sam Altman, a précisé sur X qu’OpenAI n’utilise pas les données soumises par l’API pour former ou améliorer les modèles à moins qu’un utilisateur ne l’accepte explicitement.

Azure ChatGPT a maintenant été supprimé du référentiel GitHub et Microsoft a nié l’existence d’un « produit connu sous le nom d’Azure ChatGPT », dans une interview avec Analytics India Mag. Mais cela suffisait à révéler une relation compliquée entre les deux sociétés.

Est-ce dramatique ?

La collaboration de Microsoft avec OpenAI était un échange technologique parfait. OpenAI construirait les modèles de base qui alimenteraient les services de Microsoft, et Microsoft prendrait en charge les coûts du nuage sur Azure.

Mais les gaffes d’OpenAI en matière de confidentialité, les coûts informatiques colossaux et les pertes croissantes ont poussé Microsoft à s’éloigner lentement, suggère un rapport d’Analytics India Mag.

« Microsoft est préoccupée par la perception négative actuelle de la sécurité des données d’OpenAI pour les entreprises », note le rapport. « Grâce à l’introduction d’Azure ChatGPT, ils s’efforcent de rétablir la confiance entre les entreprises et d’attirer davantage de clients. Ils ne veulent pas s’associer au nom d’OpenAI sur Azure, c’est pourquoi ils ont mis le nom d’Azure au premier plan. »

Mais il n’y a pas de tension, a expliqué Rowan Curran, analyste principal de Forrester, mais plutôt simplement une attitude du marché à l’heure actuelle, selon laquelle les gens ont une perception négative d’OpenAI alors qu’ils considèrent Microsoft comme un fournisseur de confiance.

Il a ajouté que la perception selon laquelle OpenAI est « une plateforme non sécurisée qui va divulguer toutes vos données n’est tout simplement pas vraie ». Que vous utilisiez les API OpenAI sur Azure ou directement sur OpenAI, vous obtiendrez le même type d’accord de partage de données que celui que vous attendez d’un service gratuit, a-t-il déclaré, soulignant que la mise en place des éléments d’entreprise prendra du temps.

Bien que Microsoft ait supprimé Azure ChatGPT, son projet de vendre une nouvelle version du logiciel de la société de données Databricks pour aider les clients à créer des applications d’IA pour leurs entreprises le placerait cependant à nouveau en concurrence directe avec les offres d’OpenAI, a expliqué Beatriz Valle, analyste technologique de GlobalData. Il en serait de même pour le prochain logiciel collaboratif basé sur l’IA de Microsoft, Copilot, qui concurrencera ChatGPT Premium.

La récente association de Microsoft avec Llama 2 de Meta semble également avoir mis à rude épreuve les relations avec OpenAI, créant un concurrent pour ses modèles fermés.

Mais pour Rowan Curran, cela signifie que Microsoft vient de reconnaître que l’open source va avoir un rôle très important à jouer dans le vaste écosystème de modèles de langage et pour répondre aux besoins de tous ses clients. La famille de modèles Llama, a-t-il ajouté, est l’une des meilleures options disponibles pour les entreprises : un modèle commercialement utilisable qu’elles peuvent exécuter avec un encombrement plus réduit et un matériel plus local.

En outre, Beatriz Valle a noté qu’OpenAI se trouve dans « une position vulnérable en raison des déséquilibres de revenus résultant des dépenses massives liées à l’utilisation de l’infonuagique », mais étant donné qu’elle n’en est encore qu’à ses débuts sur le marché de l’IA générative, il faudra du temps pour évaluer le niveau d’adoption d’offres telles que ChatGPT Enterprise.

Quoi qu’il en soit, la capacité d’OpenAI à transformer son activité en un modèle rentable, a ajouté Rowan Curran, n’a pas autant d’importance, à court terme, que son succès en tant que catalyseur technologique pour Microsoft.

« Il est important de reconnaître qu’une partie de la raison pour laquelle Microsoft investissait dans OpenAI était essentiellement d’intégrer la technologie dans Azure, de sorte que Microsoft n’ait pas nécessairement besoin de développer cette technologie en interne et n’ait pas nécessairement besoin d’hériter de toutes les ressources organisationnelles et du bagage culturel présent dans une grande entreprise », a déclaré Rowan Curran. « Je pense donc que se concentrer uniquement sur la rentabilité d’OpenAI ne tient pas compte du fait qu’ils sont actuellement sur la bonne voie, en tant que catalyseur technologique pour leur partenaire clé en ce moment, qui est Microsoft. »

L’article original (en anglais) est disponible sur IT World Canada, une publication sœur de Direction informatique.

Adaptation et traduction française par Renaud Larue-Langlois.

Ashee Pamma
Ashee Pamma
Ashee est rédactrice pour IT World Canada. Elle a obtenu son diplôme en communication et études médiatiques à l'Université Carleton à Ottawa. Elle espère devenir chroniqueuse après d'autres études en journalisme. Vous pouvez lui envoyer un courriel à [email protected].

Articles connexes

Le monde selon Hinton: Ralentir l’IA n’est pas la solution

Y a huit mois, Geoffrey Hinton, professeur émérite à...

CGI sélectionnée pour la transformation numérique d’un contrôleur aérien britannique

CGI vient d’être sélectionnée pour travailler en collaboration avec NATS, une entreprise britannique de contrôle de la circulation aérienne, pour transformer et moderniser son infrastructure numérique et faire évoluer ses services de circulation aérienne au Royaume-Uni.

Balado Hashtag Tendances, 4 janvier 2024 — Une app Copilot, des iPhones compromis, Google et les applications Android et Adobe n’acquiert pas Figma

Cette semaine : Copilot sur Android et iOS, une attaque de porte dérobée de milliers d’iPhone, Google paie l’amende et assouplit les règles sur les applications Android et Adobe abandonne son projet d’acquérir Figma.

Intel se lance dans l’aventure avec de nouvelles offres centrées sur l’IA

Le lancement d'un produit majeur par Intel Corp. jeudi dernier a prouvé que l'organisation est clairement en plein essor, affirme Denis Gaudreault, directeur national d'Intel Canada, ajoutant qu'il espère que dans quelques années, « les gens écriront des livres sur notre redressement ».

Les protecteurs canadiens de la vie privée publient des principes pour le développement responsable de l’IA

Dans la foulée des directives de cybersécurité pour les systèmes d’IA générative publiées par le gouvernement fédéral, les régulateurs fédéraux, provinciaux et territoriaux de la protection de la vie privée du Canada ont publié leur propre ensemble de lignes directrices liées à la confidentialité.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.