Après avoir investi 1 milliard de dollars dans ChatGPT, le chat virtuel propulsé par une intelligence artificielle, il semble logique que la firme américaine souhaite l’utiliser dans ses produits. Selon les rumeurs les plus récentes, ChatGPT ferait son arrivée dans la suite Office, afin de permettre aux utilisateurs de générer du texte directement dans le programme.
Une autre rumeur indique que Microsoft souhaite intégrer l’intelligence artificielle dans son moteur de recherche Bing. Elle permettrait alors de générer des réponses plus complètes et plus humaines que les algorithmes plutôt froids, utilisés encore aujourd’hui.
Microsoft et OpenAI collaborent pour intégrer ChatGPT
Microsoft a annoncé une collaboration avec OpenAI en 2019. L’entreprise de Redmond a alors investi un milliard de dollars dans OpenAI. La collaboration permettait à OpenAI d’utiliser l’infrastructure Microsoft Azure AI afin d’entraîner GPT-3.5, qui est le cœur du chatbot ChatGPT. Après quelques années de collaboration, Microsoft souhaiterait donc voir un retour sur son investissement.
Selon The Information, les utilisateurs de Microsoft Office auront la possibilité de générer du texte grâce à l’intelligence artificielle. Une fonctionnalité similaire existe déjà dans Office, cependant Microsoft viserait à l’améliorer en y ajoutant la capacité de générer du texte humanisé.
Les ingénieurs et chercheurs de chez Microsoft ont développé plusieurs outils faisant usage de l’intelligence artificielle. Un d’entre eux permet de créer des e-mails et des documents automatiquement. Cependant, un élément clé reste important : la confidentialité des données. Microsoft travaillerait alors d’arrache-pied, afin de s’assurer que les données des utilisateurs ne puissent être exploitées.
L’intelligence artificielle domine les actualités ces derniers mois. ChatGPT a relancé un réel engouement autour du sujet. Le programme a tout de même réussi à plagier un livre pour enfants. Cependant, une chose nous inquiète. La division AI de Microsoft est connue pour déployer des intelligences artificielles corruptibles. Il est important que l’entreprise américaine ne reproduise pas la même erreur qu’avec son bot Tay AI.