En fait, Azur Maia n’est pas un processeur, mais un accélérateur spécialement conçu pour les tâches d’IA. La puce sera essentielle pour faire évoluer les futures versions d’outils comme ChatGPT, car OpenAI et Microsoft, son principal investisseur, ont conclu un accord qui fait de ce dernier le principal fournisseur d’infrastructure informatique.
Les deux puces sont déjà en test et ont été utilisées sur les deux serveurs utilisés par Microsoft Teams (dans le cas d’Azure Cobalt) et GPT 3.5 Turbo (dans le cas d’Azure Maia), bien que la société n’ait pas fourni de données spécifiques pour le moment. chiffres de sa performance. Puisqu’il s’agit d’une puce destinée à sa propre consommation, elle ne concurrencera pas directement sur le marché des solutions similaires de Nvidia et AMD, entre autres. Quoi qu’il en soit, Microsoft continuera également à utiliser les puces de ces sociétés.
BING CHAT EST MAINTENANT CO-PILOTE
Au-delà des nouvelles puces, Microsoft a utilisé l’événement Ignite pour apporter une plus grande cohérence à sa stratégie d’IA, et la plus grande avancée sera de regrouper tous les outils sous un seul nom, CoPilot.
Le branding a déjà été utilisé dans certains outils de l’entreprise, mais identifiera désormais clairement tout service utilisant l’IA générative, y compris l’IA conversationnelle, intégrée au moteur de recherche de l’entreprise et qui était jusqu’à présent connue sous le nom de Bing Chat.
Parallèlement à cette combinaison, Microsoft a lancé Microsoft Copilot Studio, une plateforme qui permet aux entreprises d’adapter Copilot à leurs données et processus, en créant des versions personnalisées et privées de l’intelligence artificielle.