OpenAI dépense 700 000 dollars quotidiennement pour maintenir le ChatGPT !

L'IA de ChatGPT coûte cher à OpenAI : jusqu'à 700 000 dollars par jour

OpenAI doit dépenser des sommes considérables pour maintenir ChatGPT et répondre aux besoins de ses utilisateurs. Selon SemiAnalysis, la majeure partie de cette somme est allouée à la maintenance des serveurs nécessaires au fonctionnement de l’infrastructure technologique coûteuse qui rend possible le chatbot.

En effet, pour offrir une expérience de qualité, le chatbot d’OpenAI a besoin d’une grande puissance de calcul pour répondre aux questions posées par chaque utilisateur. D’ailleurs, les analystes estiment que les coûts nécessaires pour faire fonctionner ChatGPT et ses déductions devraient être encore plus élevés avec le modèle GPT-4.

En fin de compte, ces coûts opérationnels dépassent largement les dépenses engagées pour la formation de grands modèles linguistiques comme ChatGPT. Il est donc essentiel pour OpenAI de trouver des moyens de réduire ces coûts sans compromettre la qualité de l’expérience utilisateur.

Microsoft développe une puce d’IA pour accélérer les modèles OpenAI et réduire les coûts

Face à cette situation, Microsoft a décidé de prendre les choses en main et développe actuellement une puce d’IA appelée Athena. Cette puce permettra d’accélérer le développement de modèles puissants comme ChatGPT et GPT4 d’OpenAI tout en réduisant les coûts d’implémentation.

Le projet a démarré dès 2019, mais il a été accéléré depuis la signature d’un accord de collaboration entre Microsoft et OpenAI. En vertu de cet accord, OpenAI utilise exclusivement les serveurs Azure de Microsoft pour exécuter ses modèles IA. En revanche, les modèles IA de Microsoft sont exploités via les GPU Nvidia. Toutefois, les nouvelles puces d’IA d’Athena seront massivement distribuées à partir de l’année prochaine.

A lire :   ChatGPT est maintenant disponible sur WhatsApp

Plus de 300 employés de Microsoft travaillent actuellement sur ce projet de puce d’IA, et les tests sont en cours en interne. Le but ultime est de trouver un moyen de réduire les coûts d’OpenAI et de Microsoft tout en maintenant la qualité de l’expérience utilisateur. Avec cette puce d’IA, les utilisateurs de ChatGPT pourront continuer d’interagir avec le chatbot tout en réduisant les coûts d’OpenAI.