Avec la montée en flèche de l’intelligence artificielle, le besoin de puces adaptées à ces applications devient primordial. Bien que Nvidia domine actuellement le marché avec ses propres solutions, des entreprises comme OpenAI ne restent pas inactives. Loin de se contenter de dépendre des fournisseurs existants, OpenAI ambitionne de développer sa propre puce d’ici la fin de l’année, marquant ainsi un tournant significatif dans le secteur.
OpenAI et ses ambitions en matière de puce AI
Selon les informations relayées par Reuters, OpenAI est en pleine phase de conception de son silicium dédié à l’IA. Actuellement, les équipes travaillent sur les dernières modifications avant de passer à la fabrication, une étape prévue dans les mois à venir. TSMC, le géant taïwanais réputé, serait en pole position pour réaliser cette production.
Le processus de tape-out, une étape cruciale du design de puce, peut s’avérer coûteux, atteignant plusieurs millions d’euros. Ce moment clé détermine si la puce sera prête pour une production à grande échelle. Une défaillance de cette première série signifierait un retour à la case départ pour l’ensemble du projet, un risque non négligeable.
Initialement, la puce d’OpenAI sera conçue pour exécuter des modèles IA avec une utilisation limitée. Cependant, son architecture permettra également l’entraînement de modèles plus complexes à l’avenir. En cas de succès, les ingénieurs d’OpenAI envisagent déjà des versions encore plus puissantes de leur technologie.
La réalisation de cette puce offrirait à OpenAI un contrôle accru sur le traitement des données pour l’entraînement des modèles d’IA tout en allégeant leur dépendance vis-à-vis de Nvidia, un acteur incontournable du marché. En parallèle, Apple explore également ses propres solutions en s’associant avec Broadcom pour développer un serveur dédié à des tâches AI.
Il n’est pas surprenant que d’autres géants comme Meta et Microsoft investissent aussi massivement dans l’infrastructure AI. Récemment, un modèle lancé par la start-up chinoise DeepSeek a démontré qu’il est possible de créer des solutions IA puissantes avec des ressources matérielles réduites. Une réalité qui pourrait redéfinir les standards en matière de développement d’IA.
