OpenAI explore depuis 2025 des alternatives à NVIDIA pour l’inférence, insatisfait de la latence de ses GPU pour les tâches temps-réel. L’entreprise cible environ 10 % de sa capacité future auprès de Cerebras, Google et d’une puce maison. Ce mouvement révèle une bifurcation stratégique : l’inférence n’obéit pas aux mêmes règles économiques que l’entraînement, et NVIDIA doit prouver qu’elle peut exceller dans les deux.
Le problème technique : architecture GPU versus latence d'inférence
Les GPU NVIDIA excellent à l’entraînement de modèles massifs, mais en inférence — le moment où le modèle génère des réponses — leur architecture pose problème. Contrairement aux processeurs spécialisés, les GPU NVIDIA et AMD s’appuient sur une mémoire externe (HBM) pour accéder aux données. Ce détour ralentit la réponse.
À chaque requête utilisateur, le processeur doit attendre que l’information fasse l’aller-retour vers cette mémoire distante. Pour des tâches instantanées — coder en temps réel, communication inter-systèmes IA — ces millisecondes deviennent critiques.
OpenAI l’a découvert concrètement avec Codex, son produit de génération de code. Les utilisateurs remarquent la lenteur. Les alternatives explorent une voie opposée : embarquer beaucoup de mémoire (SRAM) directement sur la puce, supprimant ce détour. Cerebras, Groq et les TPU Google adoptent cette approche, ce qui explique pourquoi Anthropic bénéficie de performances supérieures en inférence rapide grâce aux TPU Google, comme pour Gemini.
Les trois axes d'exploration d'OpenAI
Cerebras : le partenariat commercial
OpenAI a signé un accord commercial avec Cerebras, confirmé par le cofondateur Sam Altman lors d’un appel avec journalistes le 30 janvier 2025. Altman a souligné que les clients utilisant les outils de codage OpenAI « mettent beaucoup d’importance sur la vitesse ».
Cerebras propose des architectures en wafer-scale — des puces géantes avec beaucoup de SRAM embarqué — pour fournir cette rapidité. Le calendrier de déploiement réel demeure inconnu : Altman n’a pas précisé les volumes ou délais.
Google TPU : le modèle de réussite
OpenAI regarde aussi du côté des TPU Google. Anthropic et Google utilisent cette voie avec succès pour Claude et Gemini. Les TPU offrent l’avantage d’être conçus pour l’inférence plutôt que pour la généralité, mais restent fortement liés à l’écosystème Google. Il n’est pas établi si OpenAI approche Google directement ou explore d’autres chemins.
Puce maison : OpenAI–TSMC–Broadcom
Reuters a rapporté en février 2025 qu’OpenAI finalise sa première conception de puce personnalisée avec Broadcom et TSMC. Si le tape-out (première fabrication) se déroule sans accroc, la production de masse pourrait commencer en 2026. Cela permettrait à OpenAI de tester une véritable alternative NVIDIA vers le second semestre 2026, bien que ce calendrier reste tributaire de réussites techniques successives et que les délais microélectroniques soient imprévisibles.
Les obstacles et la stratégie de NVIDIA
Groq : accord de licencing
Groq, qui conçoit des puces optimisées pour l’inférence rapide, aurait aussi été approché par OpenAI. Un accord de licencing entre NVIDIA et Groq, signé pour environ 20 milliards de dollars, a cependant redéfini le positionnement de Groq vers le logiciel et le cloud.
Riposte défensive
NVIDIA aurait proposé des acquisitions à Groq et Cerebras — une manœuvre interprétée comme une tentative de neutraliser les alternatives.
La réaction publique : clarification plutôt que démentit
Immédiatement après la publication du reportage Reuters le 2 février, Sam Altman a réagi publiquement :
« Nous adorons travailler avec NVIDIA et ils font les meilleures puces IA du monde. Nous espérons être un client gigantesque longtemps. »
Sachin Katti, responsable infrastructure chez OpenAI, a renchéri le même jour : « Notre flotte informatique entière fonctionne sur les GPU NVIDIA. »
Ces déclarations ne contredisent cependant pas les faits rapportés par Reuters. Elles les nuancent. OpenAI cherche effectivement des alternatives, mais pour environ 10 % seulement de sa capacité future. NVIDIA reste dominant à 90 %. Les cadres d’OpenAI ne nient pas l’existence de pourparlers ; ils défendent le statu quo.
C’est une tension, pas une rupture.
L'enjeu économique : inférence et entraînement ne suivent pas les mêmes règles
Cette quête d’alternatives reflète un enjeu fondamental : l’inférence n’obéit pas aux mêmes économies que l’entraînement.
| Dimension | Entraînement | Inférence |
|---|---|---|
| Cadence | Ponctuel, intensif | Continu, distribué |
| Critère clé | Performance brute | Latence minimale |
| Échelle d’impact | Un projet à la fois | Milliards de requêtes |
| Sensibilité au coût | Élevée, mais acceptable | Critique à l’échelle |
L’entraînement de grands modèles est ponctuel et intensif — NVIDIA y a régné sans partage. L’inférence est continue, distribuée, et critique en latence. Chaque milliseconde perdue se multiplie par des milliards de requêtes.
OpenAI explore différents fournisseurs pour trois raisons potentielles, vraisemblablement simultanées : réduire la dépendance tarifaire auprès de NVIDIA, obtenir des performances réellement meilleures pour certains usages, et se prémunir contre le risque qu’aucun fournisseur unique ne suffise à la demande mondiale.
Quel impact pour NVIDIA ?
Pour NVIDIA, c’est un avertissement stratégique. Dominateur en entraînement, elle ne peut pas supposer que la domination en inférence est acquise. Cerebras, Google, et les puces maison des géants du nuage concourent sur un terrain où l’architecture spécialisée — pas seulement la brute force — détermine le gagnant.
Scénarios 2026–2027
Diversification progressive
Si Cerebras déploie efficacement chez OpenAI à hauteur de 5–10 % de la capacité, cela marquerait la première fissure réelle. Un custom chip OpenAI en production de masse changerait l’équilibre. Ces deux scénarios restent ouverts : les délais microélectroniques peuvent s’étirer, les performances en production peuvent décevoir.
Statu quo dominant
L’issue la plus probable : OpenAI diversifie doucement, tire profit des alternatives pour négocier avec NVIDIA, et maintient l’essentiel de son infrastructure sur NVIDIA encore 2–3 ans. Mais le monopole est entamé — et NVIDIA le sait.
FAQ
Pourquoi OpenAI cherche-t-elle des alternatives à NVIDIA ?
La latence d’inférence sur GPU NVIDIA ralentit les tâches temps-réel comme la génération de code, alors que NVIDIA excelle principalement à l’entraînement.
Quel pourcentage de capacité OpenAI compte-t-elle délocaliser ?
Environ 10 % de sa capacité d’inférence future, selon Reuters.
Quelles sont les trois alternatives exploratoires ?
Cerebras (wafer-scale), TPU Google, et une puce maison OpenAI-TSMC-Broadcom (production 2026).
NVIDIA répond-elle à cette concurrence ?
NVIDIA aurait proposé des acquisitions à Groq et Cerebras pour les neutraliser, tandis que NVIDIA améliore ses performances en inférence.
Quel impact sur le marché en 2026–2027 ?
Diversification progressive chez OpenAI, réduction de la dépendance tarifaire vis-à-vis de NVIDIA, mais maintien d’une majorité d’infrastructure NVIDIA.
Sources
- https://www.reuters.com/business/openai-is-unsatisfied-with-some-nvidia-chips-looking-alternatives-sources-say-2026-02-02/
- https://sherwood.news/markets/openai-reportedly-seeking-alternatives-to-nvidia-chips-unhappy-with/
- https://www.marketscreener.com/news/openai-is-unsatisfied-with-some-nvidia-chips-and-looking-for-alternatives-sources-say-ce7e5bd2db8cff26
- https://www.business-standard.com/technology/tech-news/openai-unsatisfied-with-nvidia-chips-and-looking-for-alternatives-report-126020300275_1.html
- https://www.trendforce.com/news/2026/02/03/news-openai-reportedly-discontent-with-nvidia-gpus-for-inference-groq-cerebras-gain-attention/
- https://www.channelnewsasia.com/business/exclusive-openai-unsatisfied-some-nvidia-chips-and-looking-alternatives-sources-say-5902196
- https://www.benzinga.com/markets/tech/26/02/50321737/sam-altman-pushes-back-on-report-claiming-openai-unhappy-with-jensen-huang-led-companys-ai-chips-alternatives-love-working-with-nvidia
- https://www.firstpost.com/business/openai-ceo-sam-altman-reaffirms-commitment-to-nvidia-denies-chip-alternatives-plan-13975611.html
- https://www.cnbc.com/2026/02/03/nvidia-openai-stalled-on-their-mega-deal-ai-giants-need-each-other.html
- https://www.reuters.com/technology/openai-set-finalize-first-custom-chip-design-this-year-2025-02-10/
- https://arstechnica.com/information-technology/2026/02/five-months-later-nvidias-100-billion-openai-investment-plan-has-fizzled-out/
- https://www.technology.org/2026/02/03/openai-hunts-faster-ai-chips-nvidia-partnership-turbulence/
Leave a Reply