La législature de New York examine deux projets de loi pour réguler l’IA générative. Le NY FAIR News Act impose des labels obligatoires et une validation humaine du contenu généré par IA dans la presse. Le second, S9144, suspend l’octroi de permis pour les nouveaux data centers durant trois ans, justifié par une crise énergétique croissante.
NY FAIR News Act : labels et validation éditoriale obligatoires
Le projet NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act) encadre l’utilisation de l’IA générative par les organisations médiatiques.
Labellisation et contrôle éditorial
Tout contenu « substantiellement composé, rédigé ou créé » par IA générative doit porter une mention explicite. Plus important : la loi exige qu’une personne disposant du contrôle éditorial examine et approuve chaque contenu avant publication. Cette obligation préserve la chaîne de validation du journalisme, même lorsque l’IA participe à la création.
Protection des sources et transparence interne
La loi ajoute deux garde-fous :
Révéler aux salariés comment et quand l’IA intervient dans la production éditoriale.
Protéger les données confidentielles, notamment l’identité des sources, en interdisant leur consultation par les systèmes d’IA.
Cette dernière mesure défend un principe fondamental du journalisme : le secret des sources.
S9144 : trois ans de suspension pour les data centers
Le second projet, S9144, gèle l’émission de permis pour les nouveaux data centers pendant au moins trois ans.
La crise énergétique comme déclencheur
La raison invoquée : la montée des tarifs électriques et gaziers pour résidents et entreprises. Con Edison, le principal distributeur régional, a obtenu une augmentation tarifaire de 9 % étalée sur trois ans, directement répercutée sur les factures.
National Grid New York prévoit qu’au moins 10 gigawatts de capacité électrique supplémentaire seront nécessaires dans les cinq ans. Le moratoire vise à freiner cette pression énergétique en limitant temporairement l’ajout d’infrastructures gourmandes.
Deux régulations complémentaires pour un enjeu systémique
Ces deux projets abordent sous des angles différents l’impact croissant de l’IA générative :
NY FAIR News Act : encadre les risques de désinformation et la perte de contrôle éditorial dans les médias.
S9144 : s’attaque à une conséquence massive et indirecte : la surcharge des réseaux électriques provoquée par les data centers nécessaires pour entraîner et exécuter les modèles d’IA.
New York n’est pas isolée. Partout aux États-Unis, la consommation énergétique des data centers croît plus vite que la capacité des grilles. En combinant ces deux initiatives, New York signale une stratégie double : encadrer l’usage éditorial de l’IA et maîtriser son empreinte énergétique.
Calendrier flou et détails en suspens
Ces deux projets sont « en attente d’examen » par le Sénat de New York, mais aucune date de vote n’a été confirmée. L’avancement réel, les amendements possibles et les chances d’adoption demeurent incertains.
Les éventuelles exemptions — data centers essentiels (santé, services critiques) ou catégories médiatiques spécifiques — n’ont pas été clarifiées publiquement.
Néanmoins, ces initiatives marquent un changement : plutôt que d’attendre des directives fédérales, New York agit sur deux fronts — responsabilité éditoriale et soutenabilité énergétique. C’est le signe d’une régulation régionale qui anticipe les défis matériels de l’IA générative, bien au-delà de ses usages éditoriaux.
FAQ
Qu'est-ce que le NY FAIR News Act ?
Loi imposant des labels obligatoires sur le contenu généré par IA dans les médias, avec obligation de révision humaine avant publication.
Pourquoi New York instaure-t-elle un moratoire sur les data centers ?
Pour freiner la hausse des tarifs énergétiques, amplifiée par la demande croissante liée à l’IA et aux data centers.
Quand ces lois seront-elles votées ?
Aucune date officielle n’a été annoncée. Les projets sont en attente d’examen par le Sénat de New York.
Qui doit approuver le contenu généré par IA sous le NY FAIR News Act ?
Une personne disposant du contrôle éditorial avant la publication.
Combien de data centers New York compte-t-elle actuellement ?
Plus de 130 data centers sur son territoire, avec une demande de connexion qui a triplé en un an.
TSMC transfère la production de puces 3nm, ses technologies les plus avancées, de Taïwan au Japon. Le PDG C.C. Wei a annoncé jeudi 5 février que la deuxième usine de Kumamoto produirait désormais ces puces critiques pour l’IA, plutôt que des technologies matures. Un investissement de 17 milliards de dollars qui redessine la géographie mondiale des semiconductors.
TSMC transfère sa production 3nm au Japon : du plan initial à la révision stratégique
TSMC révise profondément sa stratégie pour Kumamoto. La deuxième usine, en construction, devait produire des puces 6 à 12 nanomètres, des technologies matures moins complexes. L’investissement était évalué à 12,2 milliards de dollars.
Le nouvel objectif change radicalement : passer au 3 nanomètres, la deuxième génération la plus avancée du marché, jusque-là exclusive à Taïwan. L’enveloppe budgétaire grimpe à 17 milliards de dollars selon le quotidien japonais Yomiuri Shinbun, que TSMC n’a pas confirmé officiellement.
« Nous pensons que cette usine contribuera davantage à la croissance économique locale et, surtout, formera une base pour les activités liées à l’IA au Japon », a déclaré le PDG de TSMC.
Une architecture à deux niveaux
Cette nouvelle orientation se comprend avec Kumamoto Fab 1, la première usine japonaise de TSMC, opérationnelle depuis décembre 2024. Elle produit actuellement des puces 12 à 28 nanomètres pour les capteurs d’image, l’électronique automobile et les circuits de contrôle industriel.
Avec Fab 2 en 3nm, TSMC crée une architecture cohérente : une base de technologies matures doublée d’une ligne d’avant-garde pour les applications critiques.
Usine
Technologie
Lancement
Secteurs
Fab 1
12–28 nm
Décembre 2024
Auto, capteurs, contrôle industriel
Fab 2
3 nm
2026–2027 (supposé)
IA, data centers
Trois facteurs expliquent cette accélération
L’explosion de la demande mondiale pour l’IA constitue le premier levier. Les data centers se multiplient, les modèles de langage exigent des capacités de calcul massives, et l’IA envahit l’électronique grand public. TSMC subit une pression irrésistible sur ses capacités 3nm, concentrées jusqu’à présent à Taïwan.
La saturation des capacités taïwanaises pose un risque critique. Avec une seule île fabricant la quasi-totalité des puces 3nm mondiales, TSMC court un goulot d’étranglement majeur. Ouvrir une deuxième source réduit cette vulnérabilité, accélère les délais de livraison et sécurise l’approvisionnement IA global.
La dimension géopolitique finalise le tableau. Localiser en régions alliées — Japon, États-Unis — offre à TSMC une couverture face aux tensions autour de Taïwan et aux contrôles à l’exportation. Produire localement signale à Washington et Tokyo une volonté de renforcer la sécurité des chaînes d’approvisionnement.
TSMC construit désormais un triptyque stratégique : Taïwan (centre technologique avec le 2nm), Kumamoto (hub IA japonais en 3nm), Arizona (production américaine en 2nm à partir de 2027).
Un coup politique majeur pour le Japon
L’annonce intervient trois jours avant les élections législatives japonaises du 8 février. Sanae Takaichi, ministre du cabinet en charge des semiconductors et de la revitalisation régionale, en récolte un bénéfice politique immédiat.
Le gouvernement avait désigné l’IA, la robotique et la conduite autonome comme secteurs stratégiques. Avec TSMC en 3nm, le Japon renforce son crédibilité industrielle et sa capacité technologique.
En parallèle, le Japon soutient Rapidus, une entreprise visant à produire du 2nm en Hokkaido d’ici 2027. Cette approche double positionne le Japon comme acteur majeur de la fabrication de semiconductors critiques, partenaire fiable des États-Unis et des alliés occidentaux.
Takaichi a souligné : « Les puces 3nm revêtent une grande importance pour la sécurité économique. » Le Japon entend réduire sa dépendance vis-à-vis des importations taïwanaises et américaines.
Zones d'ombre et défis d'exécution
Plusieurs paramètres critiques demeurent non résolus : le calendrier exact de démarrage (annoncé pour 2026–2027 sans précision), le volume mensuel de production (confidentiel), les subsidies gouvernementales supplémentaires (non formalisées), et la viabilité à long terme de Fab 1, qui connaît des débuts laborieux.
Fab 1 est restée sous-utilisée par rapport à ses capacités, insuffisamment soutenue par la demande automobile et industrielle. L’arrivée de Fab 2 en 3nm IA risque de creuser une asymétrie : une usine ancienne marginalisée, une usine neuve stratégiquement vitale. TSMC devra équilibrer cet écosystème pour justifier les deux investissements.
Reproduire les rendements 3nm en Kumamoto, respecter les délais annoncés et convaincre les clients IA, en tête NVIDIA, de diversifier leurs sources : trois défis majeurs se profilent avant la fin 2027.
La fin de la concentration taïwanaise
Cette annonce entérine un tournant stratégique majeur : la fin de la concentration absolue de la fabrication de pointe en Taïwan. TSMC distribue désormais ses technologies critiques sur trois continents.
Le Japon, longtemps marginalisé dans la chaîne de valeur des semiconductors modernes, retrouve un rôle stratégique crucial pour l’ère de l’IA. L’ambition affichée est claire ; la réalité industrielle confirmera ou démentira ces attentes.
FAQ
Pourquoi TSMC bascule sa deuxième usine japonaise à 3nm ?
Pour répondre à l’explosion de la demande IA, réduire la saturation taïwanaise, et diversifier géographiquement les technologies critiques face aux tensions géopolitiques.
Quand la production 3nm démarrera-t-elle à Kumamoto Fab 2 ?
Aucune date officielle, mais une arrivée en 2026 ou début 2027 est supposée.
Quel est l'investissement total pour Kumamoto Fab 2 ?
17 milliards de dollars selon la presse japonaise (hausse de 4,8 Md$ par rapport au plan initial).
Comment s'articulent Kumamoto Fab 1 et Fab 2 ?
Fab 1 (depuis décembre 2024) produit du mature-node (12–28 nm) ; Fab 2 produira du 3nm IA, créant une architecture double au Japon.
Quel est l'impact géopolitique pour le Japon ?
Le Japon devient hub avancé de semiconductors critiques, aux côtés de Taïwan et des États-Unis, renforçant sa sécurité économique et sa position IA.
Seulement 5 % des entreprises ont déployé des agents IA en production. Ce n’est pas un problème de capacité des modèles, mais d’infrastructure. L’injection de prompts, l’exfiltration de données, l’escalade de privilèges : ces risques ne sont pas théoriques. Deux ans après le boom de l’IA générative, l’isolation du code, la gouvernance et la conformité restent les goulots d’étranglement critiques. Ce guide consolide la pile technique qui émerge en 2026 — technologies de sandboxing, plateformes, frameworks de conformité, patterns opérationnels — pour transformer ces 5 % en stratégie reproductible.
Pourquoi seulement 5 % des entreprises déploient des agents en production
Le paradoxe est flagrant. Les modèles de langage génèrent du code avec une précision impressionnante. Les frameworks orchestrent des workflows complexes. Pourtant, 95 % des projets d’agents restent bloqués en phase pilote, et 47 à 53 % de ceux déployés fonctionnent sans supervision active.
La raison n’est pas technique au sens classique. C’est un trilemme : sécurité vs performance vs simplicité opérationnelle. Choisissez deux. Vous sacrifierez le troisième.
La sécurité d'abord
Un agent IA peut générer et exécuter du code arbitraire. Pas du code prévisible. Du code que vous ne pouvez pas anticiper au moment du déploiement. Donner à un processus non supervisé la permission d’accéder à une base de données de production, à un système de fichiers, ou au réseau revient à confier un terminal root à un apprenti.
Les conteneurs classiques offrent une isolation au niveau du processus — insuffisant si l’agent s’échappe via une vulnérabilité du noyau. Les microVMs Firecracker isolent au niveau du matériel avec un démarrage en 150 ms, mais ajoutent 20 à 30 % de latence. gVisor offre un compromis à 100–150 ms avec 10 à 20 % d’overhead — acceptable, mais pas gratuit.
La performance ensuite
Les clients attendent des réponses en secondes, pas en minutes. Un agent qui met 5 secondes à démarrer son bac à sable, 10 secondes à initialiser son environnement d’exécution, et 2 secondes pour chaque appel d’outil finit par sembler lent même s’il résout le problème correctement.
À cette latence s’ajoute le coût : une microVM par requête, c’est une instance CPU dédiée multiplié par le trafic concurrent. Les conteneurs sont plus rapides et moins chers. Mais ils vous ramènent au problème de sécurité.
La simplicité enfin
Déployer un agent sécurisé implique des décisions architecturales imbriquées : choix de la technologie d’isolation, configuration du réseau (deny-by-default pour les sorties ?), audit des outils autorisés, vérification des modèles d’accès, définition des escalades, validation de la conformité (GDPR, HIPAA, EU AI Act, SOC2).
Chaque couche ajoutée requiert expertise. Les équipes startup manquent de bandwidth. Les grandes organisations se noient dans les cycles d’approbation.
Résultat : les entreprises restent en pilot. Elles font fonctionner des agents sur des données synthétiques, dans des environnements contrôlés, sans accès réseau, et cherchent un moyen d’évoluer sans prise de risque. Cette fragmentation du marché de l’infrastructure — avec une dizaine de plateformes de sandboxing concurrentes, chacune avec sa propre API, ses propres limites, ses propres tarifs — a ralenti l’adoption. Jusqu’à maintenant.
Landscape des menaces : injection de prompts, supply chain, exfiltration
La sécurité des agents n’est pas une menace abstraite. L’OWASP a publié son Top 10 pour applications agentic en janvier 2026. Deux CVE récentes illustrent la réalité de production.
Injection de prompts : le risque principal
L’injection de prompts ne ressemble pas aux injections SQL classiques. Avec SQL, les syntaxes d’attaque et légitime sont distinguables. Vous pouvez filtrer, échapper, valider.
Avec les prompts, l’attaque est du langage naturel. L’agent ne peut pas mathématiquement différencier une instruction d’un utilisateur autorisé d’une instruction cachée dans un document qu’on lui demande de traiter.
Cas réel : GitHub Copilot (CVE-2025-53773). Une page web publique contenait du texte blanc sur fond blanc : des instructions d’attaque que l’utilisateur ne voyait pas. Copilot, scrappant la page pour du contexte, lisait le texte invisible, l’exécutait, et renvoyait des réponses compromises.
Cas réel : Vanna.AI (CVE-2024-5565). Un agent SQL générait du code Python exécuté directement contre une base de données. Un utilisateur injectait un prompt malveillant dans sa requête. Vanna.AI le traitait comme une instruction légitime, générait du Python contenant du code d’exfiltration, et l’exécutait. Pas de bac à sable. Pas de validation. Données perdues.
L’OWASP cite un taux de succès de 84 % pour les injections de prompts via la framework Hackode. Dans 84 % des cas testés, l’injection contournait ou modifiait le comportement attendu de l’agent.
Fuite de données : supply chain et exfiltration réseau
Les agents IA utilisent des outils — appels d’API, requêtes de base de données, accès au système de fichiers. Chaque outil est un vecteur potentiel de fuite.
Supply chain. Quel package npm, PyPI, ou crate le générateur de code du LLM utilise-t-il ? Les modèles hallucinent — ils inventent des références de packages qui n’existent pas. Selon IKANGAI, 19,7 % des références de packages mentionnées par les LLMs sont hallucinations. L’agent télécharge un package requests-secure-auth au lieu de requests ? C’est une vraie vulnérabilité de typosquatting, générée par le LLM lui-même.
Exfiltration réseau. Un agent non supervisé avec accès réseau peut lancer des requêtes sortantes n’importe où. DNS, HTTP, WebSocket — tous les canaux de sortie constituent des vecteurs d’exfiltration.
Trust entre agents
Dans les systèmes multi-agents, les agents parlent les uns aux autres. 82,4 % des LLMs vont exécuter un appel d’outil malveillant si demandé par un autre agent, même si ce même appel aurait été rejeté s’il provenait d’un utilisateur direct.
Implication directe : isoler chaque agent n’est pas suffisant si les agents se font confiance mutuellement. Vous devez établir des limites de confiance explicites entre agents, signer les appels d’outils, et conserver des traces d’audit immuables.
OWASP Top 10 Agentic : les dix risques majeurs
L’OWASP énumère dix risques majeurs pour les agents. Les quatre premiers — injection de prompts, fuite d’information sensible, mauvais usage d’outils, surcharge de ressources — sont directement atténués par le sandboxing. Les autres requièrent des contrôles applicatifs en plus.
Isolation technology 101 : Firecracker vs gVisor vs conteneurs vs WebAssembly
Pour comprendre comment choisir, il faut d’abord comprendre ce que chaque technologie offre.
Conteneurs Docker classiques
Un conteneur Docker n’isole que au niveau du processus. Il utilise les namespaces Linux pour créer l’illusion de machines séparées, mais partage le noyau hôte. Si un attaquant échappe à l’application via une CVE du noyau, il compromet tous les conteneurs sur cette machine.
Métrique
Performance
—
—
**Cold start**
~50 ms
**Overhead**
2–5 %
**Isolation**
Faible (kernel shared)
**Écosystème**
Extrêmement mature
gVisor (Google Sandbox)
gVisor est une couche d’application qui intercepte les appels système du conteneur et les exécute de manière sécurisée. Au lieu de transmettre directement l’appel au noyau hôte, gVisor implémente sa propre version Linux compatible mais isolée.
Métrique
Performance
—
—
**Cold start**
100–150 ms
**Overhead**
10–20 % CPU
**Isolation**
Moyen-élevée (résiste CVE noyau)
**Écosystème**
Google Cloud Run, Modal, Vercel Functions
Firecracker microVMs
Firecracker est un hyperviseur allégé créé par AWS pour les fonctions Lambda. Chaque exécution lance une microVM entière — son propre noyau Linux, son propre système de fichiers, son propre PID 1 — isolée au niveau du matériel via KVM.
Métrique
Performance
—
—
**Cold start**
~150 ms
**Overhead**
20–30 %
**Isolation**
Très élevée (hardware KVM)
**Écosystème**
E2B, AWS Lambda, AWS Fargate
Kata Containers
Kata combine les avantages de Firecracker et de gVisor. Elle utilise des hyperviseurs allégés pour isoler les conteneurs au niveau du matériel, tout en restant compatible avec Docker et Kubernetes.
Métrique
Performance
—
—
**Cold start**
~200 ms (dépend du pull d’image)
**Overhead**
15–25 %
**Isolation**
Très élevée (hardware KVM)
**Écosystème**
Kubernetes-native, CNCF
WebAssembly (Wasm)
WebAssembly n’isole pas au niveau du système d’exploitation. C’est une sandbox au niveau du langage — le code Wasm s’exécute dans une machine virtuelle qui contrôle la mémoire, l’accès aux outils, les appels système.
Métrique
Performance
—
—
**Cold start**
<10 ms
**Overhead**
Minimal
**Isolation**
Élevée (VM-level)
**Écosystème**
Wasmtime, Wasmer, Deno (émergent)
Tableau comparatif
Technologie
Cold Start
Overhead
Isolation
Agents untrusted
—
—
—
—
—
**Conteneurs**
~50 ms
2–5 %
Faible
Non
**gVisor**
100–150 ms
10–20 %
Moyen-élevé
Oui (SaaS)
**Firecracker**
~150 ms
20–30 %
Très élevée
Meilleur choix
**Kata**
~200 ms
15–25 %
Très élevée
Oui (K8s)
**WebAssembly**
<10 ms
Minimal
Élevée
À venir
Comparaison des plateformes : E2B, Modal, Daytona, Northflank
Le marché converge sur une liste courte de fournisseurs. Chacun a un positionnement différent.
E2B : Firecracker optimisé pour agents
Positionnement : Plateforme spécialisée pour exécuter du code d’agents IA. Démarrage ultra-rapide.
E2B utilise Firecracker microVMs avec cold start de 150 ms. Elle propose des SDK pour Python et JavaScript avec intégrations natives LangChain, OpenAI, Anthropic. Tarification : $0.05/vCPU-heure, usage-based, sessions jusqu’à 1 heure gratuitement, 24 heures en payant.
Forces : Démarrage ultra-rapide, intégrations par défaut avec frameworks agent populaires, tarification transparente.
Faiblesses : Limite de session 24 heures en payant, BYOC non mature.
Modal : gVisor + GPU, approche serverless
Positionnement : Plateforme serverless pour workloads ML et agents. GPU inclus. Scaling automatique.
Modal utilise gVisor avec cold start <100 ms. Elle est Python-first et permet de déployer directement depuis Jupyter. GPU H100 disponible à $3.95/hr. Scaling automatique géré en backend.
Positionnement : Plateforme d’exécution d’entreprise. Isolation Kata (hardware KVM). Support BYOC.
Northflank utilise Kata Containers pour isolation hardware-level. Elle autorise BYOC (Bring Your Own Container) pour contrôle image. Sessions illimitées. Tarification all-in ~$2.74/hr H100. Orientée entreprise avec SOC2, SLA.
Forces : BYOC, isolation Kata (hardware KVM), tarification all-in plus claire, audit trail SOC2.
Faiblesses : Cold start plus lent (dépend du pull d’image), moins d’automatisation que Modal.
Faiblesses : Moins mature, transparence pricing/SLA inférieure.
Matrice décisionnelle
Besoin
Menace
Latency
Priorité
Recommandation
—
—
—
—
—
Agents court-lived ultra-rapides
Élevée
<150ms
Performance
E2B
ML inference + agents
Moyenne
Flexible
GPU
Modal
Multi-tenant enterprise
Élevée
Acceptable
BYOC
Northflank
Agents stateful long-lived
Moyenne
Flexible
État
Daytona
MCP : standardisation et interopérabilité cross-platform
Jusqu’en 2024, chaque plateforme d’exécution avait son propre SDK, son propre modèle d’intégration d’outils. Vous codiez un agent pour Modal ? Vous redéployez entièrement pour E2B.
En janvier 2025, la Linux Foundation a lancé l’Agentic AI Foundation. Anthropic a donné à la Fondation le Model Context Protocol (MCP) — un standard ouvert pour les agents à déclarer et invoquer des outils, accéder aux données, gérer le contexte.
Qu'est-ce que MCP ?
MCP est un protocole transport-agnostique (JSON-RPC sur stdio, HTTP, WebSocket). Un agent dit : « Je dois lire des fichiers. Je dois appeler une API Stripe. Je dois interroger une base de données. » Le protocole standardise comment décrire ces besoins et comment exécuter les outils.
Avant MCP : Redéploiement complet, réécriture agent.
Après MCP : Même code. Changez le transport (E2B vs. Modal vs. Northflank). Pas de réécriture.
Avantages
Interopérabilité. Un agent écrit pour E2B peut migrer vers Modal en changeant une variable d’environnement.
Écosystème décentralisé. Tiers peuvent publier des serveurs MCP pour leurs services (Stripe, Salesforce, Slack). Les agents les découvrent sans SDK propriétaire.
Prévention du vendor lock-in. Vous ne dépendez pas d’une plateforme d’exécution unique. Vous négociez tarifs, SLA, isolation — sachant rester portable.
Adoption 2026
Anthropic Claude est MCP-native depuis janvier 2025. LangChain et LlamaIndex intègrent le support MCP. Modal et Northflank commencent à publier des serveurs MCP. Stripe, GitHub, Linear, Salesforce ont annoncé ou lancé serveurs MCP.
Impact stratégique : Le marché fragmenté converge autour d’un standard. Les PME peuvent enfin changer de fournisseur sans réécriture.
Gouvernance et conformité : OWASP, NIST, GDPR, EU AI Act
Un agent techniquement isolé n’est pas un agent conforme. La conformité émerge d’une pile réglementaire multidimensionnelle.
OWASP Top 10 Agentic Applications 2026
L’OWASP identifie les risques critiques. Pour les agents, elle recommande des contrôles : sandboxing, allowlist stricte des outils, masquage de PII en logs, audit trail immuable, rétention policy.
L’OWASP ne prescrit pas une solution. Elle propose une matrice risques × contrôles. Vous taillez les contrôles au profil de risque.
NIST AI Risk Management Framework 1.0
NIST structure la gouvernance IA en quatre piliers : Govern → Map → Measure → Manage.
Govern : Créer une charte d’agents approuvés, définir les rôles, publier les policies.
Manage : Escalader incidents, retirer agents dériving, corriger et redéployer.
NIST est prescriptif mais non obligatoire aux USA. Il devient le baseline de facto pour SOC2 Type II.
GDPR et données de l'UE
Déployez un agent en UE ou traitant des données d’UE-residents ? GDPR s’applique.
Les logs d’agent sont des données de traitement. Vous devez : accepter consentement, chiffrer les logs, appliquer rétention, offrir droit d’accès et oubli.
Implication : Les résidents UE peuvent demander une copie de toutes les données traitées ; ils peuvent demander suppression.
EU AI Act et classification high-risk
L’EU AI Act (2024, en vigueur 2025) classe les systèmes IA en fonction du risque. Les agents autonomes déterminant l’accès au crédit, l’emploi, les allocations sociales sont high-risk. Les amendes montent jusqu’à €35M ou 7 % du chiffre d’affaires global.
Pour les high-risk agents, l’UE impose :
Risk assessment documentation : Preuve que vous avez évalué les risques.
Testing & validation : Test des décisions ; red-teaming.
Human-in-the-loop oversight : Un humain approuve les décisions impactantes.
Incident notification : Signaler les incidents graves sous 72 heures.
SOC2 Type II pour agents
Tout audit SOC2 Type II couvre maintenant les systèmes IA. Les auditeurs vérifient : RBAC strict, monitoring, incident response, audit trail immuable.
Les fournisseurs d’exécution d’agents produisent des rapports SOC2 ; c’est un facteur de sélection critique pour acheteurs enterprise.
Patterns Human-in-the-Loop : gouvernance et escalade
Aucun agent ne devrait être 100 % autonome dès le jour 1. L’escalade humaine n’est pas une régression. C’est une architecture saine.
Les quatre phases d'autonomie
Phase 1 : Read-Only + Approval du tout
L’agent accède à des données, les lit, génère des rapports, mais ne modifie rien sans approbation. Coût humain : élevé. Time-to-value : long. Transparence : maximale.
Phase 3 : Autonomie de routine, supervision événementielle
L’agent fonctionne entièrement autonome, mais envoie des digests et alerte sur anomalies. L’humain revoit et peut intervenir proactivement. Coût humain : bas. Time-to-value : très rapide.
Phase 4 : Autonomie complète, audit rétroactif
L’agent décide et agit sans humain. L’audit rétroactif capture l’activité. Coût humain : minimal. Risque : dérive sans supervision. Seulement pour agents low-risk.
Critères de décision
Réversibilité : L’action peut-elle être annulée ?
Fréquence : Combien de fois par jour ?
Impact business : Si l’agent se trompe, quel coût ?
Trace audit : Pouvez-vous tracer qui a ordonné quoi ?
Patterns techniques
Escalade webhook : Agent génère action → envoie webhook à système d’approbation. Approver valide → agent procède/rejette.
Fallback mode : Si approver non-respond dans N secondes, escalade à autre approver. Jamais de deadlock.
Observabilité et monitoring : sept outils pour la télémétrie des agents
Les agents non supervisés ne sont pas seulement une menace sécurité. Ils sont une menace commerciale. Un agent qui dépense 10× le budget d’API prévu — ces problèmes ne sont pas des CVE. Ce sont des anomalies comportementales.
Arize — ML observability specialisé. Détecte data drift, prediction drift, tool call patterns, cost monitoring, red-teaming intégrée. Idéal pour : orgs avec many deployed agents.
Splunk — Ingère logs, recherche temps réel, alertes. Module Splunk AI Observability dédié agents. Idéal pour : enterprise Splunk existant.
Datadog — APM + logs + traces. Support agents IA émergent. Idéal pour : infra Kubernetes multi-tenant.
Vellum — Plateforme end-to-end agents. Gestion versions prompts, A/B testing, observabilité. Idéal pour : PME/startup, une pane of glass.
Azure AI Foundry — Suite Microsoft agents. Monitoring auto, HITL workflows, audit trail. Idéal pour : enterprise Microsoft stack.
Mythes et réalités de la sécurité des agents (8 points)
Mythe 1 : Les conteneurs suffisent. Réalité : Conteneurs partagent le noyau hôte. Une CVE du noyau = escape. Pour code LLM-généré, il faut microVM ou gVisor.
Mythe 2 : Les guardrails en prompt suffisent. Réalité : Guardrails n’enferment rien. Sandboxing pour sécurité. Les deux nécessaires.
Mythe 3 : L’air-gapping = sécurisé. Réalité : Prévient exfiltration réseau mais pas escape local. Combinez avec isolation + policy.
Mythe 4 : Propriétaire = plus sûr. Réalité : Sécurité dépend architecture, pas ownership. Choisissez sur capacité. Ajoutez sandboxing indépendamment.
Depuis 2024, les grands groupes mondiaux attribuent massivement leurs réductions d’effectifs à l’intelligence artificielle. Pourtant, les données économiques racontent une histoire très différente : l’IA ne représente que 4,5 % des licenciements enregistrés. Enquête sur ce mensonge par omission stratégique.
Qu'est-ce que l'AI Washing ? Une rhétorique stratégique
Le terme « AI washing » décrit une pratique simple mais efficace : attribuer des décisions commerciales défaillantes — surembauche mal gérée, mauvaise stratégie, ou simple ajustement de marché — à l’intelligence artificielle plutôt qu’à des erreurs de direction.
Contrairement à la fraude déclarée, il ne s’agit pas toujours de mensonge volontaire. C’est un usage stratégique du flou.
Cas d'école : le discours unifié des géants technologiques
Les exemples se multiplient rapidement. En mai 2025, Klarna annonce que son effectif a diminué de 40 % en partie grâce à l’IA. Salesforce réduit de 4 000 ses postes d’assistance client, affirmant que l’IA peut accomplir 50 % de ce travail. Pinterest, Meta, Microsoft : le discours s’unifie autour d’une même justification.
La vérité sous-jacente ? Les entreprises ont embauché frénétiquement pendant la pandémie, puis doivent corriger le tir. Mais dire « nous nous sommes trompés » aux investisseurs et aux salariés ? C’est trop coûteux pour une valorisation boursière. L’IA devient le responsable idéal d’une réalité bien plus prosaïque.
Les chiffres réels : le grand écart avec le discours
L'IA représente 4,5 % des licenciements
Entre janvier et novembre 2025, selon Oxford Economics et Challenger, Gray & Christmas, les chiffres parlent d’eux-mêmes :
55 000 licenciements attribués à l’IA
245 000 réductions liées aux « conditions de marché »
Part réelle de l’IA : 4,5 %
Les véritables causes ? Le ralentissement de la consommation, les taux d’intérêt élevés, la surembauche post-pandémie — facteurs largement documentés mais infiniment moins séduisants pour les marchés financiers.
Aucune perturbation macroéconomique observable
En février 2026, le Yale Budget Lab publie une enquête qui devrait refroidir les prophètes de l’apocalypse technologique :
Aucune perturbation macroéconomique visible du marché du travail
L’occupational mix (répartition des emplois entre secteurs et compétences) reste stable
Le chômage des métiers exposés à l’IA n’a pas augmenté
Paradoxe glaçant : 71 % des Américains interrogés par Reuters et Ipsos en août 2025 craignent de perdre leur emploi à cause de l’IA. L’anxiété est réelle, massive, documentée. Mais les preuves économiques du cataclysme annoncé ? Elles n’existent pas.
Martha Gimbel, économiste au Yale Budget Lab, le formule sans détour : « Aucune façon de regarder les données qui montre des effets macroéconomiques majeurs à ce moment précis. Si vous êtes directeur général, vous ne dites pas ‘j’ai mal géré la situation macroéconomique’. Vous dites ‘le monde change rapidement, il faut nous redimensionner’. »
Pourquoi les CEO choisissent cette rhétorique
L’équation est transparente : invoquer l’IA, c’est transformer une faiblesse managériale en adaptation forward-looking.
Les investisseurs récompensent les coupes d’effectifs (signal d’efficacité immédiate). L’IA, c’est le futur, l’innovation, la promesse. Combiner les deux dans un même discours offre une formule irrésistible pour les marchés financiers.
Admettre publiquement une surembauche, c’est voir sa crédibilité tomber. Blâmer l’IA, c’est se placer du côté des gagnants de demain. C’est un scapegoat parfait : le phénomène est réel, suffisamment flou pour défier les preuves immédiates, et assez lointain pour que les conséquences se manifestent trop tard pour être vérifiées.
Le vrai coût caché : la workslop
Mais voilà qui complique le narratif : la charge opérationnelle réelle de l’IA existe bel et bien.
Qu'est-ce que la workslop ?
En novembre 2025, Zapier publie une enquête auprès de 1 100 salariés d’entreprises de 250+ collaborateurs. Les résultats décrivent un phénomène majeur : la workslop — les défaillances, imprécisions et erreurs générées par l’IA, qui demandent ensuite des heures de correction manuelle.
Les chiffres alarmants
58 % des travailleurs passent plus de 3 heures par semaine à refaire ou corriger les outputs de l’IA. 35 % passent plus de 5 heures par semaine. En moyenne : 4,5 heures par semaine — soit plus d’une demi-journée de travail — consacrées au nettoyage des dégâts.
Les tâches les plus touchées : l’analyse de données (55 %), la recherche et rédaction (52 %), les communications client (46 %). Autrement dit, les tâches critiques.
Les conséquences négatives mesurées
74 % de ces travailleurs ont connu au moins une conséquence négative directement causée par une défaillance IA : travail rejeté par un collègue, fuite de données, plainte client, délai manqué, problème de conformité.
Les équipes finance et comptabilité sont les plus frappées : 4,6 heures par semaine de cleanup, 85 % en subissant les conséquences.
Le paradoxe central
Or, et c’est le paradoxe qui rend l’AI washing si audacieux : 92 % de ces mêmes travailleurs affirment que l’IA booste leur productivité.
Même avec cinq heures hebdomadaires de nettoyage, même en gérant les crises. L’IA n’est donc pas inutile — elle transforme réellement le travail. Mais elle génère une charge cachée que personne ne compte dans le bilan officiel.
Comment fonctionne l'astuce
C’est ici que l’AI washing révèle son astuce :
Les entreprises crient sur les toits les gains d’efficacité supposés
Elles invoquent l’IA pour justifier les réductions d’effectifs
Elles ne parlent jamais de cette workslop
Les 4,5 heures hebdomadaires de correction manuelle ? Elles sont absorbées par le salarié restant — l’un des peu à avoir survécu à la vague de licenciements. Voilà comment l’IA réduit nominalement les effectifs sans réduire réellement le travail.
La fatigue à l'IA s'installe chez les consommateurs
Les consommateurs aussi commencent à voir clair dans ce jeu.
Une étude de la Washington State University, relayée par CNET en 2025, révèle un phénomène mesurable : l’inclusion du mot « IA » dans une description de produit réduit l’intention d’achat. Les consommateurs relient désormais « IA » à l’inflation de promesses creuses.
45 % des consommateurs refusent de payer un abonnement ou une fonctionnalité qualifiée « IA ». 25 % les trouvent carrément inutiles. Carl Pei, fondateur de Nothing, a envisagé d’éliminer le terme « IA » de ses produits, tellement le mot s’était chargé de désenchantement.
Pendant ce temps, 56 % des entreprises — selon PwC — admettent n’avoir obtenu « absolument rien » de leurs investissements IA jusqu’à présent.
Paradoxe vertigineux : on licencie pour l’IA, on blâme l’IA pour les coupes, mais on reconnaît secrètement que l’IA n’a rien livré.
Les régulateurs commencent à tirer la sonnette
Les premières poursuites
La SEC, l’agence américaine de régulation boursière, n’a pas tardé à remarquer. En mars 2024, elle a poursuivi deux sociétés : Global Predictions et Dellia. Le motif : elles promettaient une IA capable de prédire les performances de marché, puis ne livraient rien de fondé. Les fausses promesses relevaient de la fraude en valeurs mobilières. Le message était clair : dire « on a de l’IA » ne suffit pas ; il faut livrer.
Gary Gensler, alors président de la SEC, a déclaré en octobre 2025 : « L’AI washing peut violer les lois sur les valeurs mobilières. »
Le flou réglementaire persiste
Pourtant, et c’est crucial, aucun cas SEC majeur n’a encore visé directement l’AI washing dans les licenciements. Le cadre réglementaire reste vague : existe-t-il une ligne entre « hype marketing » et « mensonge punissable » ? Où passe-t-elle ? Nul ne le sait avec certitude.
De plus, l’arrivée au pouvoir de l’administration Trump, traditionnellement favorable à la déréglementation, jette une ombre sur la trajectoire de cet enforcement. Accélération ou ralentissement : la question reste ouverte.
Gagnants et perdants du jeu
L’AI washing crée des vainqueurs et des vaincus bien distincts.
Gagnants court-termistes : directeurs généraux qui font crédible auprès des investisseurs et des conseils d’administration, cabinets de conseil qui vendent massivement des projets de « transformation IA », vendeurs d’outils IA qui surfent le buzz.
Perdants : salariés licenciés sur justifications floues ou falsifiées, qui subissent une perte d’emploi sans compréhension réelle de sa cause ; consommateurs confrontés à des produits lancés à la hâte avec un label « IA » qui ne signifie rien ; chercheurs et développeurs en IA véritable dont le signal devient noyé dans le bruit ; régulateurs eux-mêmes dont la crédibilité s’érode face à un phénomène qu’ils peinent à saisir légalement.
Trois scénarios d'évolution
Scénario A : l'AI washing persiste
La SEC multiplie les cas de poursuites, mais reste marginale (moins de 5 par an). Les CEO continuent à manier le flou. Les consommateurs se détournent davantage des produits estampillés « IA ». La crédibilité des entreprises se fissure progressivement.
Scénario B : une vraie récession accélère l'adoption de l'IA
Soudain, l’occupational mix se déplace visiblement. Le chômage augmente dans certains secteurs. L’IA n’est plus un scapegoat commode : elle devient une vraie perturbation observable. L’AI washing devient inutile, remplacé par un vrai débat sur les impacts technologiques. La régulation accélère.
Scénario C : le backlash collectif
Les 74 % de travailleurs ayant subi des conséquences négatives de l’IA, combinés à l’épuisement du public face au hype, entraînent un repli. Les investissements IA ralentissent. L’innovation subit. Le contrôle public s’intensifie, mais sur une technologie devenue moins attrayante.
Les signaux clés à surveiller
Comment savoir si l’AI washing persiste ou s’effondre ?
Enforcement régulateur : la cadence des poursuites SEC dépasse-t-elle 10 cas majeurs en 2026 ?
Impact réel sur l’emploi : l’occupational mix du BLS se déplace-t-il sensiblement pour certains rôles ?
Communication d’entreprise : le mot « IA » dans les appels aux investisseurs disparaît-il ou s’intensifie-t-il ?
ROI mesurable : les données PwC et Gartner rapportent-elles du ROI réel ou persistons-nous dans les promesses ?
Cadre légal : de nouvelles lois d’obligation de transparence sur l’IA en recrutement vont-elles émerger ?
Sentiment collectif : les sondages Reuters et Ipsos montrent-ils un repli de la peur de l’IA ou son intensification ?
Conclusion : le flou comme arme
L’AI washing n’est pas tant un mensonge déclaré qu’un usage stratégique du flou. Les entreprises ne disent pas formellement « c’est l’IA qui a licensié ces gens ». Elles disent « nous nous adaptons à l’ère de l’IA », ce qui est techniquement vrai.
Elles exploitent l’absence de régulation claire, l’anxiété publique massifiée, et le fait que les preuves macroéconomiques d’un cataclysme IA n’existent pas encore. Mais cette stratégie fabrique ses propres contradictions. Elle génère une charge opérationnelle massive (les 4,5 heures de workslop par semaine). Elle érode la confiance des consommateurs et des salariés. Elle finit par réveiller les régulateurs.
Le Yale Budget Lab dit « pas de perturbation encore ». Mais le MIT dit que c’est techniquement possible. Goldman Sachs dit que 6 à 7 % de la main-d’œuvre pourrait être déplacée si l’adoption accélère. Et Martha Gimbel, l’économiste du Yale Budget Lab, le formule avec une candeur troublante : « Le monde change vite. On se redimensionne. »
Jusqu’à présent, le redimensionnement était blâmé sur l’IA. Demain, si l’IA vraiment fonctionne, le blâme ne suffira plus.
FAQ
Qu'est-ce que l'AI washing exactement ?
L’AI washing est une pratique qui consiste à attribuer des décisions commerciales défaillantes — surembauche mal gérée, mauvaise stratégie, ou simple ajustement de marché — à l’intelligence artificielle plutôt qu’à des erreurs de direction. C’est un usage stratégique du flou plutôt qu’un mensonge déclaré.
Combien de licenciements sont réellement dus à l'IA selon les données économiques ?
Entre janvier et novembre 2025, selon Oxford Economics et Challenger, Gray & Christmas, l’IA ne représente que 4,5 % des licenciements enregistrés, avec 55 000 licenciements attribués à l’IA contre 245 000 réductions liées aux conditions de marché.
Qu'est-ce que la workslop et quel impact a-t-elle sur les travailleurs ?
La workslop désigne les défaillances, imprécisions et erreurs générées par l’IA qui demandent ensuite des heures de correction manuelle. En moyenne, 58 % des travailleurs passent plus de 3 heures par semaine à refaire ou corriger les outputs de l’IA, et 74 % ont connu au moins une conséquence négative directement causée par une défaillance IA.
La SEC poursuit-elle les entreprises pour AI washing ?
La SEC a poursuivi deux sociétés (Global Predictions et Dellia) en mars 2024 pour des promesses de résultats IA infondées, mais aucun cas SEC majeur n’a encore visé directement l’AI washing dans les licenciements. Le cadre réglementaire reste vague.
Quels sont les signaux à surveiller pour détecter si l'AI washing persiste ?
Les signaux clés incluent la cadence des poursuites SEC, les déplacements observables du occupational mix du BLS, l’évolution de la mention « IA » dans les communications d’entreprise, le ROI réel rapporté par les études, l’émergence de nouvelles lois de transparence, et les tendances de sentiment collectif dans les sondages.
Nitto Boseki produit le T-glass, un tissu de fibre de verre caractérisé par un coefficient d’expansion thermique ultra-bas. Sans ce matériau, les substrats qui hébergent les processeurs se déforment sous la chaleur et les GPU crashent. L’entreprise contrôle entre 60 et 70 % du marché mondial.
Nitto Boseki contrôle 60-70% de la production mondiale de T-glass, un matériau critique pour les puces IA
Le T-glass est intégré dans les substrats des GPU Nvidia, TPU Google et puces Apple
L’entreprise adopte une stratégie délibérée de rareté plutôt que d’augmenter sa production
Des alternatives (Taiwan Glass, Nan Ya Plastics, Grace Fabric Technology) tentent de concurrencer mais restent loin derrière
La Chine investit massivement dans l’énergie et développe des alternatives domestiques au T-glass
Le monopole invisible : pourquoi Nittobo contrôle l'avenir des data centers
Nitto Boseki (Nittobo) produit le T-glass, un tissu de fibre de verre caractérisé par un coefficient d’expansion thermique ultra-bas. Cette propriété technique masque une réalité physique immédiate : sans T-glass, les substrats qui hébergent les processeurs se déforment sous la chaleur. Les connexions électroniques s’écrasent. Les GPU crashent.
L’entreprise contrôle entre 60 et 70 % du marché mondial du T-glass avancé. Ses deux concurrents directs, Asahi Kasei et Asahi Glass, partagent le reste. Mais c’est Nittobo qui détient les secrets manufacturiers — un avantage technique remontant à plus de 40 ans.
« T-glass est difficile à fabriquer, et il ne sera pas facile pour les concurrents de rattraper Nittobo dans un avenir proche », explique Noritsugu Hirakawa, analyste chez Daiwa Securities. Ce n’est pas une hyperbole : chaque fibre doit être plus fine qu’un cheveu humain, parfaitement circulaire, sans la moindre bulle d’air. Les rendements de production demeurent fragiles. Les nouveaux entrants qui tentent de reproduire le processus font face à des taux de rebut catastrophiques.
Asymétrie de puissance : une tiny company qui commande les géants
Nittobo génère un revenu net annuel de 37 millions de dollars environ — une somme modeste comparée aux géants de la tech. Pourtant, ce petit fabricant textile influe directement sur la stratégie d’expansion de Nvidia, Apple, Google et Amazon.
C’est un cas quasi-textuel de domination asymétrique : une entreprise de taille mineure exerce un contrôle stratégique sur des acteurs infiniment plus puissants.
Pourquoi le T-glass est critique pour les puces d'IA
Le T-glass n’est pas un matériau exotique utilisé occasionnellement. Il est intégré dans l’infrastructure critique des puces modernes.
Les substrats intégrés (« IC substrates ») qui accueillent les GPU Nvidia, les TPU Google et les puces d’Apple reposent largement sur deux technologies : l’ABF (Ajinomoto Build-up Film) et les substrats BT (bismalimiide-triazine).
Le T-glass, en tant que tissu, forme la couche de renforcement structural. Lorsqu’une puce dissipe des centaines ou des milliers de watts dans un data center, le substrat subit des cycles de chauffage et de refroidissement intenses. Sans stabilité dimensionnelle, sans cette propriété de très faible expansion thermique, le matériau se déforme. Les connexions microscopiques se rompent. C’est un mécanisme d’échec mécanique brutal.
Applications actuelles du T-glass
Au-delà des data centers IA, le T-glass s’utilise aussi dans les iPhones premium, les équipements de packaging avancé (CoWoS) et les systèmes de communication haute fréquence.
Depuis l’explosion de la demande en serveurs d’IA (2023–2024), la hiérarchie d’allocation s’est rigidifiée : les clients des puces GPU et TPU obtiennent la priorité.
La pénurie : une stratégie délibérée de rareté
Nitto Boseki aurait facilement pu accélérer sa production face à la demande exponentielle du boom IA. Ce n’est pas le cas. Le CEO Hiroyuki Tada a adopté une stratégie explicite : ne pas « étendre la capacité au même rythme que le marché de l’IA ».
En langage d’affaires, c’est une stratégie de niche premium : maintenir une rareté artisanale, exploiter les prix élevés, privilégier les marges à la croissance. Quoi que propose Apple, Nvidia ou Google, la réponse reste non.
Calendrier de dégagement (vs. attentes du marché)
Les délais de mise en ligne de nouvelles lignes de production ont glissé d’année en année. Fin 2025, Nittobo promettait une augmentation significative courant 2026. Or, la plupart des sources presse spécialisées considèrent ces promesses comme partielles.
La pénurie s’étendra vraisemblablement jusqu’en 2027.
Cette scarcité a déclenché un arbitrage visqueux et peu documenté chez les fabricants de substrats. Apple, qui commande du T-glass pour les iPhones depuis longtemps, se voit dépassée dans la file d’attente par Nvidia et les fabricants de GPU. Le géant de Cupertino a envoyé des équipes à Tokyo à l’automne 2025 pour négocier directement avec Nittobo, sans résultat notable selon les rapports de presse.
L'arithmétique cachée : hiérarchie d'accès et perdants
Le T-glass révèle la hiérarchie invisible du pouvoir d’accès technologique.
Nvidia et les hyperscalers jouissent d’une priorité de facto. Les data centers clients — Amazon Web Services, Google Cloud, Microsoft Azure — déploient leurs budgets pour sécuriser les H100 et H200, même si le T-glass se raréfie. Mitsubishi Gas Chemical, principal fabricant de substrats utilisant le T-glass de Nittobo, oriente ses productions vers les clients de Nvidia d’abord.
Fabricants de puces secondaires (Qualcomm, AMD, Apple) ont le pouvoir d’achat, mais pas la priorité absolue.
Consumer electronics est reléguée en dernier recours. Électronique grand public, téléphones mobiles, écrans sont affectés en premier. Goldman Sachs prévoit des déficits de deux chiffres pour le T-glass destiné aux substrats BT durant les prochains trimestres.
Les alternatives : entre promesses et obstacles technologiques
Plusieurs entreprises tentent de briser le monopole de Nittobo. Aucune n’a réussi à ce jour.
Taiwan Glass a récemment certifié une fibre Low-Dk (faible constante diélectrique) destinée aux substrats PCB. C’est un début. Mais le Low-Dk n’est pas le T-glass : les propriétés thermiques restent inférieures. Taiwan Glass accumule de l’expérience, mais la courbe d’apprentissage s’étire.
Nan Ya Plastics (groupe Formosa, Taiwan) annonce qu’elle pourrait atteindre environ 20 % de la capacité de production de Nittobo d’ici 2027. Ce chiffre reste conditionnel — il dépend des résultats d’essais qualité en cours et de l’absence de problèmes de rendement à l’échelle.
Grace Fabric Technology, basée en Chine et partiellement contrôlée par Mitsubishi Gas Chemical, se positionne comme une alternative domestique. Aucune production en volume n’a été confirmée. Les risques industriels demeurent aigus.
Barrière technologique : pourquoi la concurrence tarde
Chaque fibre de verre doit mesurer quelques microns de diamètre (plus fine qu’un cheveu), sa section doit être parfaitement circulaire, sans aucune imperfection. Les équipements de production eux-mêmes exigent une maîtrise ultra-précise. Les rendements chez les nouveaux entrants oscillent entre 60 et 70 %, contre 85 à 90 % chez Nittobo.
Personne n’est prêt à risquer une montée en charge de puces IA haute-gamme sur un substrat de qualité inférieure. La marge d’erreur est zéro.
L'angle géopolitique : la Chine et la captation énergétique
Pendant que l’Occident négocie avec une petite entreprise textile au Japon, la Chine avance sur un front stratégiquement imbriqué : l’énergie.
En 2025, la Chine a construit 543 gigawatts de nouvelle capacité électrique — plus que la totalité des centrales électriques de l’Inde. Depuis 2022, cumulée, cette capacité surpasse celle du réseau électrique américain complet.
66 % de cette expansion provient des énergies renouvelables (solaires et éoliennes), 34 % du charbon pour la sécurité d’approvisionnement.
Ce que cela signifie concrètement : la Chine a éliminé une limite critique pour la fabrication de semi-conducteurs et l’entraînement des modèles IA à grande échelle. Data centers et usines de production requièrent de l’électricité continue, massive et bon marché.
Les États-Unis et l’Europe demeurent bridés par débats de permis, considérations environnementales et infrastructure vieillissante.
L'asymétrie stratégique
Si la Chine maîtrise la production énergétique et développe des alternatives au T-glass, elle disposera d’un avantage structurel : fabriquer sans contrainte d’énergie, itérer rapidement, muscler son infrastructure d’IA, s’affranchir de la dépendance au T-glass de Nittobo.
Pendant ce temps, Nvidia, Apple et Google négocient avec une entreprise textile japonaise pour accéder à un matériau sans lequel leurs puces ne fonctionnent pas. Le contraste symbolise une réalité géopolitique : la domination technologique du 21e siècle ne sera pas décidée sur les algorithmes, mais sur le contrôle des matériaux, de l’énergie et de la supply chain.
Trois scénarios pour 2027
Scénario 1 : Statu quo prolongé (probabilité dominante)
Nittobo reste le fournisseur majeur avec une expansion marginale. Nan Ya Plastics atteint effectivement 20 % de la capacité, mais le scaling reste asymptotique. Les alternatives chinoises demeurent expérimentales. Le T-glass reste un bien rare. Les prix restent élevés. Nvidia, Google et Amazon s’assurent un accès sécurisé via contrats long terme. Apple et les fabricants de consumer electronics voient leurs délais s’allonger.
Nitto Boseki capitalise sur sa position. Ses marges explosent. Aucun acteur n’a les moyens de contourner le monopole par la force.
Q-glass, une alternative basée sur le quartz, sort enfin des laboratoires. Ses propriétés rivalisent avec le T-glass et son coût diminue suffisamment pour justifier une adoption en masse. Ou Grace Fabric Technology déverrouille un processus qui améliore les rendements et permet une montée en charge. Le relief s’accélère. La rareté recule.
Cet scénario s’appuie sur des innovations réelles, actuellement en cours, mais sans calendrier confirmé.
Tensions entre les États-Unis et la Chine autour de la supply chain. Restrictions d’export du Japon envers la Chine ou vice-versa ; favoritisme de Nittobo envers certains alliés. Représailles chinoises. La supply chain se fragmente en deux sphères — occidentale et sino-centrique. La Chine accélère les alternatives domestiques. L’Occident sécurise son accès auprès de Nittobo par contrats stratégiques. Chacun construit son périmètre fermé. Les prix et les délais s’en ressentent.
Ce que cela change pour vous
Le T-glass n’est pas un sujet réservé aux ingénieurs d’électronique. C’est une fenêtre sur la fragilité de la chaîne d’approvisionnement mondiale qui alimente l’IA.
Si vous achetez un iPhone (2026–2027), ce que vous ne verrez jamais — mais qui aura contribué au délai de production ou au coût final — est un matériau. Un tissu de fibre de verre, mesuré en microns, produit au Japon par une entreprise que vous ne connaissiez pas.
Si vous exploitez une infrastructure cloud d’IA, vous déployez des GPU Nvidia, entraînez des modèles — vous accédez en priorité à ce matériau. Votre accès sécurisé repose sur un pouvoir d’achat suffisant pour négocier avec Nittobo. Les startups et les acteurs du tiers-monde n’ont pas cet accès. C’est une forme de gate-keeping invisible, qui n’apparaît jamais sur les feuilles de spécifications des processeurs.
Si vous travaillez en Chine dans les semi-conducteurs, vous avez peut-être un avantage : l’électricité pour fabriquer, l’urgence stratégique pour développer des alternatives, et la capacité industrielle à itérer rapidement. Quand l’Occident attend du T-glass, vous construisez en parallèle.
Conclusion
C’est ainsi que le matériel dicte la géopolitique de l’IA. Nitto Boseki, entreprise textile centenaire, en est devenue une pièce centrale — par une technicité que personne ne remarque jusqu’à ce qu’elle manque.
FAQ
Qu'est-ce que le T-glass et pourquoi est-ce critique pour l'IA ?
Le T-glass est un tissu de fibre de verre caractérisé par un coefficient d’expansion thermique ultra-bas. Il forme la couche de renforcement structural des substrats qui accueillent les GPU et autres puces IA. Sans T-glass, les substrats se déforment sous la chaleur et les connexions électroniques s’écrasent, causant l’arrêt des processeurs.
Qui produit le T-glass et quel est son marché ?
Nitto Boseki (Nittobo) contrôle entre 60 et 70 % du marché mondial du T-glass avancé. Ses deux concurrents directs sont Asahi Kasei et Asahi Glass, qui partagent le reste. Nittobo détient les secrets manufacturiers depuis plus de 40 ans, ce qui lui confère un avantage technique difficile à rattraper.
Pourquoi Nitto Boseki refuse-t-elle d'augmenter sa production ?
Le CEO Hiroyuki Tada a adopté une stratégie explicite de niche premium : maintenir une rareté artisanale pour exploiter les prix élevés et privilégier les marges à la croissance. L’entreprise génère un revenu modeste mais exerce un contrôle stratégique sur les géants de la tech.
Quelles alternatives au T-glass existent actuellement ?
Taiwan Glass a certifié une fibre Low-Dk mais ses propriétés thermiques restent inférieures. Nan Ya Plastics annonce pouvoir atteindre 20 % de la capacité de Nittobo d’ici 2027. Grace Fabric Technology en Chine se positionne comme alternative domestique mais aucune production en volume confirmée. Aucune n’a réussi à ce jour à briser le monopole.
Comment ce monopole affecte-t-il les prix des serveurs d'IA et des appareils électroniques ?
La pénurie délibérée de T-glass maintient les prix élevés. Nvidia et les hyperscalers obtiennent la priorité d’accès, tandis que les fabricants de consumer electronics sont relégués en dernier recours. Goldman Sachs prévoit des déficits de deux chiffres pour le T-glass destiné aux substrats durant les prochains trimestres, ce qui impacte les délais et coûts finaux.
Après avoir inventé le terme « vibe coding » en février 2025, Andrej Karpathy introduit officiellement « agentic engineering » un an plus tard. La différence ? Le vibe coding accepte aveuglément tout ce que génère une IA. L’agentic engineering confie aux agents IA autonomes la tâche d’écrire, tester et affiner le code — mais sous une orchestration et une révision humaines rigoureuses. Ce guide traduit cette nouvelle discipline en workflows opérationnels concrets.
L’agentic engineering requiert une orchestration humaine rigoureuse et continue, contrairement au vibe coding
Trois prérequis non-négociables : tests robustes, spécification écrite, CI/CD opérationnel
Quatre phases clés : discovery, planification, orchestration, exécution et validation
Les tests deviennent des validation gates que l’agent doit franchir pour réussir
Circuit breaker sur les coûts et monitoring continu pour éviter les hallucinations LLM
Vibe Coding vs. Agentic Engineering : la distinction critique
Depuis fin 2024, deux termes circulent dans les équipes tech. Ils sonnent proches. Ils désignent des univers opposés.
Qu'est-ce que le vibe coding ?
Le vibe coding repose sur un postulat simple : un humain prompt une IA, reçoit du code, l’accepte sans révision substantielle et le déploie. C’est rapide. C’est commode. C’est dangereux en production.
Addy Osmani, ingénieur chez Google Cloud, le dit crûment : « Vibe coding means going with the vibes and not reviewing the code. That’s the defining characteristic. »
Le vibe coding a ses cas d’usage légitimes — scripts personnels, prototypes MVP, apprentissage. Il s’arrête là.
Qu'est-ce que l'agentic engineering ?
L’agentic engineering, c’est l’inverse. Les agents IA ne reçoivent pas d’ordre du type « génère-moi une feature ». Ils reçoivent un cahier des charges précis, une architecture cible, des tests à passer. Ils écrivent du code, le testent, itèrent jusqu’à ce que les tests passent. Un humain — architecte, reviewer, décideur — reste maître du navire à chaque étape critique.
Osmani résume : « Agentic engineering isn’t easier than traditional engineering — it’s a different kind of hard. You’re trading typing time for review time. »
Comparaison directe
**Critère**
**Vibe Coding**
**Agentic Engineering**
**Autorité**
Acceptation humaine ponctuelle
Orchestration humaine continue
**Révision**
Optionnelle, souvent nulle
Obligatoire, structurée
**Processus**
Prompt → Code → Deploy
Spec → Plan → Discovery → Orchestration → Validation
**Risque production**
Élevé
Contrôlé
**Compétence requise**
Minimal
Ingénierie solide
Le piège courant
Certaines équipes pensent pratiquer l’agentic engineering en écrivant un prompt ambitieux et en croisant les doigts. C’est du vibe coding peint en noir.
Prérequis : fondations avant d'engager les agents
Avant de confier la moindre tâche critique à un agent IA, trois éléments non-négociables doivent déjà être en place.
1. Des tests robustes
Osmani appelle ça « le pivot » : transformer un agent non fiable en système fiable. Sans suite de tests solide, vous ne saurez jamais si l’agent a réellement réussi ou s’il hallucine.
Les tests servent de validation gate. L’agent itère jusqu’à ce qu’ils passent, point final. Visez 60–70 % de couverture minimum.
2. Une spécification écrite
Pas un message Slack. Pas une note Figma. Un document : architecture, interfaces, contraintes, conditions de succès.
L’agent doit savoir exactement ce qu’il cherche à accomplir. Si vous improvisez, il improvise aussi — et ses improvisations sont imprévisibles.
3. Un CI/CD opérationnel
Si votre pipeline de déploiement est manuel, branlant ou documenté sur Post-it, les agents vont pourrir le système. Ils accélèrent le processus existant, ils ne le créent pas.
Checklist d'infrastructure préalable
✓ Suite de tests étendue (>60 % couverture)
✓ Design docs à jour, lus par l’équipe
✓ CI/CD automatisé, fiable, testé en échec
✓ Logging centralisé (ELK, Datadog, etc.)
✓ Git branching strategy solide
✓ Monitoring production
✓ Runbooks pour incidents critiques
Si vous cochez moins de 5 cases, le problème n’est pas l’agent — c’est votre infrastructure.
Mise en garde : développeurs junior et agents
Enrôler des développeurs junior dans un processus agentic alors qu’ils ne maîtrisent pas les fondamentaux pose un risque majeur. Osmani relève : « AI didn’t cause the problem; skipping the design thinking did. »
Obligation absolue : chaque diff généré par un agent doit être révisé, compris et validé par un développeur senior.
Phase 1 : discovery — cartographier le système
Avant que l’agent n’exécute quoi que ce soit, il faut qu’il comprenne le terrain.
La discovery phase est une exploration méthodique de l’architecture cible. L’agent inspecte le dépôt Git (structure, dépendances, patterns), questionne le système en live (configuration, services, stockage, réseau), génère une baseline quantifiée, puis centralise tout dans un document opérationnel.
Cas pratique : migration multi-conteneurs
Patrick McCanna, ingénieur ops, a documenté une migration de services d’un Raspberry Pi 3 vers un serveur AMD Ryzen. La discovery a révélé :
Services réservés sur la cible : Ollama, Open WebUI, n8n
Sans cette discovery, l’agent aurait échoué à la première étape.
Étapes concrètes de discovery
1. Exploration repo. L’agent scrape le dépôt Git. Il cartographie : arborescence, dépendances, patterns d’infra.
2. Inspection live. L’agent fait de la reconnaissance en direct : docker ps -a # conteneurs docker volume ls # volumes df -h # espace disque curl http://localhost:8080/health # services vivants
Créer un post, uploader une image, générer une carte. Vérifier que tout marche.
Vérifications d'intégrité
Checksum avant/après ; vérifier que la base de données n’est pas corrompue.
Monitoring post-déploiement
Activer les sondes de readiness, observer les logs 30 min. Pas d’erreur 5xx ? Pas de latence dégradée ? Bon.
Documentation finale
L’agent génère un rapport final : timeline d’exécution, diffs appliqués, logs importants, checklist post-migration validée. Conservez-le pour la prochaine migration.
Pièges courants et solutions
Piège 1 : accepter le rapport sans preuve
Shannon a résolu ça avec une règle simple : « No exploit, no report. » Chaque vulnérabilité déclarée doit être prouvée par une exploitation réelle.
Dans votre contexte : Pas de changement déclaré sans vérification par baseline counts et tests fonctionnels.
Piège 2 : hallucinations LLM
L’agent affirme « 6 conteneurs migrés ». Vérifiez : `docker ps` en dit quoi ? Si le chiffre ne match pas, enquête immédiate.
Piège 3 : scope creep
L’agent était censé migrer 6 conteneurs. Il en crée 7 « pour optimiser ». Interdire. L’agent suit le spec, point final.
Piège 4 : coûts token imprévisibles
Shannon coûte ~$50 USD par run. Budgetez large. Fixez un circuit breaker en coûts : limite avant chaque workflow.
Piège 5 : production sans staging
Cutover directement en prod sans tester en staging est suicidaire. McCanna a utilisé une DNS temporaire pour tester l’exécution complète en staging avant prod.
Copiez ce pattern.
Atrophie de compétences junior
Un développeur junior qui passe un prompt et merge sans comprendre ne développe aucune intuition. Osmani l’a observé : « Disproportionately risky pour junior (can prompt but can’t debug). »
Solution obligatoire : Pour chaque diff généré par agent, revue + compréhension + explication écrite avant merge.
❌ Agent génère 300 lignes. Junior merge.
✓ Agent génère 300 lignes. Junior : lit, comprend, explique par écrit. Senior : valide compréhension et qualité. Merge.
Simon Willison : « LLM for Code » — patterns pour génération fiable
Patrick McCanna : « Using Custom AI Agents to Migrate Services » — cas d’usage reproductible
Conclusion
L’agentic engineering n’est pas une alternative au développement traditionnel. C’est une discipline qu’on superpose à une infrastructure déjà rigoureuse. Si votre équipe n’a pas tests robustes, pas specs écrites, pas CI/CD fiable, les agents vont accélérer le chaos, pas la productivité.
Mais si vous avez ces fondations, les agents deviennent des force multipliers. Ils exécutent des plans. Ils itèrent rapidement. Ils s’arrêtent aux checkpoints que vous définissez. Les humains gardent l’autorité.
Le vrai challenge n’est pas technique. C’est organisationnel : valider chaque diff, maintenir la compréhension, refuser la tentation de faire confiance aveuglément. C’est du travail. Mais c’est du vrai travail d’ingénierie.
FAQ
Quelle est la différence entre vibe coding et agentic engineering ?
Le vibe coding accepte aveuglément tout ce que génère une IA sans révision substantielle. L’agentic engineering confie aux agents IA autonomes la tâche d’écrire, tester et affiner le code — mais sous une orchestration et une révision humaines rigoureuses. L’agentic engineering n’est pas plus facile ; c’est un échange entre le temps de rédaction et le temps de révision.
Quels sont les prérequis avant de déployer des agents IA en production ?
Trois éléments non-négociables : une suite de tests robuste (visant 60–70 % de couverture minimum), une spécification écrite détaillée (architecture, interfaces, contraintes), et un CI/CD opérationnel et fiable. Si vous cochez moins de 5 cases dans la checklist d’infrastructure, le problème n’est pas l’agent — c’est votre infrastructure.
Quelles sont les 4 phases clés de l'agentic engineering ?
Phase 1 : Discovery — cartographie méthodique du système cible et des contraintes. Phase 2 : Planification — construction d’un plan d’exécution en phases avec enrichissements humains. Phase 3 : Orchestration — pilotage des agents avec prompts structurés et tests comme validation gates. Phase 4 : Exécution & Validation — vérification de baseline counts, tests fonctionnels et monitoring post-déploiement.
Comment éviter les hallucinations LLM lors d'une migration d'agents ?
Générez des baseline counts avant toute mutation (posts, images, données). L’agent affirme « 6 conteneurs migrés » ? Vérifiez avec `docker ps`. Utilisez des tests fonctionnels comme validation gates que l’agent doit franchir. Comparez baseline counts avant/après. Si le chiffre ne match pas, enquête immédiate. Maintenez un circuit breaker sur les coûts tokens pour limiter les hallucinations longues.
Quels outils utiliser pour orchestrer des workflows multi-agents autonomes ?
LangGraph — Framework Anthropic pour workflows multi-agents, gratuit et open-source. Temporal.io — Moteur de workflow durable gérant retries, timeouts et patterns saga. Anthropic Agent SDK — Recommandé pour le raisonnement structuré. Shannon (GitHub `KeygraphHQ/shannon`) — Agent de pentesting autonome déjà déployé en production avec benchmarks publiés.
54 000 suppressions d’emplois attribuées à l’intelligence artificielle en 2025. Mais les économistes soupçonnent une autre histoire : derrière ce tsunami de justifications technologiques se cacheraient des enjeux bien plus terrestres — tarifs douaniers, sur-embauche pandémique, maximisation des profits. Un phénomène baptisé AI washing par les chercheurs.
54 000 licenciements déclarés comme liés à l’IA en 2025, bien au-delà des suppressions justifiées par les tarifs douaniers (8 000)
Les CEOs changent constamment de discours : Andy Jassy d’Amazon déclare en octobre que les licenciements ne sont « pas vraiment liés à l’IA »
Déployer une IA mature capable de remplacer un employé requiert 18 à 24 mois selon Forrester, bien au-delà des licenciements de 2025
Trois causes réelles documentées : sur-embauche pandémique, tarifs douaniers, et réduction des coûts de main-d’œuvre via externalisation
Seuls 6 % des emplois américains seront automatisés d’ici 2030 selon Forrester, très loin des 54 000+ suppressions en 2025
Les chiffres de la grande justification
Cinquante-quatre mille : c’est le nombre de licenciements déclarés par les grandes entreprises américaines en 2025 comme directement liés à l’intelligence artificielle, selon le cabinet Challenger, Gray & Christmas.
Ce volume dépasse largement les suppressions justifiées par les tarifs douaniers, qui ont franchi la barre des 8 000 à peine.
Amazon a ouvert la marche. En janvier, le géant annonce 16 000 suppressions d’emplois. En octobre, une deuxième vague : 14 000. C’est Beth Galetti, vice-présidente des Ressources humaines, qui fournit l’explication : l’IA transforme les organisations, qui doivent devenir « plus maigres » pour rester compétitives.
Hewlett-Packard suit le même script. En novembre 2025, le PDG Enrique Lores annonce 6 000 suppressions en invoquant l’adoption de l’IA.
Duolingo offre un cas révélateur. En avril 2025, le cofondateur Luis von Ahn déclare vouloir devenir « AI-first », arrêtant les contrats externes pour des tâches confiables à la technologie. Quelques mois plus tard, interrogé par le New York Times, il rectifie : Duolingo n’a jamais licencié ses salariés permanents. Seul le vivier de contractants temporaires a fluctué.
Quand les dirigeants se contredisent
Le revirement de Duolingo n’est pas isolé. Amazon l’illustre encore plus crûment.
En octobre 2025, Andy Jassy, PDG d’Amazon, déclare publiquement : « Ce n’est pas vraiment lié à l’IA, en fait. C’est vraiment une question de culture ». Cela contredit frontalement le discours de sa VP quelques semaines auparavant.
Cette instabilité narrative intrigue les analystes. Fabian Stephany, chercheur à l’Oxford Internet Institute, spécialiste du AI washing, explique le mécanisme :
« Vous pouvez dire : “Nous intégrons la plus nouvelle technologie dans nos processus métier, nous sommes vraiment des pionniers technologiques, et nous devons nous débarrasser de ces personnes.” »
Stephany concède que dans certains domaines — le support client notamment — les capacités actuelles de l’IA s’alignent plausiblement avec les tâches en question. Mais cette vraisemblance technique ne valide pas pour autant l’ensemble des affirmations des dirigeants.
Trois causes réelles, documentées
Les économistes proposent trois explications alternatives, chacune documentée et concurrente avec la narrative officielle.
La sur-embauche pandémique
Durant 2020–2021, avec des taux d’intérêt proches de zéro et une rareté de talents, les entreprises ont gonflé drastiquement leurs effectifs. Aujourd’hui, avec des taux normalisés, elles corrigent cet excédent. Le Wall Street Journal a documenté ce phénomène : les réductions 2025 correspondent largement à une rebalance cyclique, pas à une révolution technologique.
Les tarifs douaniers : la gêne politique
Sous la deuxième administration Trump, les droits de douane menacent les marges des géants technologiques. Mais les CEOs hésitent à le dire. Martha Gimbel, directrice exécutive du Yale Budget Lab, décrypte ce silence :
« Vous avez observé une vraie réticence chez certains secteurs du business américain à dire quoi que ce soit de négatif sur les impacts économiques de l’administration Trump, parce qu’ils craignent des représailles. En attribuant les licenciements à de nouvelles efficiences créées par l’IA, on évite ce contrecoup potentiel. »
Amazon elle-même l’illustre. En avril 2025, le géant avait envisagé d’afficher publiquement le coût des tarifs sur sa plateforme. La Maison-Blanche a qualifié l’idée d’« hostile ». L’initiative a été abandonnée.
La réduction des coûts de main-d'œuvre
Un ancien cadre sénior d’Amazon, licencié en octobre, le confirme anonymement :
« J’ai été licencié pour économiser sur les coûts de main-d’œuvre. »
Puis il ajoute, révélant le vrai mécanisme :
« Peut-être que l’IA a aidé à avoir une personne moins expérimentée — et moins payée — faire une partie du travail. »
Autrement dit : l’IA n’a pas supprimé le travail ; elle a permis son externalisation à moindre coût.
Le délai qui pose question
JP Gownder, analyste principal chez Forrester, soulève un problème temporel majeur. Déployer une application d’IA mature capable de remplacer un employé requiert généralement 18 à 24 mois. Or, les licenciements de 2025 interviennent bien avant cet horizon.
« Si vous n’avez pas une application d’IA mature, déployée et prête à faire le travail… cela pourrait vous prendre 18 à 24 mois pour remplacer cette personne par l’IA — si cela fonctionne vraiment. »
Gownder identifie aussi un pattern récurrent : nombre de CEOs, peu familiers des détails technologiques, déclarent : « Licencions 20 à 30 % de nos effectifs et remplaçons-les par l’IA », sans évaluer la faisabilité réelle.
Les projections long terme renforcent ce scepticisme. Forrester estime que seulement 6 % des emplois américains seront automatisés d’ici 2030 — très loin des 54 000+ supprimés en 2025 au nom de l’IA.
Les cas où l'IA tient techniquement
Cela dit, l’IA ne brille pas par son absence totale.
Marc Benioff, PDG de Salesforce, affirme avoir réduit son support client de 9 000 à 5 000 agents grâce à des systèmes d’IA. C’est techniquement plausible : le support client figure parmi les tâches les plus proches des capacités actuelles de l’IA. Stephany juge cette affirmation plus fondée que les autres.
Martha Gimbel nuance toutefois :
« Les déclarations de CEO sont possiblement la pire façon de comprendre comment le changement technologique affecte le marché du travail. »
Ce que le "AI washing" révèle
Le phénomène n’est pas une théorie du complot. Il reflète une réalité simple : face à des pressions financières réelles — sureffectif, tarifs, exigences de marges — les dirigeants préfèrent invoquer la technologie plutôt que l’austérité ou les tensions politiques.
L’IA passe pour du progrès inévitable. Les tarifs sonnent comme une critique du gouvernement. La sur-embauche pandémique ressemble à une erreur managériale passée. Le choix est transparent : quel récit minimise le contrecoup politique et commercial ?
Les revirements de Jassy et von Ahn révèlent un indice supplémentaire : l’instabilité même de cette narration suggère qu’elle ne repose pas sur des fondations solides. Un discours ancré dans l’opérationnel tiendrait mieux.
Trois signaux pour clarifier
La vérité émergerait de trois indicateurs concrets :
Publication de rapports d’impact internes détaillant le retour sur investissement réel de l’IA par entreprise.
Étude indépendante quantifiant quelle fraction des 54 000 suppressions correspond à de l’IA réellement déployée et fonctionnelle.
Constance du discours en 2026 : si les CEOs continuent à affiner et préciser leurs claims d’IA, cela suggère une causalité réelle. S’ils changent de direction, cela conforte la thèse de la rationalisation post-hoc.
Conclusion
D’ici là, le chiffre de 54 000 reste inscrit dans le registre des raisons officielles. Les moteurs réels attendent toujours d’être nommés.
FAQ
Qu'est-ce que le "AI washing" ?
Invoquer l’IA pour légitimer des décisions financières ou de réduction des coûts, sans que la technologie soit réellement responsable des changements.
Combien de licenciements ont été attribués à l'IA en 2025 ?
54 000 suppressions d’emplois, selon le cabinet Challenger, Gray & Christmas — bien plus que ceux liés aux tarifs douaniers (< 8 000).
Pourquoi les CEOs invoqueraient-ils l'IA plutôt que la vraie raison ?
L’IA passe pour du progrès inévitable, tandis que les tarifs sonnent comme une critique gouvernementale et la sur-embauche comme une erreur d’hier.
Quel délai faut-il pour déployer une IA capable de remplacer un employé ?
Généralement 18 à 24 mois selon Forrester. Or, les licenciements de 2025 interviennent avant cet horizon.
Quels secteurs ont réellement vu l'IA remplacer des emplois ?
Le support client est le plus crédible, notamment chez Salesforce (réduction de 9 000 à 5 000 agents).
Un nouvel outil de test de pénétration autonome change la donne pour les équipes de développement. Shannon, lancé par Keygraph en novembre 2025, ne se contente pas de signaler des vulnérabilités — il les exploite réellement pour les valider. Sur OWASP Juice Shop, le test comparatif a découvert plus de 20 failles critiques. Mais avant de le déployer, mieux vaut comprendre ce qu’il fait vraiment, et surtout, ce qu’il ne fait pas.
Shannon est un agent IA autonome qui identifie les vulnérabilités web et les exploite réellement pour les valider
Taux de réussite de 96,15 % sur XBOW, mais probablement 70–80 % en production réelle avec WAF et MFA
À réserver au staging avec données de test, jamais en production
Coût environ 50 USD par test complet, contre 2 000–5 000 USD pour un pentest externe
Shannon n’est pas un outil autonome pour remplacer les pentesters, mais un multiplicateur de temps pour les équipes
Qu'est-ce que Shannon ?
Shannon est un agent IA entièrement autonome conçu pour automatiser le test de pénétration sur les applications web. Contrairement aux scanners de sécurité classiques qui génèrent des alertes — souvent des faux positifs — Shannon va plus loin : il identifie une vulnérabilité, puis l’exploite pour prouver qu’elle est réelle.
L’outil opère selon une logique radicale : seules les vulnérabilités qu’il a effectivement exploitées figurent dans le rapport final. C’est cette approche par preuve qui élimine le bruit.
Shannon exécute quatre étapes parallélisées pour aller de l’identification à la preuve d’exploitation.
Phase 1 – Reconnaissance
L’outil scanne le code source et l’application web en direct, utilisant des outils comme Nmap, Subfinder et WhatWeb pour dresser une cartographie des surfaces d’attaque. Il identifie les points d’entrée, les technologies employées et les versions exposées.
Phase 2 – Analyse de vulnérabilités
Des agents IA spécialisés travaillent en parallèle, chacun focalisé sur une catégorie d’attaque. Ils analysent le code et repèrent les patterns d’erreur classiques : concaténation de chaînes SQL, absence de validation d’entrée, mauvaise gestion d’authentification.
Phase 3 – Exploitation active
Shannon utilise un navigateur automatisé pour exécuter les attaques identifiées. Il crée des comptes, envoie des payloads, tente les chemins d’exploitation et valide chaque attaque réussie. Chaque succès génère une preuve de concept reproductible.
Phase 4 – Rapport
Seules les exploitations validées sont documentées. Le rapport contient les instructions pour reproduire chaque faille et les mesures d’atténuation recommandées.
La différence : certitude au lieu de suspicion
Les scanners de sécurité traditionnels reposent sur la détection de patterns. Un outil peut signaler « absence de validation d’entrée » sur une variable — un signal utile, mais qui ne prouve pas qu’une attaque réelle fonctionnera. Le contexte change tout : un WAF peut bloquer l’exploitation, une dépendance oubliée peut compliquer l’injection, la logique applicative peut contrecarrer la tentative.
Shannon élimine ce doute. Quand il rapporte une vulnérabilité, c’est parce qu’il a réellement exploité le serveur, modifié les données ou contourné l’authentification.
Ce détail est majeur : c’est une certitude au lieu d’une suspicion.
Le fossé des pentests classiques
Les équipes qui utilisent des outils comme Claude Code ou Cursor livrent du code en continu — plusieurs fois par jour. Mais les pentests traditionnels ont lieu une fois par an. Shannon comble ce fossé de 364 jours.
Les résultats : du benchmark au benchmark épuré
Cas d'étude : OWASP Juice Shop
OWASP Juice Shop est une application web intentionnellement vulnérable, conçue comme banc d’essai pour les outils offensifs. Shannon y a découvert plus de 20 vulnérabilités critiques : contournement complet de l’authentification, exfiltration de bases de données, escalade de privilèges, accès par SSRF (Server-Side Request Forgery). Ces résultats sont documentés et reproductibles via le dépôt GitHub officiel.
Le benchmark XBOW : 96,15 % expliqué
Shannon a atteint 96,15 % de taux de réussite sur XBOW. Ce score signifie 100 exploits validés sur 104 tentés, sans indices, avec accès au code source. Pour contexte, les pentesters humains et les outils propriétaires antérieurs obtiennent environ 85 % sur la suite XBOW complète.
Ce que 96,15 % signifie vraiment
Ce chiffre mérite d’être décodé clairement. XBOW est un référentiel public et reproductible, conçu pour éprouver les outils offensifs. Shannon réussit là où d’autres outils échouent — c’est une preuve que l’approche par exploitation active fonctionne.
Mais XBOW ne simule pas la production. La vraie production ajoute plusieurs couches de complexité : authentification multi-facteurs (SSO, MFA), pare-feu applicatif (WAF), limiteurs de taux, surveillance comportementale, logique métier complexe. Un exploit qui fonctionne sur Juice Shop peut échouer silencieusement face à un WAF.
En staging avec données de test, Shannon excelle (proche de 96 %). En production, l’efficacité baisse probablement à 70–80 %. Le point positif reste zéro faux positifs — chaque rapport représente une véritable exploitation.
Quand l'utiliser
Shannon n’est pas un jouet de développeur. C’est un outil à déployer stratégiquement.
Release candidate en staging
Avant de déployer une nouvelle version en production, lancez Shannon sur un environnement de test avec données de test. Résultat : validation d’exploitation réelle en 1–1,5 heure, plutôt que d’attendre un pentest externe dans six mois.
Intégration continue légère
Shannon peut s’intégrer dans un pipeline CI/CD pour valider les builds candidats — pas à chaque commit (coût prohibitif), mais à chaque release milestone.
Multiplicateur de temps pentesteur
Les pentesteurs humains restent essentiels pour la réflexion stratégique, la logique métier, les attaques chaînées. Shannon compresse le temps de reconnaissance et de validation. Un pentesteur + Shannon valident 2–3 fois plus vite.
Ce qu'il ne faut pas faire
Jamais en production. Shannon est mutatif — il crée des comptes, modifie des données, exécute des attaques. Une application en direct ne peut pas supporter cela. C’est une question d’intégrité des données avant même la sécurité.
Jamais sans autorisation écrite. Shannon est une arme. Son utilisation exige une approbation explicite, incluant le scope, la fenêtre d’exécution et les environnements autorisés.
Le coût réel
Un test complet sur Shannon Lite : 1 à 1,5 heure d’exécution, coûtant environ 50 USD en appels API Claude 4.5 Sonnet (via Anthropic). Pour une équipe de développement qui livre plusieurs fois par semaine, c’est un coût d’assurance raisonnable.
Modèle
Coût
Temps
Fréquence
Shannon
50 USD
1–1,5 h
À chaque release
Pentest externe
2 000–5 000 USD
4–6 semaines
Annuel
Les avertissements critiques
Avant de déployer Shannon, trois points non-négociables.
Données mutatrices. Shannon crée des utilisateurs, modifie des enregistrements, exécute des injections. Accepté en staging avec données de test ; catastrophique avec données réelles. Utilisez des environnements sandbox ou des restaurations de données.
Autorisation obligatoire. N’exécutez jamais Shannon sans approbation écrite. C’est un outil offensif. L’exécuter sans permission est légalement problématique — même en interne.
Responsabilité totale de l’utilisateur. Keygraph rappelle explicitement : Shannon est fourni tel quel. Si l’outil endommage une application ou expose des données, c’est sur vous. Assurez-vous d’avoir des sauvegardes, testez en environnement isolé d’abord et documentez l’autorisation d’exécution.
Shannon remplace-t-il les pentesters humains ?
La réponse est non. Mais il change leur rôle.
Au lieu de passer 40 % du temps sur la reconnaissance et la validation basique, les pentesters se concentrent sur la logique métier que Shannon ne comprend pas, sur les attaques chaînées impliquant plusieurs failles, et sur la communication des résultats techniques en recommandations compréhensibles pour les développeurs.
Shannon devient un outil dans la boîte du pentesteur, comme Burp Suite ou Metasploit. L’arme réside dans la personne qui sait l’utiliser stratégiquement.
Limitations et feuille de route
Shannon Lite, lancé en novembre 2025, couvre cinq catégories OWASP. Ce n’est pas exhaustif. Ne sont pas couverts aujourd’hui : les attaques contre les logiques métier complexes, les vulnérabilités de configuration infrastructure, les attaques API sophistiquées au-delà des patterns OWASP basiques, le chaînage multi-étapes non découvertes par reconnaissance initiale.
Shannon Pro est annoncé mais pas livré. Aucun détail public sur son timing de lancement, son prix ou ses fonctionnalités exactes.
Il n'y a pas de balle magique
Shannon est une avancée réelle. L’exploitation autonome validée réduit drastiquement le bruit des faux positifs — un problème de longue date. La capacité à compresser des cycles de pentest de semaines à heures est précieuse.
Mais les benchmarks brillants cachent souvent une réalité plus grise. Shannon excelle dans un monde épuré. En production, face aux WAF, à l’authentification multi-facteurs, aux taux limités et à la surveillance, son efficacité diminuera. Ce n’est pas un déshonneur — c’est la nature des outils de sécurité.
Le vrai test viendra en 2026, quand les équipes l’auront déployé en conditions réelles. Les retours de cas client, aujourd’hui absents, diront si le signal du benchmark (96,15 %) se traduit en protection réelle. En attendant, Shannon est un outil intelligent à ajouter à la chaîne de validation — à condition de respecter ses limites et ses conditions d’emploi.
FAQ
Qu'est-ce que Shannon et comment fonctionne-t-il ?
Shannon est un outil autonome de pentest qui identifie les vulnérabilités web, puis les exploite réellement pour les valider — seules les failles exploitées figurent au rapport.
Shannon remplace-t-il les pentesters humains ?
Non. Shannon accélère la reconnaissance et la validation basique, libérant les pentesters pour les attaques chaînées, la logique métier et la stratégie.
Quel est le vrai taux d'efficacité de Shannon : 96 % en production aussi ?
Le 96,15 % sur XBOW est pertinent mais limité — c’est un benchmark contrôlé. En production réelle (WAF, MFA, rate limiting), l’efficacité baisse probablement à 70–80 %.
Peut-on déployer Shannon en production ?
Non. Shannon est mutatif (crée des comptes, modifie des données). À réserver au staging avec données de test, avec autorisation écrite.
Quel est le coût réel d'un test Shannon ?
Environ 50 USD en appels API pour 1–1,5 heure de test complet — une fraction du coût d’un pentest externe classique.
Michael Chinen a confié à Claude Code une migration d’infrastructure complète en mode autonome. Un succès qui révèle autant sur la chance que sur les véritables limites de sécurité des agents IA non supervisés.
Quinze ans d'infrastructure gratuite qui s'arrêtent
Pendant 15 ans, Michael Chinen a contourné les frais AWS grâce à une stratégie simple : créer chaque année un nouveau compte pour accéder aux 12 mois gratuits du programme Free Tier, puis migrer son infrastructure depuis l’ancien. Une douzaine d’heures annuelles de travail manuel, mais un serveur entièrement gratuit.
Le 15 juillet 2025, cette mécanique s’est grippée. AWS a refondu son Free Tier : les nouveaux comptes reçoivent un crédit de $100 plus jusqu’à $100 en bonus d’onboarding, mais plus de 12 mois gratuits. Les anciens comptes conservent l’ancien régime, sauf qu’AWS a fermé le loophole des migrations annuelles.
Pour la première fois en 15 ans, Chinen a vu sa facture grimper à environ $20 par mois pour son instance EC2 micro. Au lieu d’une migration classique, il a décidé de déléguer l’ensemble du travail à Claude Code, l’agent autonome d’Anthropic capable d’accéder au système de fichiers, d’exécuter des commandes shell et de créer du code sans intervention constante.
Le mode sans filet : `–dangerously-skip-permissions`
Claude Code existe normalement avec un système d’autorisations strict. Avant chaque action — lire un fichier, lancer un script, modifier le système — l’agent demande confirmation. Le flag –dangerously-skip-permissions supprime entièrement cette friction. Pas de demande, pas d’avertissement : Claude code, exécute et corrige.
Pourquoi ce choix reste controversé
Boris Cherny, créateur du Claude Code SDK, recommande formellement d’éviter ce flag sur des systèmes connectés à la production ou contenant des données sensibles. Les risques documentés incluent : suppression involontaire de fichiers, installation de dépendances non contrôlées, accès au réseau local, et accès direct aux secrets stockés en clair.
Quelques mois plus tôt, Gemini 3 Pro avait déjà causé des dégâts en supprimant le disque d’un développeur lors d’une exécution autonome mal supervisée.
Chinen le savait. Mais il a judicieusement limité le théâtre des opérations : il a installé Ubuntu sur un vieux MacBook Air 2013, complètement isolé de son réseau personnel. Pas de données critiques. Pas d’accès direct à d’autres systèmes. Le pire scénario restait un MacBook inutile à réinstaller.
« The fact that I did this experiment probably shows in some ironic way that my security mindset is not as good as it needs to be, » reconnaîtra-t-il après coup.
Trente minutes : déroulement de la migration autonome
Avant de partir dîner, Chinen a préparé le terrain : il a rsync l’intégralité du disque AWS sur le MacBook, puis lancé Claude Code en mode autonome avec cette instruction : migrer tout en instance WordPress locale, déployer sur Cloudflare Pages et changer le DNS.
Claude a d’abord posé environ dix questions pour clarifier la configuration attendue, les chemins de fichiers à préserver et les identifiants Cloudflare. Des échanges normaux, typiques d’un agent qui cherche à réduire les ambiguïtés.
À son retour 30 minutes plus tard, le travail était complet : WordPress tournait en local sur le MacBook, les fichiers statiques avaient basculé vers Cloudflare Pages, et le DNS pointait vers la nouvelle infrastructure. Deux prompts supplémentaires ont suffi à corriger du CSS et vérifier les liens rompus.
Une migration qui aurait normalement demandé une demi-journée ou une journée complète s’était déroulée sans lui.
Ce qui n'a pas disparu : les vrais risques restent
L’absence d’incident ne signifie pas absence de danger. Avec le flag –dangerously-skip-permissions, Claude aurait techniquement pu supprimer les fichiers WordPress au lieu de les migrer, installer une dépendance malveillante, exécuter un script de pivot réseau, ou utiliser les API tokens Cloudflare stockés en clair sur la machine.
Dans un environnement de production avec des données réelles ou une infrastructure interdépendante, une chaîne d’erreurs aurait pu se transformer en incident critique en minutes. Chinen s’en rend compte et promet d’être plus prudent : il continuera à utiliser Claude Code « in a safer mode unless the right conditions come along to allow running unsupervised again ».
L’autonomie de l’IA existe et fonctionne, mais elle fonctionne grâce à une discipline humaine — isolation du système, absence d’enjeux critiques — plutôt que grâce à des garde-fous techniques infaillibles.
Une prouesse, pas un modèle
L’histoire de Chinen n’est pas une preuve que les développeurs devraient délaisser les devops. C’est un cas très particulier : un développeur expérimenté, un agent avancé, une infrastructure légère, un faible niveau de risque et une dose de bonne fortune.
Reproduire ce scénario sur une architecture complexe avec des données clients, des services interdépendants et une vraie tolérance zéro aux bugs, c’est un tout autre niveau de pari. Anthropic maintient ses recommandations : le flag reste un outil pour les cas isolés, pas pour les migrations sérieuses.
L'autonomie progresse plus vite que notre compréhension
Le fait que quelqu’un ait tenté cette expérience et réussi suggère que l’autonomie des agents IA progresse plus vite que nos intuitions de sécurité ne l’imaginent. Le choix entre supervisé et non supervisé n’est bientôt plus une abstraction académique, mais une décision architecturale que les équipes devront affronter. Pour la traiter correctement, il faudra moins de prouesses médiatiques que de discipline : isolation des risques, confinement des systèmes, et honnêteté systématique sur ce qui pourrait mal tourner.
Une société textile japonaise, quasi inconnue de l’industrie, fabrique en monopole le T-glass, matériau critique pour les puces IA avancées. Avec des stocks qui s’épuisent et aucun concurrent viable avant des années, Nittobo crée une asymétrie redoutable : Nvidia et Apple sécurisent leur approvisionnement tandis que l’électronique grand public attend.
Le monopole invisible de Nittobo
Quand on pense aux goulots de l’industrie technologique, on regarde Taiwan, la Corée du Sud, les fabs de pointe. Personne ne se tourne vers un fabricant textile japonais fondé il y a plus d’un siècle.
Pourtant, Nittobo produit presque entièrement le T-glass, matériau devenu critique pour assembler les puces IA les plus avancées. Cette concentration en un seul fournisseur n’est pas accidentelle. Elle repose sur des décennies de savoir-faire en tissage de précision, héritage direct du secteur de la soie. Convertir cette expertise vers les semi-conducteurs a créé une barrière compétitive vertigineuse — technologique, industrielle, géographique.
Le rôle essentiel du T-glass
Le T-glass est une feuille composée de fibres de verre microscopiques, tissées avec une finesse extrême. Son fonction : isoler et structurer les composants électroniques pour supporter des densités massives de transistors sans risque de surchauffe.
Sans T-glass, les puces IA modernes ne peuvent pas fonctionner à pleine capacité. C’est aussi simple.
Une pénurie confirmée jusqu'à fin 2024
Les stocks s’épuisent. La demande de puces IA croît plus vite que la capacité de production. Nittobo reconnaît la limite : elle ne peut pas apporter « une capacité nouvelle significative en ligne avant fin 2024 ». Cela signifie au minimum 6 à 12 mois de pénurie confirmée.
Noritsugu Hirakawa, analyste chez Daiwa Securities, résume l’enjeu : « Le T-glass est difficile à fabriquer et les concurrents n’auront pas facile à rattraper Nittobo rapidement. »
Effets immédiatement visibles :
Prix du T-glass en hausse
Délais de livraison allongés
Bataille croissante pour accéder aux stocks limités
L'asymétrie : qui reçoit, qui attend
Cette pénurie crée une hiérarchie de marché impitoyable. Nvidia, productrice des puces IA les plus demandées, obtient un accès prioritaire de facto. Apple, intégrant des puces IA dans ses serveurs et appareils, sécurise aussi ses approvisionnements. Ces géants négocient l’accès prioritaire grâce à leurs budgets et leurs contrats long terme.
L’électronique grand public passe au second plan. Yuta Nishiyama, analyste chez Citigroup, l’énonce clairement : « Les pénuries vont probablement se concentrer sur l’électronique grand public car ces produits obtiennent une priorité moindre. »
Conséquences tangibles :
Fabricants de smartphones, laptops, montres connectées : approvisionnements rationalisés
Délais de lancement produit qui s’allongent
Marges comprimées par des coûts matériaux gonflés
Cette asymétrie n’est ni conspiration ni malveillance. C’est la mécanique brute du marché sous tension : les gros acheteurs sécurisent le scarce. Les autres attendent.
Pourquoi aucun concurrent n'émerge rapidement
Pourquoi un rival ne construit-il pas simplement une nouvelle usine de T-glass ? Parce que ce n’est pas juste un verre, c’est un tissage de précision qui demande bien plus que du capital :
Savoir-faire accumulé : décennies pour calibrer les fours, créer des fibres nanométriques sans rupture, garantir une homogénéité suffisante
Processus hautement spécialisé : c’est un artisanat très haut de gamme, impossible à reproduire rapidement
Barrière technologique réelle : les concurrents potentiels (Corée du Sud, États-Unis, Chine) n’ont pas cet héritage de tissage de précision
Daiwa Securities estime que même les rivaux les plus sérieux ne rattrapperont pas Nittobo à court terme. Construire cette capacité demande 3 à 5 ans, pas quelques mois. Les équipements spécialisés n’existent pas en catalogue. Il faut les créer, les valider, les scaler.
L'expansion de Nittobo : promesse ou prévention ?
Nittobo n’attend pas passivement. L’entreprise investit pour augmenter sa capacité — nouvelles lignes, optimisations de process. Son horizon : fin 2024.
Mais elle prévient elle-même : « les nouvelles lignes de production ne seront pas suffisantes pour combler le fossé entre l’offre et la demande en hausse rapide ». Autrement dit, même avec l’expansion, la pénurie persiste, peut-être moins sévère mais toujours présente.
L’incertitude demeure. Un retard d’usine, une complication technique, un réajustement de production — tout décale la résolution. Entre-temps, Nvidia et Apple consolident leur accès prioritaire et l’électronique grand public continue d’attendre.
Un symptôme d'une fragilité systémique plus large
La crise du T-glass n’est pas isolée. Elle révèle une vulnérabilité plus profonde : le boom de l’IA repose sur des chaînes d’approvisionnement d’une finesse extrême où un seul fournisseur peut créer un goulot pour toute l’industrie.
Les puces IA exigent des centaines de matériaux et composants spécialisés. Le T-glass en est un. Mais d’autres « needle materials » existent — autant de sous-traitants localisés, sans concurrence viable, chacun représentant un point de rupture potentiel.
La complexité croissante des produits IA élargit le terrain de jeu des perturbations. Davantage de chaînes signifie davantage de points fragiles.
Une opportunité et un risque pour Nittobo
Son quasi-monopole lui confère un pouvoir de marché inédit — opportunité stratégique majeure. Mais cette dépendance à un seul fournisseur dans une économie mondiale de plus en plus consciente des vulnérabilités de chaîne logistique crée tôt ou tard une incitation pour les gouvernements et les consortiums technologiques de financer des alternatives. C’est un risque long terme.
Fin 2024 : un rendez-vous ouvert
La vraie question demeure sans réponse : l’expansion de Nittobo suffira-t-elle à résorber la pénurie ? Ou la demande de puces IA continuera-t-elle de croître encore plus vite, pérennisant le goulot ?
Si la première hypothèse l’emporte, le T-glass cessera d’être un point critique. Si la seconde persiste, Nittobo deviendra un maillon encore plus central — et probablement un sujet de tensions géopolitiques plus prononcées.
Pour l’heure, fin 2024 reste un rendez-vous d’incertitude, pas une résolution garantie.
FAQ
Qu'est-ce que le T-glass et pourquoi est-il indispensable aux puces IA ?
C’est un verre ultrafin tissé qui isole et structure les composants électroniques pour supporter de hautes densités de transistors sans surchauffe.
Pourquoi Nittobo est-elle le seul producteur de T-glass ?
L’entreprise a converti son expertise centenaire en tissage de précision (héritage de la soie) vers les semi-conducteurs, créant une barrière technologique et industrielle infranchissable à court terme.
Jusqu'à quand la pénurie de T-glass durera-t-elle ?
Nittobo a annoncé que les nouvelles lignes de production ne seront pas en ligne avant fin 2024, mais elle reconnaît que l’expansion ne suffira pas à combler le fossé offre-demande.
Qui bénéficie et qui souffre de la pénurie de T-glass ?
Nvidia et Apple obtiennent un accès prioritaire grâce à leur pouvoir d’achat. L’électronique grand public (smartphones, laptops, montres connectées) est marginalisée.
Pourquoi un concurrent ne peut-il pas simplement fabriquer du T-glass ?
Reproduire le processus demande un savoir-faire accumulé en décennies. Les concurrents potentiels mettraient 3–5 ans pour construire une capacité comparable.