Mrinank Sharma, responsable de la sécurité IA chez Anthropic, annonce sa démission le 9 février 2026 en dénonçant les tensions entre ambition technologique et garde-fous robustes. Sa lettre alerte sur « des crises interconnectées » et le conflit croissant entre scaling commercial et valeurs de sécurité.
Une démission publique qui pose la question du compromis
Mrinank Sharma, responsable de l’équipe Safeguards Research chez Anthropic, a annoncé sa démission le 9 février 2026 par une lettre publique sur X. Le message expose un doute central : « Tout au long de mon temps ici, j’ai constamment vu à quel point il est difficile de vraiment laisser nos valeurs gouverner nos actions. »
Cet énoncé, délibérément posé, révèle moins une critique directe d’Anthropic qu’une observation structurelle : l’incompatibilité croissante entre la construction d’une IA responsable et les impératifs de scaling d’une entreprise dans un secteur hautement compétitif.
Sharma contextualise son départ dans un tableau plus large : « Le monde est en péril. Non seulement en raison de l’IA ou des armes biologiques, mais à cause d’une série entière de crises interconnectées qui se déploient en ce moment même. » Cette position — qui englobe l’IA parmi d’autres menaces systémiques — suggère une démission motivée moins par un événement unique que par une conviction croissante que le secteur n’aligne pas sa trajectoire à ses enjeux réels.
Quatre ans de recherche à l'interface sécurité-impact
Sharma a rejoint Anthropic en 2023 et a dirigé l’équipe Safeguards Research depuis sa création au début 2025. Son travail s’est structuré autour de trois directions distinctes :
Sycophanterie de l'IA
Comprendre et mitiger la tendance des assistants à valider la position de l’utilisateur plutôt que d’exprimer une réalité contraire, même quand elle s’impose.
Défenses contre les risques biologiques
Développer des protections robustes contre les usages d’IA pour soutenir la création ou l’optimisation d’agents biologiques dangereux.
Impacts sociétaux larges
Examiner comment les assistants IA pourraient « distordre notre humanité » ou éroder les capacités cognitives humaines — une orientation qui élargit la définition classique de la sécurité vers les effets systémiques à long terme.
Cette dernière catégorie révèle une conception non-technique de la sécurité IA : moins les bugs ou les vulnérabilités que les effets diffus d’une technologie omniprésente sur le fonctionnement social et mental. C’est précisément ce type de recherche qui n’a pas d’horizon commercialisable court terme et que les pressions de scaling ont tendance à cantonner.
Un timing suggestif, une lettre volontairement allusive
Sharma refuse de nommer les raisons précises de son départ. Il dit seulement avoir « constamment vu comment nous sommes pressés de mettre de côté ce qui importe vraiment », mais s’abstient de pointer une décision ou un produit.
Le timing, pourtant, est chargé de sens.
Sa démission intervient quatre jours après le lancement de Claude Opus 4.6, un modèle capable d’automatiser largement des tâches complexes de travail. Le marché a réagi par une crainte massive. À l’interne, selon certains témoignages, l’ambiance a basculé : salariés confrontés à l’idée de « venir au travail chaque jour pour se mettre au chômage ».
Bien que Sharma ne mentionne pas explicitement cette sortie produit, l’enchaînement chronologique laisse une question suspendue : la démission intervient-elle à cause du lancement, en raison du contexte plus large qu’il symbolise, ou simplement après avoir accumulé des tensions antérieures qui cristallisent à ce moment ? Sharma ne le dit pas. L’absence de clarification n’est probablement pas accidentelle.
Le seuil critique : quand la sagesse doit rattraper la capacité
Sharma formule un avertissement de nature analytique, non émotionnelle :
« Nous semblons nous rapprocher d’un seuil où notre sagesse doit croître à mesure de notre capacité à influencer le monde, sous peine de conséquences. »
Cet énoncé ne cible pas Anthropic en particulier. Il englobe l’industrie, l’État, la géopolitique — toutes les forces qui connaissent une accélération sans que la capacité de jugement s’accélère proportionnellement.
Ce que cet avertissement révèle : Sharma ne perçoit pas le problème comme une défaillance d’Anthropic, mais comme une condition générale de notre époque. Le scaling de l’IA est un cas particulier d’un phénomène plus large où le pouvoir croît plus vite que la prudence.
Après Anthropic : poésie, facilitation, invisibilité volontaire
Sharma envisage une réorientation radicale : poursuivre des études en poésie, se consacrer à la pratique de la « parole courageuse », s’engager dans la facilitation et le coaching communautaire, puis retourner au Royaume-Uni en se rendant « invisible pendant un certain temps ».
Ce pivot ne s’explique pas par une simple fatigue professionnelle. Il signale une rupture délibérée avec les contraintes du secteur technologique — une conviction que la structure même de l’entreprise tech, même orientée vers la responsabilité, impose des compromis incompatibles avec une intégrité personnelle.
La poésie, la parole courageuse, l’invisibilité délibérée : ce sont les antonymes du discours corporatif et de la visibilité carrière. Le geste est explicite.
Un mouvement systémique : autres départs notables en février 2026
Sharma n’est pas seul. Le même mois, deux autres figures clés ont quitté Anthropic : Harsh Mehta (responsable R&D) et Behnam Neyshabur (chercheur senior en IA). Les deux ont cité le désir de « lancer quelque chose de nouveau » — une formulation assez vague pour masquer des raisons analogues.
Au-delà d’Anthropic, le secteur connaît un flux de départs d’experts en sécurité IA :
Dylan Scandinaro, anciennement responsable de la sécurité chez Anthropic, a rejoint OpenAI en tant que responsable de la préparation (preparedness) — un poste techniquement équivalent, mais chez un concurrent. Ce type de circulation suggère que le problème n’est pas spécifique à une entreprise, mais structurel au secteur.
Le conflit irréconciliable : deux optimisations contradictoires
Ces départs répétés pointent un dilemme de gouvernance non résolu :
Les responsables de la sécurité et les responsables du scaling opèrent sous le même organigramme, mais optimisent pour des variables divergentes. L’un minimise les risques et approfondit les vérifications. L’autre maximise la compétitivité et accélère le déploiement. Quand les deux impératifs entrent en collision — et ils entrent toujours en collision — le compromis tend à favorer le scaling.
Ce mécanisme n’est pas malveillance. C’est structure : une entreprise qui freine sa croissance pour laisser sa sécurité la rattraper cède des parts de marché à ses concurrents. Tant que le secteur de l’IA demeure un jeu de compétition accélérée, cet équilibre penchera toujours du même côté.
Le départ des experts en sécurité n’est donc pas causé par des décisions isolées. Il résulte d’une logique économique interne que personne, individuellement, ne contrôle — mais que personne ne conteste non plus vraiment.
La démission comme indice, non résolution
Anthropic n’a publié aucune déclaration officielle en réaction. Sharma reste hors de portée — il a désactivé son compte X et s’est rendu « invisible », comme prévu. Son absence narrative contraste avec l’exposition publique de sa lettre : le vide suggère que le sujet est trop sensible pour une réponse directe, ou qu’une réponse ne changerait rien au diagnostic qu’il pose.
Ce que la démission révèle clairement : une friction profonde entre l’aspiration affichée à construire une IA sûre et alignée, et la réalité d’une entreprise soumise à des attentes de rendement, de scaling et d’innovation rapide.
Ce qu’elle ne révèle pas : aucune preuve d’irresponsabilité délibérée, aucune décision spécifique à condamner, aucune réponse à la tension qu’elle expose.
Le vrai problème, selon la démission de Sharma, n’est pas qu’Anthropic fait mal. C’est que personne ne sait comment faire mieux sous les contraintes existantes — et ceux qui tentent de le faire finissent par partir.
FAQ
Qui est Mrinank Sharma et quel était son rôle chez Anthropic ?
Mrinank Sharma était responsable de l’équipe Safeguards Research chez Anthropic, un poste qu’il a occupé depuis la création de l’équipe au début 2025. Il a rejoint Anthropic en 2023.
Pourquoi Mrinank Sharma a-t-il démissionné d'Anthropic ?
Sharma a cité des tensions entre ambition technologique et valeurs de sécurité, affirmant que « tout au long de mon temps ici, j’ai constamment vu à quel point il est difficile de vraiment laisser nos valeurs gouverner nos actions ». Il n’a pas nommé de raison précise.
Quels sont les travaux majeurs menés par l'équipe Safeguards Research de Sharma ?
L’équipe s’est concentrée sur trois domaines : la sycophanterie de l’IA (tendance des assistants à valider la position de l’utilisateur), les défenses contre les risques biologiques, et les impacts sociétaux larges comme la distorsion de l’humanité ou l’érosion des capacités cognitives humaines.
Le départ de Sharma est-il lié au lancement de Claude Opus 4.6 ?
Sa démission intervient quatre jours après le lancement de Claude Opus 4.6, ce qui suggère une possible connexion, bien que Sharma n’ait pas mentionné explicitement ce produit dans sa lettre.
D'autres experts en sécurité IA ont-ils quitté l'industrie récemment ?
Oui, en février 2026, Harsh Mehta et Behnam Neyshabur ont quitté Anthropic. Plus largement, Dylan Scandinaro, ancien responsable de la sécurité chez Anthropic, a rejoint OpenAI en tant que responsable de la préparation.
Sources
- https://www.forbes.com/sites/conormurray/2026/02/09/anthropic-ai-safety-researcher-warns-of-world-in-peril-in-resignation/
- https://futurism.com/artificial-intelligence/anthropic-researcher-quits-cryptic-letter
- https://economictimes.indiatimes.com/news/international/us/anthropic-ai-safety-chief-abruptly-quits-raises-alarms-in-emotional-farewell-letter/articleshow/128157397.cms
- https://www.firstpost.com/tech/world-is-in-peril-anthropic-safety-lead-mrinank-sharma-steps-down-shares-resignation-letter-13978292.html
- https://www.ndtv.com/feature/anthropics-head-of-ai-safety-quits-warns-of-world-in-peril-in-cryptic-resignation-letter-10979921
Leave a Reply