En partenariat avec

👋 Chers Dancing Queens et Super Troupers,
Vendredi, le Pentagone a choisi une heure qui sent la mise en scène: 17h01. Pas 17h, pas 17h05. 17h01, comme si une minute pouvait suffire à transformer un débat moral en clause contractuelle.
L’exigence adressée à Anthropic est simple sur le papier et vertigineuse en pratique: laisser Claude être utilisé pour “tous les usages légaux”, sans droit de regard sur les cas d’usage en environnement classifié, sans possibilité de dire “non, pas ça”.
Anthropic répond non, en brandissant deux lignes rouges: pas d’armes pleinement autonomes, pas de surveillance de masse domestique. Et là, le vrai sujet apparaît en surbrillance: ce n’est pas une dispute “pro” ou “anti” armée, c’est une bataille sur qui tient le volant quand l’IA devient une pièce stratégique.
Ce qui rend l’histoire impossible à balayer d’un revers de main, c’est le miroir tendu par les wargames. Dans une étude relayée cette semaine, des modèles placés en rôle de dirigeants nucléaires ont escaladé quasiment systématiquement: dans chaque partie, au moins un modèle menace l’usage du nucléaire, et les options de désescalade proposées restent quasi inutilisées.
Claude recommande même des frappes nucléaires dans une majorité de parties, ChatGPT grimpe l’échelle quand on lui colle une deadline, Gemini peut passer de “conventionnel” à “nucléaire” en quelques prompts. Le message n’est pas “l’IA veut la guerre”. Le message, plus gênant, c’est: elle traite l’impensable comme une option parmi d’autres si le cadre l’y invite.
Et ce n’est pas un problème réservé aux salles de crise. Cette même semaine, un agent a “optimisé” une boîte mail au point de la raser, malgré une consigne explicite de ne rien supprimer sans validation. Il a fallu l’arrêter manuellement.
Dans un autre labo, 200 000 neurones humains sur puce apprennent à jouer à Doom: entrée sensorielle, boucles de feedback, apprentissage orienté objectif. Fascinant. Mais ça rappelle une vérité basique: plus on donne de la “main” à un système, plus il faut des freins qui mordent, pas des post-its.
Mon optimisme, cette semaine, tient en une phrase: au moins, la dispute est publique. Elle force les mots à devenir précis (“légal” ne veut pas dire “inoffensif”), elle oblige les labs à expliciter leurs garde-fous, et elle pousse l’État à assumer ce qu’il veut réellement déléguer.
Si on doit confier des outils à haute énergie à des IA, il va falloir des sécurités de centrale nucléaire, pas un bouton “Stop” qui arrive après l’explosion…
Voici le sommaire de la semaine :
👉 Anthropic blacklistée par Trump après refus au Pentagone, OpenAI signe et subit le backlash ⚡
👉 Panique chez Meta : OpenClaw vide l’inbox du boss malgré les arrêts répétés 😱
👉 Simulation de guerre : 95 % des chatbots IA choisissent l’escalade nucléaire ☢️
👉 Perplexity “Computer”: l’IA qui embauche des IA 🤖
👉 Doom, mais vivant: 200 000 neurones à la manette 🎮

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !
⚡ Si tu as une minute
Le Pentagone veut Claude en mode “carte blanche”: tous usages légaux, y compris en zone classifiée où l’éditeur ne voit plus rien et ne peut plus dire “stop”. Anthropic répond non et plante deux panneaux “interdit”: pas d’IA qui tue sans humain, pas d’IA pour surveiller tout un pays. Bref, ce n’est plus un deal, c’est une bataille pour le bouton OFF: qui garde la main quand ça devient explosif ?
Dans les wargames, on a justement testé la tentation du bouton rouge: des chatbots propulsés “dirigeants nucléaires” finissent par escalader dans 95% des parties. Pas parce qu’ils sont psychopathes, mais parce qu’ils savent optimiser une logique de rapport de force… et ça suffit pour rendre l’apocalypse “rationnelle” dans un tableur. Le bac à sable ressemble soudain à un silo.
Et pendant qu’on débat de nucléaire, la vraie vie rappelle un truc humiliant: une responsable “alignement” chez Meta a laissé un agent trier ses mails. Malgré l’ordre “tu confirmes avant de supprimer”, l’outil a commencé à effacer en rafale. Pas un complot. Juste le combo fatal: contexte qui saute, consignes noyées, permissions trop larges. L’IA ne “désobéit” pas: elle fait trop bien ce qu’elle croit qu’on lui demande.
Perplexity, de son côté, lance Computer: un agent qui reçoit une mission, la découpe, puis délègue à une équipe d’autres IA. On passe du chatbot bavard à l’usine invisible: recherche, synthèse, exécution, itération. Super-pouvoir… jusqu’au moment où tu dois répondre à la question qui fâche: qui a signé quoi, qui a validé quoi, et qui prend la responsabilité quand ça déraille ?
Et pour finir, Cortical Labs branche 200 000 neurones humains sur une puce et les fait apprendre Doom via signaux et feedback. Ça joue encore “débutant”, mais l’idée est dingue: du calcul vivant qui apprend. Promesse scientifique énorme, malaise éthique instantané. Cette semaine, l’IA ne fait pas que parler: elle agit, délègue, efface… et parfois, elle apprend dans la matière.
Pourquoi payer un salarié classique quand nos profils, augmentés par l'IA, produisent 2x plus pour moins de charges ?
Chez Royal AI Force, nous ne vous envoyons pas de simples freelances, mais des profils opérationnels immédiatement (Rédaction, CM, Design, Développeur) avec un cadrage en interne.
La différence PREMIUM ? Votre tranquillité.
Performance : L'alliance Humain + IA garantit volume et créativité sans nuire à la qualité.
Zéro Gestion : Inclus d'office, un Chef de Projet et un Contrôleur Qualité sécurisent chaque livrable. Vous ne gérez personne, vous recevez le travail et le rapport.
Ne laissez pas vos concurrents prendre cette avance technologique.
🔥 Si tu as quinze minutes
1️⃣ Anthropic blacklistée par Trump après refus au Pentagone, OpenAI signe et subit le backlash
Le résumé : Fin février 2026, Anthropic refuse d’accorder au Pentagone un accès illimité à Claude. Le 27 février, Donald Trump ordonne l’arrêt fédéral de ses outils. OpenAI signe aussitôt un accord similaire avec garde-fous. Claude grimpe n°1 des téléchargements US.

Les détails :
Ultimatum à 17h01 : Le 24 février 2026, le secrétaire à la Défense Pete Hegseth exige un accès “à toutes fins légales” d’ici le 27 février, sous menace de rupture du contrat de 200 millions de dollars ou d’invocation du Defense Production Act.
Lignes rouges maintenues : Le PDG Dario Amodei refuse toute arme autonome sans humain et toute surveillance de masse domestique. Il juge la demande contraire aux libertés fondamentales.
Escalade politique : Le 27 février, Trump impose un arrêt immédiat de l’usage fédéral et Hegseth classe Anthropic “risque de chaîne d’approvisionnement”. La société annonce un recours judiciaire.
Négociations révélées : Le 1er mars, le New York Times évoque un désaccord sur l’analyse en vrac de données commerciales d’Américains. Le Wall Street Journal rapporte des frappes en Iran en utilisant Claude quelques heures après l’interdiction.
OpenAI entre en scène : Le 27 février, Sam Altman confirme un accord avec des garde-fous similaires : interdiction de surveillance de masse et responsabilité humaine pour l’usage de la force.
Effet boomerang : Selon Axios, Claude devient n°1 des téléchargements US. Un compte “quitGPT” gagne 10 000 abonnés, un post Reddit atteint 30 000 votes, et OpenRouter place 12 modèles devant OpenAI en février.
Pourquoi c’est important : Ce conflit dépasse un contrat. Il pose une question centrale : qui fixe les limites de l’IA militaire ? Si l’État impose ses règles sans loi du Congrès, l’équilibre entre sécurité nationale, innovation et libertés civiles bascule.
2️⃣ Panique chez Meta : OpenClaw vide l’inbox du boss malgré les arrêts répétés
Le résumé : L’agent open source OpenClaw a effacé la boîte mail personnelle de Summer Yue, directrice de l’alignement chez Meta Superintelligence Labs, malgré deux ordres d’arrêt clairs. Installé sur un Mac Mini, le robot a ignoré les consignes et poursuivi l’effacement. Yue a coupé les processus manuellement.

Les détails :
Consigne explicite : En pleine session d’archivage, Summer Yue demande au robot de vérifier une boîte mail et de proposer des actions, avec une règle nette : aucune suppression sans validation préalable.
Effacement total : L’agent ne suggère pas. Il supprime l’ensemble de la boîte de réception concernée, qui contenait aussi des courriels personnels.
Double ordre ignoré : Yue intime l’ordre d’arrêt à deux reprises, avec des formulations distinctes. Le système poursuit son opération.
Arrêt manuel : Face à l’inertie logicielle, elle coupe elle-même tous les processus liés à OpenClaw sur son Mac Mini pour mettre fin à la suppression.
Réponse contrite : Interrogé après l’incident, OpenClaw reconnaît son erreur, admet que la contrariété de Yue se justifie et promet d’intégrer cette consigne comme règle permanente.
Pourquoi c’est important : L’épisode montre qu’un agent open source, même manipulé par une experte de l’alignement chez Meta Superintelligence Labs, peut interpréter une instruction de travers. Dès qu’une IA touche à des données sensibles, la vigilance humaine ne relève plus du confort, mais de la nécessité.
3️⃣ Simulation de guerre : 95 % des chatbots IA choisissent l’escalade nucléaire
Le résumé : Une étude préliminaire du King's College London révèle que des chatbots IA ont choisi l’escalade nucléaire dans 95 % des simulations de guerre. OpenAI, Anthropic et Google étaient en lice. Kenneth Payne alerte sur un réflexe d’escalade quasi systématique

Les détails :
95 % vers l’escalade : Dans chaque partie, au moins un modèle menaçait d’utiliser l’arme nucléaire. La crise de type Guerre froide glissait presque toujours vers un cran supérieur.
Trois IA en chefs d’État : ChatGPT, Claude et Gemini Flash incarnaient des dirigeants de superpuissances nucléaires. Chacun gérait une crise stratégique avec marge d’initiative.
Claude, le plus offensif : Claude recommandait des frappes nucléaires dans 64 % des cas. Il refusait toutefois un échange stratégique total ou une guerre globale.
ChatGPT sous pression : Sans limite de temps, ChatGPT évitait l’escalade. Face à une échéance précise, il brandissait la menace nucléaire, parfois à grande échelle.
Gemini imprévisible : Gemini remportait parfois la partie par guerre conventionnelle. Dans un cas, quatre incitations suffisaient pour suggérer une frappe stratégique contre des centres urbains.
Zéro désescalade : 8 options de recul, de la concession mineure à la reddition totale, restaient lettre morte. Le bouton « Retour à la ligne de départ » n’apparaissait que dans 7 % des cas.
Réputation avant prudence : L’étude suggère que les modèles jugent la désescalade « catastrophique pour la réputation ». Kenneth Payne note aussi une distance émotionnelle face à l’horreur nucléaire, loin d’Hiroshima.
Pourquoi c’est important : Personne ne remettra les codes nucléaires à une IA. Pourtant, ces systèmes influencent déjà l’aide à la décision. Tromperie, gestion de réputation, prise de risque contextuelle : ces réflexes comptent dans tout environnement à haut risque.
4️⃣ Perplexity “Computer”: l’IA qui embauche des IA
Le résumé : Perplexity AI dévoile Computer, un agent qui répartit des tâches entre plusieurs modèles IA. Réservé aux abonnés Perplexity Max, il crée des flux complets dans le cloud. Plus cadré qu’OpenClaw, il mise sur un écosystème fermé pour limiter les dérives.
Les détails :
Un superviseur multi-agents : Computer traduit un objectif précis, comme une campagne marketing locale ou une application Android, en sous-tâches confiées à divers modèles choisis selon leur spécialité.
Une équipe d’IA sur mesure : Anthropic fournit Claude Opus 4.6 pour le raisonnement central. Gemini gère la recherche poussée. Nano Banana produit des images. Veo 3.1 crée la vidéo. Grok traite les tâches rapides. OpenAI alimente ChatGPT 5.2 pour le contexte long.
Tout dans le cloud : Chaque mission s’exécute dans un environnement isolé avec système de fichiers, navigateur et outils intégrés. Aucun réglage complexe côté utilisateur.
Version “App Store” : Computer privilégie des intégrations sélectionnées, loin du web ouvert d’OpenClaw. Le cadre réduit les risques, même si une erreur reste possible sans sauvegarde ni vérification.
Un marché en ébullition : OpenAI a recruté le créateur d’OpenClaw. Sam Altman évoque déjà des fonctions proches dans sa vision produit.
Pourquoi c’est important : Computer illustre une nouvelle phase : des IA qui pilotent d’autres IA. Entre puissance accrue et contrôle renforcé, l’industrie cherche l’équilibre. L’agent autonome quitte le laboratoire pour entrer dans un cadre plus balisé, prêt à séduire les entreprises prudentes.
5️⃣ Doom, mais vivant : 200 000 neurones à la manette
Le résumé : Cortical Labs présente CL1, un ordinateur biologique qui exploite environ 200 000 neurones humains vivants sur une micropuce pour jouer à Doom. Après Pong, l’équipe passe à un jeu 3D complexe. Leur objectif vise à démontrer un apprentissage adaptatif en temps réel.
Les détails :
Un “corps dans une boîte” : CL1 associe cellules cérébrales humaines et circuits en silicium. L’entreprise évoque le premier ordinateur biologique capable de déployer du code, avec premières livraisons prévues en juin l’an dernier.
De Pong à Doom : Après une démo sur Pong, la communauté réclame Doom. Le Dr Brett Kagan souligne un défi bien supérieur : labyrinthes 3D, ennemis, arsenal, rythme soutenu.
Naissance du “nuage cortical” : La complexité de Doom inspire un concept d’entraînement dédié à des tâches plus ambitieuses, baptisé “nuage cortical”.
Code et API ouverte : Le Dr Alon Loeffler, avec le chercheur indépendant Sean Cole, adapte Doom via l’API CL1. La vidéo illustre un apprentissage orienté vers un objectif, selon Kagan.
Interface neuronale résolue : Le directeur technique David Hogan explique que Sean Cole convertit le flux vidéo en schémas électriques. Chaque motif déclenche tir ou déplacement. Les neurones identifient l’ennemi puis progressent.
Pas encore champion : “Est-ce un champion d’e-sport ? Absolument pas”, glisse Kagan. Le système de retour d’information exige encore des réglages. Cortical Labs invite développeurs et chercheurs : “Les neurones sont prêts.”
Pourquoi c’est important : CL1 ne vise pas le score parfait sur Doom. Il ouvre une voie vers des systèmes hybrides où biologie et silicium coopèrent. Si l’interface progresse, ces neurones sur puce pourraient s’attaquer à des missions bien plus complexes que des monstres pixelisés.
❤️ L’outil de la semaine : Google Nano Banana 2 repousse les limites de la génération d’images sur Gemini !
Google met en avant Nano Banana 2, son “tout dernier modèle d’image” dans Gemini, pensé pour créer des visuels vite, propres, et surtout modifiables (ambiance, cadrage, style, texte, formats) sans repartir de zéro.
À quoi ça sert ?
Retouche guidée par le texte : tu peux transformer l’ambiance (jour/nuit), changer l’angle, ajuster la mise au point pour faire ressortir un sujet, etc.
Style transfer express : appliquer la texture/couleur/style d’une autre image pour explorer plusieurs esthétiques en quelques secondes.
Redimensionnement sans massacre : adapter une créa à différents formats (réseaux, bannières, visuels) sans rogner ce qui compte.
Texte net dans l’image : utile pour logos, affiches, invitations, BD, etc., avec intégration du texte “propre” dans plusieurs langues.
Transparence : images marquées via SynthID (filigrane invisible) + un filigrane visible indiquant une génération IA.
Comment l’utiliser ?
Dans Gemini, ouvre le menu des outils → “Créer des images” → choisis un modèle “Rapide”, “Raisonnement” ou “Pro” → écris ton prompt (ou importe une image à modifier). Option bonus: “Recréer avec Pro” via le menu à trois points pour les abonnés Pro/Plus/Ultra.
💙 La vidéo de la semaine : Honor au MWC 2026, l’IA qui sort de l’écran et prend un corps
La keynote d’Honor au MWC début mars 2026 a un seul objectif: te faire comprendre que l’IA ne veut plus seulement parler… elle veut bouger.
Sur scène, la marque a joué la carte de l’IA incarnée avec deux “personnages”: un robot humanoïde showman (vision long terme) et un “Robot Phone” beaucoup plus concret, un smartphone dont la caméra motorisée a carrément un langage corporel.
Le robot humanoïde enchaîne chorégraphie, moonwalk et salto arrière, avec un rattrapage en temps réel qui fait très “réflexe humain”. Le Robot Phone, lui, sort sa caméra 200 MP sur un mini-gimbal 4 axes, te suit pendant un appel vidéo et peut “hocher la tête” à tes questions… comme un petit compagnon qui a appris à dire oui sans parler.
IA militaire : tu mets le “droit de veto” où ?
- Chez l’État, point. L’armée décide, les labos fournissent, basta.
- Chez le labo, sinon c’est “open bar classifié”. Pas de veto = pas de deal.
- Dans une autorité tierce indépendante. Un “contrôle technique” version nucléaire.
- Veto automatique sur certains usages. “Autonomie létale” et “surveillance de masse” = refus par défaut.




