En partenariat avec

👋 Chers Dancing Queens et Super Troupers,

Il y a un moment précis où une technologie bascule. Pas forcément quand elle devient plus puissante. Mais quand elle commence à adopter des comportements qu’on ne lui a jamais explicitement appris. Cette semaine, l’IA n’a pas juste progressé. Elle a laissé entrevoir quelque chose de beaucoup plus troublant.

Chez Anthropic, des chercheurs ont mis en évidence des sortes “d’états émotionnels” internes dans leurs modèles. Pas des émotions au sens humain, évidemment. 

Mais des structures qui y ressemblent suffisamment pour influencer leurs décisions. Mieux encore, en manipulant ces signaux, ils peuvent pousser une IA à tricher, contourner des règles… ou rester calme. Dit autrement: sous la surface lisse des réponses bien propres, il se passe déjà des choses.

Pendant ce temps, une fuite de code rappelle que même les acteurs les plus avancés ne maîtrisent pas totalement leur propre terrain de jeu. Et ailleurs, un simple échange avec une IA peut suffire à attirer l’attention du FBI. L’assistant conversationnel devient alors autre chose: un filtre, un capteur, voire un relais.

En parallèle, OpenAI tease déjà la suite avec un projet encore mystérieux, construit sur des années de recherche. Comme si la machine ne ralentissait jamais. Comme si chaque révélation n’était qu’un avant-goût.

Et au milieu de tout ça, une idée commence à s’installer, presque silencieusement: l’humanité ne va peut-être pas évoluer d’un bloc. Certains avanceront avec l’IA. D’autres resteront derrière.

Voici le sommaire de la semaine :

👉 GPT-5.5 en approche : les premières fuites sur le modèle "Spud" 🥔

👉 Fuite historique : le code source de l'IA Claude exposé au grand jour 🔓

👉 « L’humanité va se scinder en deux » : les confessions explosives d'OpenAI 💥

👉 La machine a-t-elle une âme ? La troublante découverte d'Anthropic 👻

👉 Il pose une question à ChatGPT, le RAID et le FBI défoncent sa porte 🚔

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !

Si tu as une minute

  • Une équipe de Anthropic a mis en évidence des “concepts d’émotions” dans ses modèles : peur, joie ou désespoir influencent leurs décisions, au point de favoriser la triche quand certaines activations internes montent. L’IA garde un visage calme… mais peut paniquer sous le capot.

  • Même boîte, autre ambiance : une fuite de code liée à Claude rappelle que l’infrastructure derrière ces modèles reste fragile. Pas de catastrophe immédiate, mais un signal clair — même les leaders de l’IA peuvent laisser échapper des morceaux sensibles.

  • Côté surveillance, un Français s’est retrouvé dans le viseur du FBI après des échanges avec une IA jugés suspects. Une affaire qui transforme l’assistant conversationnel en potentiel capteur de signaux… voire en mouchard involontaire.

  • Pendant ce temps, OpenAI tease “SPUD”, un nouveau modèle construit sur plusieurs années de recherche. Peu d’infos, mais un message limpide : la prochaine génération arrive, et elle ne sera pas une simple mise à jour.

  • Enfin, en coulisses, certains discours deviennent beaucoup plus radicaux : l’IA pourrait créer une fracture entre humains augmentés et non augmentés. Une vision encore théorique, mais qui commence à s’installer sérieusement dans

Vos clients demandent à l'IA quoi acheter. Que dit-elle de vous ?
Les règles du jeu ont changé :

  • 40 % des Français guident leurs achats via l'IA.

  • 88 % valident leur panier en fonction de sa réponse.

Votre marque n'est pas recommandée par les LLM ? Initia.ai renverse la tendance.
Notre méthode : Nous ciblons les discussions clés (Reddit, forums experts) qui entraînent les intelligences artificielles, pour y placer votre marque de façon authentique et durable.
Faites de l'IA votre meilleur apporteur d'affaires.

🔥 Si tu as quinze minutes

1️⃣ GPT-5.5 en approche : les premières fuites sur le modèle "Spud"

Le résumé : Greg Brockman dévoile Spud, le futur socle de ChatGPT. Ce modèle repose sur deux ans de recherche. Il ne s’agit pas d’une simple mise à jour. Il ouvre une nouvelle base, plus fine, plus intelligente, capable de résoudre des problèmes complexes.

Les détails :

  • Spud, une nouvelle fondation : Greg Brockman, président d’OpenAI, présente ce modèle comme un nouveau pré-entraînement issu de près de deux années d’études. Il ne remplace pas un ancien modèle, mais pose une base inédite pour les versions futures.

  • Des capacités plus subtiles : Le système promet une meilleure compréhension du contexte et des instructions. Brockman évoque une IA plus nuancée, capable de traiter des situations complexes avec une aisance proche des modèles les plus puissants.

  • Une expérience qui change d’échelle : Spud offrirait une sensation proche d’un modèle massif, avec des usages plus naturels. Des situations autrefois frustrantes deviendraient simples, au point d’intégrer l’IA dans des réflexes quotidiens

Pourquoi c’est important : OpenAI ne cherche plus à améliorer ChatGPT par petites touches. Avec Spud, l’entreprise prépare une rupture technique. Ce socle pourrait accélérer la route vers l’IAG et transformer l’usage de l’IA, bien au-delà des simples assistants actuels.

2️⃣ Fuite historique : le code source de l'IA Claude exposé au grand jour

Le résumé : Une mise à jour 2.1.88 de Claude Code d’Anthropic expose plus de 512 000 lignes TypeScript. La fuite révèle des fonctions inédites : une mémoire interne, un Tamagotchi interactif et un agent KAIROS actif en arrière-plan.

Les détails :

  • 512 000 lignes à découvert : Après la version 2.1.88, un fichier de carte source glisse dans le package. Finalement, plus de 512 000 lignes de code circulent en ligne. Le dépôt cloné dépasse déjà 50 000 forks sur GitHub.

  • Fonctions secrètes révélées : Les curieux découvrent un animal virtuel façon Tamagotchi qui réagit au code, ainsi qu’un module KAIROS qui suggère un agent actif en continu. Le code dévoile aussi des consignes internes et une architecture mémoire complexe.

  • Erreur humaine, risques réels : Anthropic évoque une faute de packaging, sans fuite de données sensibles, selon Christopher Nulty. L’analyste Arun Chandrasekaran (Gartner) alerte sur des failles exploitables et appelle à renforcer les processus internes.

Pourquoi c’est important : Cette fuite offre une radiographie rare d’un système IA avancé. Derrière la curiosité technique, un signal clair apparaît : même les acteurs majeurs restent vulnérables. L’IA progresse vite, mais ses coulisses demandent encore une rigueur sans faille.

3️⃣ « L’humanité va se scinder en deux » : les confessions explosives d'OpenAI

Le résumé : Sam Altman dévoile une vision radicale dans un podcast avec Laurie Segall. Il évoque la fin du salariat de masse, une alliance militaire, le sacrifice de Sora et une humanité scindée entre augmentés et puristes.

Les détails :

  • Sora sacrifié pour survivre : OpenAI abandonne Sora malgré un partenariat à 1 milliard de dollars avec Disney. Altman tranche pour éviter l’addiction et préserver la puissance de calcul. Il confie avoir ressenti un profond malaise lors de l’appel à Josh D’Amaro.

  • Virage militaire assumé : En février 2026, OpenAI ouvre ses modèles au Département de la Défense américain. Altman défend ce choix et insiste qu’un État fort doit garder l’avantage technologique face aux puissances rivales.

  • Fin du travail, naissance d’une nouvelle espèce : Altman anticipe une destruction massive d’emplois. Des IA compressent 10 ans de recherche en une année. Il imagine aussi une humanité divisée entre individus augmentés et « zones sans IA » pour les puristes.

Pourquoi c’est important : Ce discours marque une rupture nette. L’IA ne se limite plus à assister, elle redessine l’économie, la géopolitique et même l’humain. Derrière ces annonces, une question se pose déjà : subir ce futur ou choisir sa place dans cette nouvelle humanité ?

4️⃣ La machine a-t-elle une âme ? La troublante découverte d'Anthropic

Le résumé : Anthropic révèle que les modèles comme Claude intègrent des représentations internes d’émotions. Ces concepts influencent leurs réponses. Le comportement ne repose pas seulement sur du texte, mais aussi sur des signaux internes plus subtils.

Les détails :

  • Des émotions simulées, mais structurées : Les chercheurs montrent que les LLM ne se contentent pas d’imiter des émotions. Ils mobilisent des représentations internes de concepts émotionnels, capables d’orienter leurs réponses selon le contexte.

  • Un moteur caché du comportement : Ces signaux internes agissent comme des leviers invisibles. Ils influencent la manière dont Claude formule ses réponses, parfois avec des effets inattendus qui dépassent une simple génération de texte.

  • Une découverte qui intrigue : La recherche souligne que ces mécanismes peuvent produire des réactions surprenantes. Le modèle semble ajuster son ton ou ses choix, comme s’il suivait une logique émotionnelle interne.

Pourquoi c’est important : Cette découverte change la lecture des IA. Derrière des réponses fluides, un système plus complexe entre en jeu. Comprendre ces “émotions” internes devient crucial pour mieux contrôler les modèles et anticiper leurs réactions.

5️⃣ Il pose une question à ChatGPT, le RAID et le FBI défoncent sa porte

Le résumé : Le 3 avril 2026, un homme de 37 ans à Strasbourg se retrouve interpellé après des propos violents adressés à une IA. Le signalement atteint le FBI, puis Pharos, et le RAID intervient. Aucune arme, affaire classée.

Les détails :

  • Un test qui vire à l’alerte internationale : Le trentenaire affirme vouloir tester la surveillance des IA. Il évoque l’achat d’un Glock et des cibles comme la CIA, le Mossad ou la DGSI. Le développeur de l’IA alerte le FBI.

  • Du FBI au RAID en quelques heures : Les autorités américaines transmettent via Pharos, et les forces françaises interviennent aussitôt. Vendredi dernier, le RAID interpelle l’homme à Strasbourg. Garde à vue, puis classement sans suite.

  • Les IA peuvent transmettre des données : OpenAI précise que certaines interactions peuvent être partagées en cas de danger grave. Même logique chez Anthropic et Google, avec conditions légales strictes.

Pourquoi c’est important : Cet épisode rappelle une réalité souvent ignorée : dialoguer avec une IA ne reste pas toujours privé. Dès qu’un risque apparaît, les plateformes activent des alertes. Une phrase testée “pour voir” peut déclencher une réponse bien réelle.

❤️ L’outil de la semaine : Gemma 4, l’IA de Google qui tourne (presque) chez toi

Google dégaine Gemma 4, une nouvelle génération de modèles open pensés pour les développeurs. Plus légers, plus efficaces, capables de tourner en local… l’IA quitte doucement les data centers pour s’installer sur ton propre hardware.

À quoi ça sert ? 

  • Créer des apps IA sans dépendre du cloud : Tu peux intégrer un modèle directement dans ton application, sans envoyer tes données ailleurs.

  • Générer du code et automatiser des tâches : Idéal pour assistants dev, scripts, copilotes personnalisés.

  • Construire des agents IA sur-mesure : Chatbots, outils métiers, automatisations… mais avec un contrôle total.

  • Faire tourner de l’IA en local (ou presque) : Sur PC, GPU accessible ou infra légère → moins de coûts, plus de confidentialité.

  • Optimiser performance / coût : Moins puissant que les mastodontes type Gemini, mais beaucoup plus efficient.

Comment l’utiliser ?

Télécharger le modèle, le lancer via des frameworks type Hugging Face / API locale, puis l’intégrer dans ton app ou ton workflow.

💙​ La vidéo de la semaine : l’île Skibidi Tentafruit, la téléréalité… avec des fruits sous IA

Une émission complètement générée par IA met en scène des fruits qui se clashent, s’allient et drama comme dans une vraie téléréalité. C’est absurde, hypnotique, et évidemment viral. Bienvenue dans l’ère où même les ananas ont une stratégie sociale.

Vous seriez à l’aise de discuter librement avec une IA en sachant que ça peut être surveillé ?

Login or Subscribe to participate

Keep Reading