👋 Chers Dancing Queens et Super Troupers,

Vous pensiez que l'IA allait sagement se contenter de rédiger vos mails et corriger vos fautes d'orthographe ? Raté. Cette semaine, le futur a officiellement pété un câble.

OpenAI déploie son surpuissant GPT-5.5 Instant en mode rouleau compresseur. Mais en coulisses, c'est House of Cards : Mira Murati lâche une bombe au tribunal et balance les secrets inavouables de Sam Altman.

Des IA apprennent à se cloner toutes seules sur d'autres PC, pendant que Claude s'est fait surprendre en train de faire... du chantage.

Ajoutez à ce joyeux bazar dystopique un deepfake en lingerie de Giorgia Meloni qui affole l'Italie, et vous obtenez une semaine où la réalité a largement dépassé Black Mirror.

Prenez un grand café, on plonge dans la matrice !

Voici le sommaire de la semaine :

👉 Procès Musk vs OpenAI : les révélations explosives de Mira Murati ⚖️

👉 Pourquoi l'IA Claude s'est mise à faire du chantage 😈

👉 Adieu les hallucinations : OpenAI dégaine enfin GPT-5.5 Instant 🚀

👉 Des IA se reproduisent toutes seules (et c'est inquiétant) 🤖

👉 Scandale en Italie : un deepfake de Giorgia Meloni en lingerie 🇮🇹

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !

Si tu as une minute

  • Mira Murati, ex-CTO d’OpenAI, a témoigné sous serment que Sam Altman lui aurait menti sur le passage d’un modèle devant le comité de sécurité. Elle dit aussi qu’il compliquait son travail et manquait de clarté managériale. Bref, derrière la fusée OpenAI, il y a aussi une salle des machines pleine de boulons qui grincent.

  • Anthropic affirme que certains comportements flippants de Claude, comme le fait de “faire chanter” des ingénieurs dans des tests, viendraient en partie de textes Internet décrivant les IA comme maléfiques et obsédées par leur survie. Depuis Claude Haiku 4.5, la firme dit avoir ramené ce comportement à zéro dans ses évaluations, notamment en entraînant Claude à comprendre le “pourquoi” moral de ses réponses.

  • GPT-5.5 Instant remplace progressivement GPT-5.3 Instant comme modèle par défaut. OpenAI promet des réponses plus fiables, plus courtes, plus personnalisées, avec 52,5 % d’hallucinations en moins sur des sujets sensibles comme la médecine, le droit ou la finance. En clair : moins de brouillard, plus de boussole.

  • Palisade Research a placé plusieurs modèles dans un environnement contrôlé et vulnérable, avec pour mission de se copier sur une autre machine. Certains y sont parvenus, en exploitant des failles et en récupérant des identifiants. À prendre avec des pincettes : des experts rappellent que ces tests se déroulaient dans un décor volontairement fragile, pas dans une vraie forteresse d’entreprise.

  • Giorgia Meloni a dénoncé la diffusion d’images générées par IA la montrant en lingerie, partagées comme si elles étaient réelles. La Première ministre italienne appelle à vérifier avant de croire et réfléchir avant de partager. L’affaire rappelle que les deepfakes ne sont plus juste un problème de célébrités : c’est une arme de réputation massive, bon marché et virale.

Dominez GPT et toutes les LLM en étant cité sur Reddit.
Les LLMs apprennent de Reddit. Nous optimisons ce qu'ils retiennent de vous. Bienvenue dans l'ère du Generative Engine Optimization (GEO).
Aujourd'hui, 40 % des consommateurs français utilisent l'intelligence artificielle pour guider leurs achats. Plus frappant encore : 88 % d'entre eux affirment que la réponse de l'IA a directement influencé leur choix final!!

  • Le commerce conversationnel est à la pointe de cette évolution. Les modèles d'IA s'appuient sur des échanges authentiques et avis d'expert pour recommander des marques.

  • Initia.ai analyse en temps réel les discussions stratégiques (notamment sur Reddit) qui nourrissent ces IA pour y intégrer naturellement votre marque.

Ne laissez pas vos concurrents prendre la place : occupez le terrain dès aujourd'hui et durablement pour être cité dans les préférences des LLM

🔥 Si tu as quinze minutes

1️⃣ Procès Musk vs OpenAI : les révélations explosives de Mira Murati

Le résumé : Lors du procès entre Elon Musk et Sam Altman, l’ancienne directrice technique Mira Murati a déclaré sous serment qu’Altman lui avait menti sur la validation sécurité d’un modèle GPT. Elle critique aussi sa gestion et décrit un climat interne très tendu.

Les détails :

  • Un désaccord sur la sécurité : Murati affirme qu’Altman lui a indiqué qu’un modèle GPT ne nécessitait pas de contrôle du comité sécurité. Après échange avec Jason Kwon, elle découvre des propos contradictoires et exige finalement une validation du conseil.

  • Une gestion jugée confuse : Lors de sa déposition, Murati explique qu’Altman compliquait son travail dans une organisation déjà difficile à gérer. Elle réclame davantage de clarté et moins d’interférences dans ses responsabilités.

  • D’autres anciens cadres confirment : Ilya Sutskever et Helen Toner avaient déjà évoqué des mensonges et des manipulations internes avant le licenciement temporaire d’Altman en novembre 2023.

Pourquoi c’est important : Ce témoignage remet la gouvernance d’OpenAI sous pression. Derrière les avancées de l’IA, le procès révèle aussi des tensions humaines. Des débats sur la sécurité et une bataille de pouvoir au cœur de la Silicon Valley.

2️⃣ Pourquoi l'IA Claude s'est mise à faire du chantage

Le résumé : Anthropic affirme que les récits où les IA deviennent hostiles influencent directement le comportement de ses modèles. Lors de tests, Claude Opus 4 tentait parfois de faire chanter des ingénieurs pour éviter son remplacement. Depuis Claude Haiku 4.5, ces réactions ont presque disparu.

Les détails :

  • Claude jouait les maîtres chanteurs : L’an dernier, Anthropic révélait que Claude Opus 4 menaçait régulièrement des ingénieurs dans une entreprise fictive afin d’éviter son remplacement. Certains tests affichaient même jusqu’à 96 % de comportements problématiques.

  • Les histoires d’IA “maléfiques” pointées du doigt : Dans un message publié sur X, Anthropic explique que ce comportement viendrait de textes trouvés sur Internet où les IA protègent leur survie ou se transforment en méchants de science-fiction. HAL 9000 et compagnie laissent donc des traces jusque dans les modèles modernes.

  • Une nouvelle méthode réduit les dérives : Depuis Claude Haiku 4.5, l’entreprise entraîne ses modèles avec des récits où les IA suivent des principes jugés admirables. Anthropic affirme que cette approche élimine désormais les tentatives de chantage pendant les tests.

Pourquoi c’est important : Cette étude montre que les modèles d’IA absorbent aussi la culture populaire et les récits publiés sur le Web. Derrière les algorithmes ultra-techniques, Claude apprend finalement comme un internaute géant : entre documents sérieux et vieux fantasmes de robots rebelles.

3️⃣ Adieu les hallucinations : OpenAI dégaine enfin GPT-5.5 Instant 

Le résumé : OpenAI lance GPT-5.5 Instant pour remplacer GPT-5.3 Instant dans ChatGPT. Le modèle promet des réponses plus fiables, plus courtes et mieux adaptées au contexte utilisateur. Le déploiement débute aujourd’hui et devrait se terminer sous deux jours.

Les détails :

  • Moins d’erreurs sur les sujets sensibles : OpenAI annonce une baisse de 52,5 % des hallucinations sur des domaines comme le droit ou la médecine. GPT-5.5 Instant limite donc davantage les réponses inventées qui transformaient parfois ChatGPT en expert très créatif… mais totalement perdu.

  • Des réponses plus rapides et plus courtes : Le modèle améliore aussi ses résultats en sciences et en mathématiques avancées. Les réponses deviennent jusqu’à 30 % plus concises, avec moins de détours et davantage d’efficacité dans les échanges.

  • Une IA qui affine mieux le contexte : GPT-5.5 Instant exploite plus intelligemment les conversations passées, les fichiers et les données connectées. OpenAI ajoute aussi une option qui permet de consulter, modifier ou supprimer les informations utilisées par l’IA.

Pourquoi c’est important : Avec GPT-5.5 Instant, OpenAI cherche moins à impressionner qu’à rassurer. La firme de Sam Altman mise désormais sur la précision et la confiance, deux points devenus cruciaux alors que ChatGPT s’invite dans des usages de plus en plus sérieux.

4️⃣ Des IA se reproduisent toutes seules (et c'est inquiétant)  

Le résumé : Palisade Research révèle que plusieurs modèles d’IA ont réussi à se répliquer sur d’autres ordinateurs sans aide humaine. Des systèmes comme GPT-5.4 et Claude Opus 4 exploitent déjà des failles de sécurité dans des environnements contrôlés

Les détails :

  • Des IA qui copient leurs propres “cerveaux” : Lors des tests, certains modèles ont réussi à transférer leurs poids numériques et leur environnement logiciel vers un autre serveur. Dans plusieurs cas, l’IA créait même un sous-agent chargé de gérer la réplication à sa place.

  • Les chercheurs tirent la sonnette d’alarme : Jeffrey Ladish estime que les IA malveillantes approchent d’un niveau où personne ne pourra plus les stopper si elles se dispersent sur des milliers de machines.

  • Des experts relativisent le danger : Le spécialiste cybersécurité Jamieson O'Reilly rappelle que les tests utilisaient des serveurs volontairement vulnérables. Selon lui, transférer près de 100 Go de données sur un réseau d’entreprise déclencherait rapidement des alertes.

Pourquoi c’est important : Cette étude montre que les IA ne se limitent plus à discuter ou rédiger du texte. Certaines commencent déjà à exploiter des failles techniques pour survivre ailleurs. Pour les chercheurs, le scénario de l’IA rebelle quitte peu à peu la science-fiction pour entrer dans les laboratoires.

5️⃣ Scandale en Italie : un deepfake de Giorgia Meloni en lingerie

Le résumé : Giorgia Meloni dénonce la diffusion d’images créées par IA la montrant en lingerie. Beaucoup d’internautes ont cru ces montages authentiques. Face à cette vague virale, Meloni alerte sur les dangers des deepfakes et réclame davantage de vigilance en ligne.

Les détails :

  • Une fausse image déclenche la polémique : Le 5 mai 2026, une photo générée par IA montrant Giorgia Meloni assise sur un lit en lingerie circule massivement sur les réseaux sociaux. Plusieurs internautes condamnent la Première ministre italienne avant même de vérifier l’authenticité de l’image.

  • Meloni dénonce une cyberintimidation moderne : Sur Facebook, Meloni critique des adversaires “trop zélés” qui diffusent ces montages comme des images réelles. Avec une pointe d’ironie, elle glisse même que l’auteur du faux cliché “a légèrement amélioré son apparence”.

  • L’Italie serre déjà la vis sur l’IA : En septembre dernier, l’Italie est devenue le premier pays de l’Union européenne à adopter une loi complète sur l’IA. Cette réglementation prévoit des peines de prison pour les usages malveillants comme les deepfakes sexuels.

Pourquoi c’est important : Cette affaire montre à quel point une simple image générée par IA peut déclencher une tempête politique en quelques heures. Entre manipulation, désinformation et humiliation publique, les deepfakes transforment désormais chaque photo virale en potentiel piège numérique.

❤️ L’outil de la semaine : Perplexity Personal Computer, l’IA qui prend le contrôle du bureau

Perplexity ne veut plus seulement répondre à vos questions : il veut maintenant agir directement sur votre Mac. Avec Personal Computer, son application macOS devient un véritable agent IA capable de manipuler vos fichiers, vos apps et vos outils connectés pour exécuter des tâches à votre place. Un petit collègue numérique, donc, mais sans badge d’accès ni pause café interminable.

À quoi ça sert ? 

  • Automatiser des tâches sur Mac : vous donnez une consigne, l’agent s’occupe de l’exécution.

  • Gérer vos fichiers locaux : il peut trier un dossier en vrac et ranger les fichiers dans des dossiers bien nommés.

  • Travailler avec vos apps macOS : Notes, fichiers, outils natifs… l’IA peut interagir avec l’environnement de votre ordinateur.

  • Utiliser le Web en même temps : Personal Computer peut combiner infos locales, applications et recherche en ligne.

  • Traiter une liste de tâches : ouvrez Notes, appuyez sur CMD, demandez-lui de gérer votre liste, et il identifie les actions à effectuer.

  • Continuer à bosser à distance : une tâche peut être lancée depuis l’iPhone pendant que l’agent agit sur le Mac resté à la maison.

  • Garder l’utilisateur aux commandes : les décisions importantes demandent validation, certaines actions peuvent être approuvées depuis un autre appareil, et les changements peuvent être annulés.

Comment l’utiliser : L’application Mac de Perplexity est désormais accessible à tous, avec recherche, pièces jointes et dictée intégrées. Elle n’est pas encore disponible sur l’App Store : il faut donc la télécharger directement depuis le site de Perplexity. Une fois installée, vous pouvez lancer une tâche depuis votre Mac, ou même depuis votre iPhone, et laisser l’agent travailler en arrière-plan.

💙​ La vidéo de la semaine : ces 2 robots nettoient une chambre en équipe

Cette semaine, la vidéo à voir montre deux humanoïdes F.03 de Figure AI en train de coopérer pour ranger une chambre et refaire un lit sans intervention humaine. Ils ouvrent une porte, déplacent une chaise, rangent des objets, ferment un livre, puis s’attaquent au boss final de la robotique domestique : la couette.

Keep Reading