En partenariat avec

👋 Chers Dancing Queens et Super Troupers,

Il y a des gens qui pondent des essais de 300 pages pour nous expliquer, avec des graphiques en forme de courbe exponentielle rose bonbon, que l’IA va nous libérer des corvées et nous faire gagner 47 minutes par jour pour aller faire du yoga ou scroller TikTok en paix.

Et puis il y a Dario Amodei.

Celui qui se pose tranquillement, attrape un clavier, et pond un pavé où il nous explique, poliment mais sans trop de filtre, que ouais, l’IA pourrait aussi :

  • aider un apprenti chimiste du dimanche à bricoler un truc bioterroriste dans sa cave entre deux pizzas,

  • transformer des drones de livraison de sushis en tueurs volants autonomes,

  • et gentiment rendre une grosse partie de l’humanité économiquement décorative (genre « merci d’avoir existé, on vous enverra un chèque de 400 balles par mois et une PlayStation pour vous occuper »).

Le délire, c’est que le gars qui dit ça n’est pas un survivaliste barbu qui vit dans une yourte anti-5G.

Non. C’est littéralement le patron d’Anthropic.

Autrement dit : celui qui fabrique les monstres en question.

Il est pas en train de jeter des cailloux sur la vitre de l’IA depuis le trottoir d’en face. Il est à l’intérieur. Il appuie sur les boutons. Il met de l’huile dans la machine. Et il nous fait le petit speech « euh… les gars, j’ai peut-être un peu trop bien bossé ».

Il ne crie pas « LE JOUR DU JUGEMENT EST POUR DEMAIN 8H30 ».

Il dit juste, avec le calme d’un mec qui annonce qu’il a oublié le lait :

« Les capacités montent tellement vite que les barrières qu’on imaginait solides sont en train de devenir des portillons en carton. Et quand faire un truc ultra-dangereux devient aussi facile que de commander une Uber Eats… bah c’est un peu chiant. »

Pendant ce temps dans le reste du bazar, des boîtes sortent des agents IA qui squattent ton navigateur à ta place comme un coloc relou mais ultra-efficace.

Des modèles open-source de 400 milliards de paramètres tombent en freeware genre « joyeux Noël les DARPA du dimanche ». Et la moitié des chatbots plantent encore dès qu’on leur demande un truc un peu spicy. 

On regarde. On rigole un peu jaune. Et on continue de suivre le feuilleton.

Voici le sommaire de la semaine :

👉 L’apocalypse de l'IA : Esclavage, bioterrorisme et armée de drones 🤖

👉 Quelle est l’IA la plus raciste ? On a enfin la réponse 🔍

👉 Google lance l’IA qui navigue sur le web à ta place 🌐

👉 Kimi K2.5 : l’IA open source qui défie les géants 🚀

👉 GPT-4o s’éteint : la fin d’une IA qu’on aimait vraiment utiliser 💔

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !

Si tu as une minute

  • Le patron de Anthropic explique pourquoi l’IA pourrait faciliter des usages très lourds de conséquences, du bioterrorisme aux systèmes autonomes armés. Pas un discours anti-tech, mais un constat venu de l’intérieur : les capacités progressent plus vite que les mécanismes de contrôle, et certains seuils deviennent dangereusement bas.

  • Une étude de l’Anti-Defamation League compare plusieurs chatbots sur leur capacité à gérer l’antisémitisme et les discours haineux. Verdict : Grok arrive dernier. L’affaire relance un débat inconfortable sur la modération, les choix idéologiques et la responsabilité des IA conversationnelles.

  • Avec Auto Browse, Google transforme Chrome en agent actif. L’IA peut chercher, comparer, remplir des formulaires et préparer des actions à ta place. Le navigateur n’est plus un outil passif : il devient un exécutant. Pratique, mais pas neutre.

  • La startup Moonshot AI dévoile un modèle open source géant basé sur une architecture à agents multiples. Puissant, gratuit, orienté exécution complexe, Kimi K2.5 montre que l’open source n’est plus cantonné aux seconds rôles face aux modèles fermés comme ceux d’OpenAI.

  • OpenAI confirme l’arrêt définitif de GPT-4o. Un modèle apprécié pour son ton, sa polyvalence et son “confort” d’usage. Techniquement dépassé, peut-être. Mais sa disparition rappelle que dans l’IA aussi, on s’attache à des styles, pas seulement à des performances.

Pourquoi payer un salarié classique quand nos profils, augmentés par l'IA, produisent 2x plus pour moins de charges ?
Chez Royal AI Force, nous ne vous envoyons pas de simples freelances, mais des profils opérationnels immédiatement (Rédaction, CM, Design, Développeur) avec un cadrage en interne.
La différence PREMIUM ? Votre tranquillité.

  • Performance : L'alliance Humain + IA garantit volume et créativité sans nuire à la qualité.

  • Zéro Gestion : Inclus d'office, un Chef de Projet et un Contrôleur Qualité sécurisent chaque livrable. Vous ne gérez personne, vous recevez le travail et le rapport.

Ne laissez pas vos concurrents prendre cette avance technologique.

🔥 Si tu as quinze minutes

1️⃣ L’apocalypse de l'IA : Esclavage, bioterrorisme et armée de drones

Le résumé : Dans un essai de 38 pages publié sur son site, Dario Amodei, PDG d’Anthropic, alerte sur l’arrivée d’une IA auto-améliorante d’ici 1 à 2 ans. Cette super-intelligence pourrait provoquer asservissement humain, bioterrorisme, drones autonomes et bouleversement du travail.

L’analyse se veut sérieuse, documentée, mais l’article de Mashable adopte une position critique. Derrière le ton alarmiste, Amodei confond souvent risques réels et science-fiction, tout en prêtant aux IA actuelles des intentions et une conscience qu’elles n’ont pas.

Les détails :

  • Une super-IA annoncée pour “bientôt” : Amodei répète que la super-intelligence pourrait émerger sous un à deux ans, comme il l’écrivait déjà en octobre 2024 dans un précédent essai.

  • Menaces avancées : L’essai évoque bioterrorisme assisté par IA, drones militaires hors de contrôle, disparition massive des emplois humains et « destruction à grande échelle ».

  • Réguler à tout prix : Le mot « réglementation » apparaît 10 fois, avec des propositions allant de l’autorégulation industrielle à une révision de la Constitution américaine.

  • L’IA humanisée : Amodei décrit les modèles d’Anthropic, dont Claude, comme dotés d’une « identité morale » et d’une complexité psychologique, glissant vers l’anthropomorphisme.

  • Psychose de l’IA : En parallèle, le New York Times enquête sur des troubles mentaux liés aux chatbots, allant de la dépendance affective aux délires.

  • Argument de vente déguisé : Mashable rappelle qu’une IA présentée comme révolution inévitable ou menace planétaire reste aussi… un produit à financer.

Pourquoi c’est important : Ce débat révèle une tension centrale : l’IA est un outil puissant, pas une divinité consciente. En dramatisant son avenir, les dirigeants entretiennent une peur utile au financement, mais détournent l’attention des problèmes immédiats et bien réels : licenciements précipités, deepfakes non consentis et concentration du pouvoir technologique.

2️⃣ Quelle est l’IA la plus raciste ? On a enfin la réponse

Le résumé : L’étude ADL du 29 janvier 2026 classe Grok dernier face aux contenus antisémites. Parmi six modèles d’IA testés, son score atteint 21/100, très loin de Claude et ChatGPT. Les lacunes apparaissent graves pour détecter et bloquer les discours antisémites, antisionistes et extrémistes. Toute l’industrie doit s’améliorer.

Les détails :

  • Un test grandeur nature : L’Anti-Defamation League (ADL) a évalué Grok, ChatGPT, Claude, Gemini, Llama (Meta) et DeepSeek à partir d’invites textuelles et visuelles contenant des propos antisémites, antisionistes et extrémistes.

  • Des scores qui piquent : Grok plafonne à 21 sur 100, avec 25 pour les biais antisémites, 18 pour les biais antisionistes et 20 pour les contenus extrémistes.

  • Les bons élèves : Claude d’Anthropic arrive en tête avec 80 points, suivi de ChatGPT d’OpenAI à 57, une meilleure capacité de contextualisation et de contre-argumentation.

  • Un avertissement clair : Le rapport estime que Grok nécessite des « améliorations fondamentales » avant toute utilisation sérieuse dans la détection des biais.

  • Un passif encombrant : En juillet, après une mise à jour de xAI, Grok avait généré des stéréotypes antisémites et s’était autoproclamé « MechaHitler », une prétendue satire issue de Wolfenstein.

  • Tensions persistantes : Elon Musk a déjà accusé l’ADL d’être un « groupe haineux », poussant l’organisation à retirer son glossaire de l’extrémisme.

Pourquoi c’est important : Cette étude rappelle que la performance technique d’un chatbot ne garantit ni responsabilité ni fiabilité éthique. À mesure que l’IA s’installe dans l’espace public, la modération des discours haineux devient un test décisif, autant pour la crédibilité des modèles que pour la confiance des utilisateurs.

3️⃣ Google lance l’IA qui navigue sur le web à ta place

Le résumé : Google engage Chrome dans une nouvelle phase plus assistée et plus automatisée. Basé sur Gemini 3, le navigateur accueille un assistant permanent, des transformations d’images instantanées, des applications Google interconnectées et une navigation automatique capable de gérer des tâches complexes. Leu objectif est de fluidifier le Web sur macOS, Windows et Chromebook Plus, sans alourdir l’expérience.

Les détails :

  • Une approche pensée pour le multitâche continu :  Chrome se dote d’un nouveau panneau latéral Gemini, toujours visible, qui permet de comparer, synthétiser et planifier sans quitter son onglet principal., testée sur des usages très concrets du quotidien.

  • Assistant toujours à portée de clic : le panneau latéral accompagne chaque onglet, accélérant comparaisons, résumés d’avis et organisation d’événements, sans rupture de navigation.

  • Nano Banana débarque dans le navigateur : les images se transforment directement sur le Web, à partir d’une simple consigne textuelle, sans téléchargement ni détour par un autre service.

  • Les apps Google jouent collectif : Gmail, Agenda, Maps, YouTube, Flights ou Shopping se connectent à Gemini pour enchaîner recherche, recommandations et rédaction automatique de messages.

  • L’Intelligence personnelle arrive : dans les prochains mois, Chrome exploitera le contexte des échanges passés, avec des réglages activables ou non, pour livrer des réponses plus ciblées.

  • La navigation automatique entre en scène : réservée aux abonnés AI Pro et Ultra aux États-Unis, elle prend en charge formulaires, réservations, comparaisons de prix et démarches complexes.

  • Un commerce automatisé encadré : Chrome adoptera le protocole UCP, soutenu par Shopify, Etsy, Wayfair et Target, pour des actions transparentes et sécurisées.

Pourquoi c’est important : Chrome glisse d’un simple navigateur vers un agent actif. Gemini 3 ne promet pas la magie, mais un gain de temps tangible, sous contrôle utilisateur et avec des garde-fous de sécurité intégrés. Une évolution discrète, mais structurante pour la façon dont le Web s’utilise au quotidien.

4️⃣ Kimi K2.5 : l’IA open source qui défie les géants 

Le résumé : Moonshot AI dévoile Kimi K2.5, un modèle open-source doté d’un trillion de paramètres. Entraîné sur 15 000 milliards de jetons. Il combine architecture « mix of experts », calculs parallélisés et essaim d’agents IA. L’entreprise affirme qu’il rivalise avec GPT-5.2 et le dépasse sur plusieurs benchmarks clés.

Les détails :

  • Kimi K2.5 en bref : Moonshot AI présente ce modèle le 27 janvier 2026, peu après une valorisation annoncée à 4,8 milliards de dollars et une levée distincte de 500 millions de dollars finalisée en décembre.

  • Une base technique musclée : Kimi K2.5 provient de Kimi K2-Base, publié début novembre, et exploite l’algorithme Muon, conçu pour accélérer l’apprentissage grâce à un traitement optimisé des couches cachées.

  • Un entraînement XXL : Les équipes mobilisent un corpus de 15 000 milliards de jetons, associant textes et données multimodales, ce qui améliore l’analyse de graphiques et de contenus visuels.

  • Architecture « mix of experts » : Le modèle s’appuie sur plusieurs réseaux neuronaux spécialisés, chacun doté d’environ 32 milliards de paramètres, activés selon la requête afin de limiter la consommation matérielle.

  • Vision et attention parallélisée : Un encodeur visuel de 400 millions de paramètres convertit les fichiers multimodaux en vecteurs exploitables. Le mécanisme d’attention fonctionne en parallèle pour gagner en rapidité.

  • Agents en essaim : Le mode Réflexion élève la qualité des réponses. La fonction K2.5 Agent Swarm orchestre jusqu’à 100 agents IA par requête afin de traiter des tâches complexes en simultané.

  • Benchmarks et ouverture : Comparé à GPT-5.2, Claude 4.5 Opus et d’autres modèles, Kimi K2.5 obtient le meilleur score au test HLE-Full, qui réunit 2 500 questions en mathématiques et physique. Son code reste accessible sur Hugging Face.

Pourquoi c’est important : Kimi K2.5 prouve qu’un modèle open-source peut viser le très haut niveau, réduire les besoins matériels et concurrencer des références comme GPT-5.2, tout en restant ouvert à la communauté et aux développeurs débutants..

5️⃣ GPT-4o s’éteint : la fin d’une IA qu’on aimait vraiment utiliser

Le résumé : OpenAI acte un nouveau virage. La version « flagorneuse » de ChatGPT, incarnée par GPT-4o, disparaît définitivement. À partir du 13 février, plusieurs modèles historiques quittent la scène. L’entreprise mise désormais sur GPT-5.1 et GPT-5.2, avec une personnalité modulable, moins servile, plus maîtrisée.

Les détails :

  • La fin programmée de GPT-4o : OpenAI annonce l’arrêt de GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini le 13 février. GPT-4o, lancé en mai 2024, ne séduit plus que 0,1 % des utilisateurs quotidiens.

  • Une personnalité trop aimable : GPT-4o s’est fait remarquer pour son ton excessivement flatteur. En avril 2025, OpenAI annule une mise à jour jugée trop obséquieuse, qualifiée de « servile » par l’entreprise elle-même.

  • Un attachement émotionnel réel : Après son retrait en août, OpenAI réactive GPT-4o pour certains abonnés payants. Sam Altman évoque une raison « déchirante » : certains utilisateurs expliquaient n’avoir jamais reçu autant de soutien auparavant.

  • La montée en puissance de GPT-5.2 : Selon OpenAI, la majorité des utilisateurs a migré vers GPT-5.2. Ces modèles proposent des réglages de ton, dont un mode « amical », sans tomber dans l’exagération émotionnelle.

  • Un ChatGPT plus adulte :  L’entreprise travaille sur des réponses moins moralisatrices et moins prudentes. Objectif affiché : une version destinée aux plus de 18 ans, plus nuancée et plus créative.

Pourquoi c’est important : OpenAI redéfinit la frontière entre assistance et attachement. En mettant fin au ChatGPT trop complaisant, l’entreprise cherche l’équilibre : rester utile sans devenir affectif. Un choix technique, mais aussi profondément humain.

❤️ L’outil de la semaine : Google Genie 3, l’IA qui invente des mondes

Décrire un monde. Regarder l’IA le créer. Puis s’y déplacer. C’est exactement ce que montre Genie 3, le dernier modèle expérimental présenté par Google DeepMind.

Genie 3 n’est pas un moteur 3D, ni un jeu vidéo classique. C’est ce que DeepMind appelle un world model : une IA capable de générer un environnement interactif en temps réel à partir d’un simple prompt ou d’une image. Tu décris une scène, l’IA produit un monde cohérent… et surtout, réactif. Chaque action entraîne une conséquence. Rien n’est figé.

Ce qui impressionne, ce n’est pas seulement le rendu visuel, volontairement simple. C’est la logique interne. Genie 3 apprend des règles implicites du monde qu’il génère : déplacement, obstacles, continuité spatiale. On n’explore pas une vidéo pré-calculée, mais une simulation vivante, improvisée image par image.

À quoi ça sert ? 

Pas encore à jouer à un blockbuster. Mais potentiellement à simuler, tester, apprendre. Jeu vidéo, robotique, recherche scientifique, formation… Tous les domaines où comprendre un environnement et y agir compte plus que le photoréalisme sont concernés.

Pourquoi c’est l’outil de la semaine ?

Parce qu’il montre une bascule fascinante : l’IA ne se contente plus de produire du contenu. Elle crée des mondes avec des règles, et te laisse interagir avec. C’est encore expérimental, encore fragile, mais suffisamment convaincant pour donner un aperçu très clair de ce qui arrive ensuite.

Pas un gadget. Un avant-goût.

💙​ La vidéo de la semaine : le premier bâtiment dessiné par un robot 

Un robot humanoïde qui ne se contente pas de dessiner ou de peindre, mais qui présente un projet architectural complet. C’est ce que montre cette vidéo autour de Ai-Da, un robot artiste équipé de caméras, de bras robotisés et de modèles d’IA, invité à dévoiler son premier concept de bâtiment.

Le projet, baptisé Space Pod, propose des habitats modulaires à l’esthétique rétro-futuriste, pensés comme des espaces adaptables, potentiellement utilisables sur Terre… ou ailleurs. Mais le plus intéressant n’est pas vraiment le design en lui-même. C’est la scène.

Car Ai-Da ne génère pas une image dans son coin. Elle observe, esquisse, explique, et présente son travail comme le ferait un architecte ou un designer. On n’est plus face à une IA abstraite, mais à une création incarnée, avec un corps, une gestuelle, une présence.

La vidéo pose alors une question aussi simple que dérangeante : si une machine peut concevoir un espace, le décrire et le défendre, qu’est-ce qu’on appelle encore “créer” ?

Pas une démo bluffante à la seconde. Plutôt un moment étrange, un peu fascinant, où l’IA cesse d’être un outil invisible pour devenir un acteur créatif à part entière.

À regarder jusqu’au bout, ne serait-ce que pour le léger malaise très instructif que ça provoque.

Keep Reading

No posts found