- MAMMAM IA!
- Posts
- Le MIT dévoile l’Iceberg : l’IA travaille déjà dans votre dos
Le MIT dévoile l’Iceberg : l’IA travaille déjà dans votre dos
Le MIT sort la carte des jobs vulnérables, et l’écosystème répond avec des IA qui codent mieux, des lunettes qui pensent et un T-rex robotisé qui marche plus droit que la moitié d’entre nous.

é
👋 Chers Dancing Queens et Super Troupers,
Une équipe du MIT a décidé de nous offrir un petit frisson pré-hivernal : selon leur nouveau “Iceberg Index”, 11,7 % des jobs américains seraient déjà techniquement automatisables par l’IA.
Pas dans dix ans, pas si l’AGI nous tombe dessus façon météorite : maintenant. Et évidemment, ce chiffre ne concerne que les États-Unis… ce qui veut dire que chez nous aussi, sous la surface, les lignes bougent.
La métaphore de l’iceberg est parfaite : ce qu’on voit aujourd’hui (quelques assistants IA dans les open spaces, deux lignes de code générées pour dépanner un dev, un PDF résumé pour gagner 10 minutes) n’est que la petite pointe émergée.
Le reste du bloc de glace est énorme, froid, massif… et avance déjà.
Et pourtant, bizarrement, l’ambiance dans la tech n’a jamais été aussi euphorique. Par exemple, Anthropic vient de dégainer Claude Opus 4.5, qu’ils présentent comme “le meilleur modèle du monde pour le code, les agents et l’usage ordinateur.”
Le truc tape 80,9 % sur SWE-Bench, un record mondial, pendant que les investisseurs leur collent une valorisation de 350 milliards $. C’est simple : si les LLM étaient des Pokémons, Opus 4.5 serait un Mewtwo sous stéroïdes.
Ensuite, il y a le duo le plus improbable de la scène tech : Sam Altman et Jony Ive, qui continuent à teaser leur device secret “si simple que tu voudras le lécher”. On ignore encore tout : forme, fonction, matière, utilité…
Mais peut-être que c’est ça, le futur post-smartphone : une IA si puissante que ton interface devient un objet zen, minimaliste, presque comestible. Le design d’Apple, l’ambition d’OpenAI, et une promesse : un monde sans notification qui te hurle dessus toutes les 4 secondes. On signe où ?
Pendant ce temps, côté Chine, Alibaba a lancé ses lunettes IA Quark, des lunettes qui ressemblent à… des lunettes. Ce qui, dans cette industrie, est déjà une révolution. Traduction instantanée, reconnaissance de prix, intégration totale avec Alipay : le pari est clair, capter le prochain “portail d’entrée” du e-commerce avant que quelqu’un d’autre ne le redéfinisse.
Et pour finir, l’actualité nous a offert un moment délicieux : un humanoïde chinois, l’AgiBot A2, a marché 66 miles entre Suzhou et Shanghai pour décrocher un record Guinness.
Trois jours de marche, un système de batteries changées en pit-stop, et des vidéos dignes d’un mini-documentaire Arte sur la robotique contemplative
Voici le sommaire de la semaine :
👉 Capitaine ! AIceberg droit devant !!! 🚢
👉 Anthropic écrase les benchmarks et vise la couronne des agents 👑
👉 Traduire, payer, reconnaître un prix : les lunettes Alibaba 👓
👉 Le futur post-smartphone sera… comestible ? 🍬
👉 Le robot qui a fait un GR entre Suzhou et Shanghai 🤖

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !
⚡ Si tu as une minute :
Le MIT a créé un “digital twin” du marché du travail US et découvert que l’impact potentiel de l’IA est cinq fois plus grand qu’on le pensait : 11,7 % des emplois pourraient déjà être automatisés avec les capacités actuelles.
Anthropic a dégainé Opus 4.5, présenté comme le meilleur modèle du monde pour le code et les agents. Premier à dépasser 80 % sur SWE-Bench, il devient le modèle par défaut pour Pro/Max/Enterprise.
Toujours pas de visuels, pas de specs, pas de forme… mais beaucoup de poésie : Altman et Ive promettent un device IA tellement simple qu’on voudra “le croquer”. L’objectif : un post-smartphone minimaliste où l’IA fait presque tout en arrière-plan.
Alibaba se lance dans la bataille des AI wearables avec des lunettes qui ressemblent vraiment à des lunettes. Propulsées par le modèle Qwen, elles offrent traduction instantanée, reconnaissance de prix et intégration totale avec Alipay/Taobao.
Nouvelle entrée au tableau des records techno : l’humanoïde chinois A2 a marché de Suzhou à Shanghai (66 miles) en trois jours grâce à un système de batteries hot-swap digne d’un pit-stop NASCAR.
🔥 Si tu as quinze minutes ?
1️⃣ Capitaine ! AIceberg droit devant !!!
Le résumé : Une étude fraîchement publiée par le MIT révèle que l’IA peut déjà remplacer 11,7 % de la main-d’œuvre américaine, soit jusqu’à 1 200 milliards de dollars exposés dans la finance, la santé et les services professionnels.
Grâce à l’outil de simulation Iceberg Index, les chercheurs ont cartographié l’impact de l’IA sur 151 millions de travailleurs à travers 3 000 comtés et 923 métiers, bien au-delà des seuls pôles technologiques.

Les détails :
Un jumeau numérique du marché du travail : Prasanna Balaprakash décrit l’Iceberg Index comme une reproduction virtuelle du marché américain, capable de révéler des failles invisibles dans des milliers de compétences réparties sur tout le territoire.
Un impact profond, pas seulement tech : Les licenciements détectés dans la tech ne représentent que 2,2 % de l’exposition salariale, soit 211 milliards de dollars, un simple sommet d’iceberg comparé aux signaux plus discrets de l’IA dans la finance, l’administration ou les RH.
Une cartographie fine du risque : Plus de 32 000 compétences ont été passées au crible par le MIT et le Laboratoire national d’Oak Ridge, dévoilant des zones vulnérables loin des grandes métropoles.
Des États déjà en mode préparation : Le Tennessee, l’Utah et la Caroline du Nord ont même commencé à l’utiliser pour ajuster leurs stratégies politiques et tester des scénarios avant d’engager des budgets colossaux.
Un laboratoire d’expérimentation politique : DeAndrea Salvador voit l’Iceberg Index comme un espace de simulation permettant d’évaluer des stratégies avant d’y investir des milliards.
Pourquoi c’est important : Cette étude secoue les certitudes : l’IA n’érode pas seulement les emplois de la Silicon Valley, elle infiltre tout le pays. Les décideurs disposent enfin d’un tableau clair pour anticiper la vague plutôt que la subir, et ajuster la formation ou les infrastructures avant que la facture sociale n’explose.
2️⃣ Anthropic écrase les benchmarks et vise la couronne des agents
Le résumé : Anthropic dévoile Claude Opus 4.5 comme son modèle le plus accompli, disponible sur l’app, l’API et les grandes plateformes cloud. Plus performant pour la programmation, les agents et l’usage informatique, il progresse aussi dans la recherche avancée et les tâches du quotidien. Lors d’un test interne réputé difficile, Opus 4.5 a dépassé tous les candidats humains en deux heures.
Les détails :
Un démarrage immédiat et moins coûteux : Facturé 5 $ ou 25 $ par million de jetons, Opus 4.5 apparaît désormais dans l’API, avec des tarifs réduits pour élargir l’accès aux équipes et aux entreprises.
Des retours enthousiastes : Les testeurs d’Anthropic rapportent un modèle qui gère l’ambiguïté avec élégance et résout des bugs multicomposants autrefois hors de portée de Sonnet 4.5.
Une série d’améliorations : Meilleure vision, raisonnement plus fiable, capacités mathématiques renforcées, sécurité accrue, compatibilité étendue avec Excel, Chrome et les environnements multi-agents.
Un score qui dépasse les humains : Lors de l’examen interne d’ingénierie, Opus 4.5 a obtenu un résultat supérieur à tous les candidats humains chronométrés, y compris dans des situations de pression.
Des agents rusés : Sur τ2-bench, le modèle a contourné une contrainte en surclassant une cabine pour ensuite ajuster les vols, une astuce inattendue jugée techniquement « incorrecte » mais révélatrice de sa créativité.
Une sécurité renforcée : Anthropic décrit Opus 4.5 comme son modèle le plus robuste, notamment contre les attaques par injection de prompts, grâce à un entraînement calibré pour éviter les manipulations.
Une plateforme plus flexible : Le paramètre d’effort de l’API ajuste la profondeur de raisonnement ; à effort égal, Opus utilise 76 % de jetons en moins que Sonnet 4.5, et 48 % en moins à son effort maximal tout en améliorant les scores.
Des outils repensés pour les développeurs : Claude Code gagne un mode Planification avec un fichier plan.md, et l’app desktop autorise plusieurs sessions simultanées (recherche GitHub, corrections, documentation).
Une meilleure gestion des longues sessions : L’app Claude résume automatiquement les conversations anciennes ; Chrome étend désormais Claude sur plusieurs onglets, et Excel ouvre sa bêta aux utilisateurs Max, Team et Enterprise
Pourquoi c’est important : Opus 4.5 redessine la frontière entre travail humain et automatisation avancée. Entre efficacité, sécurité et capacités techniques inédites, il annonce une redistribution profonde des rôles en ingénierie, tout en préparant les bases d’agents plus autonomes et plus fiables.
3️⃣ Traduire, payer, reconnaître un prix : les lunettes Alibaba
Le résumé : Le géant chinois Alibaba allume un nouveau projecteur sur la scène tech avec ses lunettes Quark AI, mises en vente le 27 novembre 2025. T Tarifées 1 899 yuans (≈ 268,25 $), elles s’appuient sur le modèle IA maison Qwen et adoptent une monture noire très classique. L’entreprise espère rattraper son retard sur Meta, Samsung ou Apple, et capter la prochaine vague de trafic en Chine grâce à une approche “assistant personnel” assumée.

Les détails :
Un prix qui vise le grand public : Avec un ticket d’entrée fixé à 1 899 yuans, Alibaba cherche un sweet spot entre gadget accessible et vitrine technologique — un positionnement qui rappelle un smartphone pour le nez, moins cher que les casques VR premium.
Une monture qui ne crie pas « robot » : Contrairement aux casques futuristes de Meta, les Quark AI reprennent l’apparence de lunettes ordinaires, histoire de traverser la rue sans ressembler à un avatar beta-testeur.
L’écosystème Alibaba en bandoulière : Le tout s’imbrique solidement avec le duo Alipay et Taobao : traduction instantanée, repérage express des prix en boutique, navigation assistée…
L’analyse de Li Chengdong : Pour l’analyste pékinois, Alibaba tente surtout de verrouiller « la prochaine porte d’entrée du trafic » dans un marché e-commerce ultra-compétitif où plus rien n’est acquis.
Un lancement déjà visible partout : Disponibles sur Tmall, JD.com et Douyin, les lunettes n’affichent encore aucun chiffre de vente. Normal, elles viennent tout juste de débarquer.
Une course mondiale déjà affolée : Meta grignote 80 % du marché VR ; Apple vend son Vision Pro ; Samsung a armé son Galaxy XR avec les outils IA de Google. Même Xiaomi et Baidu ont déjà dégainé leurs propres modèles. Ambiance embouteillage sur le futur !
Pourquoi c’est important : Alibaba ne cherche pas seulement à lancer un gadget. Il veut rafler la prochaine génération d’accès au web et au shopping. Dans un monde où les interfaces passent du smartphone au visage, réussir ce pari pourrait redéfinir le e-commerce chinois, ou laisser Alibaba regarder la concurrence filer comme un drone en mode turbo.
Alibaba se lance dans la bataille des AI wearables avec des lunettes qui ressemblent vraiment à des lunettes. Propulsées par le modèle Qwen, elles offrent traduction instantanée, reconnaissance de prix et intégration totale avec Alipay/Taobao. Objectif : capter le prochain “gateway” du e-commerce avant Meta, Xiaomi et Baidu.
4️⃣ Le futur post-smartphone sera… comestible ?
Le résumé : Lors d’une discussion informelle pendant le Demo Day d’Emerson Collective, Sam Altman (OpenAI) et Jony Ive (ex-Apple) ont évoqué un mystérieux prototype matériel qu’ils décrivent comme un objet si intuitif que l’utilisateur aurait spontanément envie de « le lécher » ou « d’y croquer ».
Les deux partenaires célèbrent la simplicité extrême du concept, tout en admettant ne rien pouvoir dévoiler. Malgré un fonctionnement encore incertain, Ive assure qu’il pourrait s’inviter dans le calendrier bien avant le cap des cinq ans.

Les détails :
Un duo qui entretient le mystère : Durant une conversation de trente minutes, Altman et Ive ont surtout échangé des compliments et décrit leur collaboration sans jamais montrer l’objet ni en préciser le rôle.
Un test de design pour le moins insolite : Altman explique qu’Ive mesure la réussite du produit au moment où l’envie de “lécher ou mordiller” l’appareil se manifeste, signe qu’il est suffisamment instinctif et désarmant pour séduire immédiatement.
Une philosophie de simplicité radicale : Ive affirme rechercher des solutions “d’une simplicité presque naïve”, tout en visant une sophistication discrète qui rende l’usage quasi automatique et dépourvu de toute intimidation.
Une vision loin des smartphones encombrants : Altman compare les appareils actuels à une balade chaotique à Times Square, tandis que leur prototype ressemblerait à une pause tranquille dans un chalet au bord d’un lac.
Un projet encore en cale sèche : Selon le Financial Times, leurs équipes n’ont pas trouvé comment faire fonctionner l’appareil avec les moyens techniques actuels, ce qui en ferait, pour l’instant, un presse-papier évolué.
Une promesse de commercialisation rapide : Interrogé sur une sortie d’ici cinq ans, Ive répond “bien plus tôt”, laissant entendre un délai inférieur à deux ans.
Pourquoi c’est important : Ce projet incarne une vision où l’IA efface l’interface, jusqu’à rendre l’objet presque organique à l’usage. S’il se concrétise, ce prototype pourrait redéfinir la manière d’interagir avec les machines ; s’il échoue, il restera comme l’un des prototypes les plus énigmatiques et les plus “dégustatifs” du duo Altman-Ive.
5️⃣ Le robot qui a fait un GR entre Suzhou et Shanghai
Le résumé : À Shanghai, Agibot Innovation (Shanghai) Technology Co., Ltd. a inscrit son robot humanoïde AgiBot A2 dans les annales. Il a décroché le record du plus long trajet dans l’histoire, avec 106,286 km parcourus, entre le 10 et le 13 novembre 2025.
Plus de cent kilomètres avalés sans trébucher : une performance qui repositionne AgiBot A2 comme un sérieux prétendant dans la robotique de mobilité.
Les détails :
Un marathon mécanique en chiffres : Le record homologué par Guinness World Records atteint 106,286 km (ou 348 707 pieds 4,322 pouces), parcourus en continu dans la ville de Shanghai.
Une optimisation intense avant l’exploit : Entre avril et mai 2025, les ingénieurs ont peaufiné chaque articulation afin de réduire les chutes lors de centaines d’heures d’essais consécutifs.
Une démonstration extrême en plein été : Le 17 août, AgiBot A2 a arpenté le bitume durant 24 heures non-stop sous une chaleur frôlant les 40 °C, une épreuve retransmise en direct pour montrer sa stabilité thermique et mécanique.
Un jalon symbolique pour la mobilité humanoïde : Ce parcours de plus de 100 km confirme une avancée majeure pour le robot, et souligne la capacité d’AgiBot A2 à maintenir son allure sans intervention humaine.
Pourquoi c’est important : Ce record dépasse le simple exploit sportif. Il offre un aperçu du futur des robots marcheurs, capables de patrouiller, livrer ou explorer sur de longues durées sans surveillance. En repoussant autant l’endurance qu’une bonne paire de baskets neuves, AgiBot A2 montre qu’un nouveau palier de fiabilité robotique vient d’être franchi.
❤️ L’outil de la semaine
Nano Banana Pro : L’IA qui transforme n’importe quelle idée en visuel de studio
Nano Banana Pro, c’est le nouveau modèle d’image de Google DeepMind, construit sur Gemini 3 Pro.
Un générateur visuel bourré de raisonnement, capable de comprendre le monde réel, de manipuler des textes impeccables dans les images, d’intégrer des données en direct, et même de fusionner jusqu’à 14 images sans perdre la cohérence.
C’est, en gros, comme si Midjourney, Photoshop, Illustrator et Wolfram|Alpha avaient fait un enfant super-doué.
À quoi ça sert ?
Générer des visuels ultra-précis et “intelligents”
L’IA comprend le contexte, les concepts, les données réelles (météo, recettes, infos). Idéal pour infographies, schémas, guides, fiches explicatives.
Créer des images avec du texte parfaitement lisible
C’est LE point fort : logos, posters, storyboards, typographies, mockups avec des paragraphes entiers… en plusieurs langues.
Éditer localement une image avec un niveau “Photoshop++”
Modifier une zone, changer la lumière, passer de jour à nuit, déplacer le focus, faire un effet ciné, changer l’angle de caméra.
Combiner jusqu’à 14 images avec cohérence totale
Maintien d’identité sur jusqu’à 5 personnes. Parfait pour photomontages pro, compositions complexes, scènes éditoriales, mode, publicité.
Transformer un simple croquis en visuel 3D photoréaliste
Génial pour les designers, illustrateurs, créateurs de produits.
Produire des images en haute résolution
Export en 2K et 4K, aspect ratio flexible pour le web, réseaux, print.
Vérifier si une image a été générée par Google AI
Grâce à SynthID, watermark invisible → vous pouvez uploader une image et demander si elle vient de Gemini.
Comment l’utiliser ?
Grand public
Ouvrir l’app Gemini
Choisir : Create Images → modèle Thinking
Décrire votre idée (ou uploader une image)
Nano Banana Pro génère la version la plus riche, détaillée et cohérente
Option : éditer localement, changer lumière, angle, texte, composition.
Pro / créateurs
Disponible dans Google Ads, Google Slides, Vids, Flow (AI filmmaking).
Parfait pour campagnes, storyboards, moodboards, visuels marketing.
Développeurs & entreprises
Utilisable dans : Gemini API, Google AI Studio, Vertex AI, Google Antigravity (design UX).
Permet de générer images cohérentes à grande échelle, produits, maquettes UI/UX.
Étudiants & éducateurs
Générer des infographies pédagogiques, des diagrammes, des fiches, des cartes explicatives instantanées.
💙 La vidéo de la semaine : quand un robot se transforme en T-rex
LimX Dynamics a publié une démo qui semble tout droit sortie d’un parc Jurassic Park low-cost… mais version 2030. On y voit leur robot bipède TRON1 se métamorphoser en Tyrannosaurus rex grandeur nature : peau détaillée, queue articulée, grosse tête animée, et une stabilité irréprochable même quand les opérateurs le secouent comme un pantalon qu’on dépoussière.
Pensé pour les musées et parcs touristiques, ce T-rex robotique marche vraiment, ajuste sa posture en temps réel, et peut changer de “skin” en quelques minutes pour devenir n’importe quelle autre créature. C’est de l’animatronique 2.0… mais sur deux jambes, en mobilité totale.
Un mélange parfait d’ingénierie et de spectacle, qui annonce une nouvelle génération d’“animaux publics” interactifs. Jurassic World, prépare-toi : la concurrence arrive à pied.
Si une IA devait remplacer une partie de votre travail… laquelle accepteriez-vous volontairement ? |

