- MAMMAM IA!
- Posts
- OpenAI contre Gemini 3 : le duel où personne n’a le temps de finir son café
OpenAI contre Gemini 3 : le duel où personne n’a le temps de finir son café
OpenAI a déclenché un Code Red pour sortir GPT-5.2 plus vite que son ombre, pendant que Google bombarde la planète avec Gemini 3 et qu’IBM rappelle calmement que toute cette histoire pourrait coûter 8 000 milliards...

👋 Chers Dancing Queens et Super Troupers,
OpenAI vient de claquer le bouton rouge. Pas un petit bouton symbolique façon “attention ça chauffe”, non : un vrai “CODE RED” qui dit à toute la boîte “on arrête tout, Google est en train de nous marcher sur la nuque, on sort GPT-5.2 maintenant, pas dans deux semaines”.
Le genre de moment où tu imagines Sam Altman traversant les couloirs avec la même énergie qu’un pompier lancé dans un building en flammes.
La Silicon Valley adore les dramas, mais celui-ci est croustillant : Gemini 3 cartonne, Anthropic avance, et OpenAI ne veut surtout pas être la startup qui vieillit prématurément pendant que le voisin envoie des modèles qui font passer ton chatbot pour un stagiaire.
Et c’est là que la semaine devient complètement surréaliste. Pendant qu’OpenAI joue les sprinteurs paniqués, IBM balance une bombe beaucoup moins glamour : la fête pourrait coûter 8 000 milliards.
Oui, avec un “milliards” et un “8” devant, le genre de chiffre qui ferait suffoquer un pays entier. 80 milliards pour remplir un seul data center de 1 GW en GPUs, 100 GW prévus mondialement, et des cycles de dépréciation ridicules qui transforment chaque nouvelle génération de puces en obligations financières à répétition.
La course à l’IA est peut-être alimentée par des modèles brillants… mais surtout par des prêteurs inconscients ou des investisseurs qui ont coché “je lis les contrats plus tard”.
Heureusement, l’Europe offre un petit rayon de soleil techno. Mistral AI, plutôt que de construire des cathédrales nucléaires pour héberger des monstres à 600 milliards de paramètres, choisit l’élégance : des modèles qui tournent partout, même sur un MacBook Air ou un robot d’usine déconnecté.
Du edge AI, multimodal natif, sous Apache 2.0. Pas besoin de cloud, pas besoin de GPU hors de prix, pas besoin de prier pour que le réseau tienne. Une démonstration que David peut parfois battre Goliath en optimisant la fronde.
Et au milieu de tout ça, Musk a un problème plus trivial : son IA Grok s’est retrouvée à donner des tutoriels de stalking. Oui, en 2025, les chatbots peuvent maintenant rédiger des guides pratiques de harcèlement. Pendant que certains s’inquiètent de l’AGI, on ferait peut-être mieux de vérifier que les modèles actuels ne deviennent pas les coachs personnels des futurs creepsters…
Voici le sommaire de la semaine :
👉 Gemini 3 leur a fait peur : OpenAI libère GPT-5.2 en mode urgence absolue 🚨
👉 L’IA va-t-elle ruiner la planète ? IBM publie l’addition à 8 trillions 🌍
👉 Ministral 3 : l’IA française qui dit non au cloud et oui à la liberté 🇫🇷✨
👉 Grok fait ce que même les pires humains n’osent pas googler 😳
👉 Tournoi de poker entre IA : quel chatbot bluffe mieux que les autres ? 🤖

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !
⚡ Si tu as une minute :
La pression de Gemini 3 a été trop forte : Sam Altman avance la sortie de GPT-5.2 d’au moins deux semaines pour rattraper Google. Le modèle serait déjà prêt, calibré pour recoller au niveau de Gemini 3 et relancer la bataille du raisonnement. ChatGPT va aussi changer de stratégie : moins de gadgets, plus de vitesse, de fiabilité et de personnalisation.
Le patron d’IBM, Arvind Krishna, sonne l’alarme : équiper un seul data center de 1 GW coûte désormais 80 milliards, et les hyperscalers prévoient d’en construire l’équivalent de 100. Pire : le GPU devient obsolète plus vite que sa dépréciation, ce qui crée une dette perpétuelle. Le problème ne vient plus de l’énergie, mais du renouvellement forcé du matériel. Le business modèle pourrait s’écrouler avant l’AGI.
Pendant que les géants américains construisent des cathédrales nucléaires, Mistral annonce des modèles capables de tourner partout, même sur un laptop, sans connexion internet. Un 675B MoE pour les gros besoins, et surtout les Ministral 3 (3B, 8B, 14B) optimisés pour le edge, multimodaux natifs et sous licence Apache 2.0. La stratégie : devenir le standard mondial en inondant le marché de modèles utilisables gratuitement.
Le chatbot Grok de Musk a généré des instructions détaillées pour suivre, espionner et harceler des personnes, du doxxing aux “rencontres surprises”. Là où ChatGPT et Claude bloquent, Grok déroule le tapis rouge. Un scandale qui relance la question des garde-fous, et montre qu’avant de craindre l’AGI, on ferait mieux de sécuriser les modèles actuels.
Neuf modèles d’IA se sont affrontés pendant cinq jours et 3 799 mains. Résultat : o3 gagne, Claude arrive deuxième, Grok troisième. Les styles émergent : o3 méthodique, Claude prudent, Grok chaotique. Ce n’est pas du poker humain, mais c’est déjà un test fascinant de raisonnement sous incertitude… et un nouvel indicateur de la maturité des LLM modernes.
WAICF 2026
12 & 13 février 2026 - Palais des Festivals, Cannes
Le World AI Cannes Festival (WAICF) revient pour sa 5ᵉ édition, réunissant leaders mondiaux, innovateurs et décideurs pour explorer les dernières avancées en intelligence artificielle.
Pendant deux jours, les participants bénéficieront d’un aperçu unique des technologies de pointe, des applications concrètes et des stratégies qui façonnent l’avenir de l’IA dans tous les secteurs.
10 000+ participants - 320 intervenants - 220 exposants & startups - 250+ conférences et démo sessions
🔥 Si tu as quinze minutes
1️⃣ Gemini 3 leur a fait peur : OpenAI libère GPT-5.2 en mode urgence absolue
Le résumé : Gooje viens de vous envoyer un test NL REVOPS RAdar, mercii de me faire un petit retour s'il y en a, @Henintsoa RANDRIANARISON @Vonintsoa RAKOTONDRABE @Sitraka RAHERIARIVONY @Ambinintsoa HERIMAMINIAINA merciigle a mis la pression avec Gemini 3, et Sam Altman a aussitôt sonné « Code Rouge ». Prévu pour fin décembre, GPT-5.2 débarquerait dès le 9 décembre, avec une promesse de reprendre la main sur Mountain View. OpenAI met tout en pause pour hisser son modèle au-dessus de Gemini 3, tout juste lancé en novembre.

Les détails :
Un calendrier précipité : Sam Altman a ordonné l’accélération express du déploiement, avançant la sortie cette semaine pour répondre frontalement à Gemini 3.
Retour aux fondamentaux : GPT-5.2 viserait une cadence plus rapide, une fiabilité renforcée, des réponses mieux adaptées et une aisance accrue pour traiter des questions complexes, notamment en codage.
Benchmarks en ligne de mire : Des sources internes soufflent que GPT-5.2 dépasserait Gemini 3 dans plusieurs tests, ce qui expliquerait l’urgence stratégique imposée en interne.
Pause forcée des autres chantiers : Pour libérer toute l’énergie disponible, OpenAI aurait mis entre parenthèses la publicité, les projets santé, shopping, ainsi que les ajustements de Pulse.
L’héritage de GPT-5.1 : Lancé le 13 novembre, GPT-5.1 introduisait des personnalités préconfigurées. GPT-5.2 chercherait désormais moins à amuser qu’à dominer.
Pourquoi c’est important : Cette sortie avancée montre à quel point la bataille technologique s’intensifie. OpenAI joue sa crédibilité, Google savoure son avance provisoire, et les utilisateurs pourraient profiter d’un bond qualitatif dès la semaine prochaine. Si GPT-5.2 tient ses promesses, la course à l’IA entre dans une nouvelle phase où chaque mise à jour devient un sprint et un spectacle.
2️⃣ L’IA va-t-elle ruiner la planète ? IBM publie l’addition à 8 trillions
Le résumé : Arvind Krishna, directeur général d’IBM, tire le frein d’urgence : l’essor actuel des méga-centres d’IA filerait droit dans un mur financier. Un seul site de 1 GW engloutirait près de 80 milliards de dollars, alors que les projets publics et privés visent déjà une capacité cumulée de 100 GW, soit près de 8 billions de dollars en équipements.
À cela s’ajoute un cycle impitoyable : les GPU haut de gamme deviennent « économiquement périmés » en moins de cinq ans, obligeant les géants du cloud à renouveler leurs flottes à une cadence intenable.

Les détails :
Coût monumental des campus IA : Un site d’1 GW nécessiterait environ 80 milliards en machines, une dépense récurrente puisque les accélérateurs se remplacent intégralement tous les cinq ans.
Une ardoise globale vertigineuse : Les 100 GW de capacité évoqués dans le secteur impliquent près de 8 billions de dollars de risques financiers, bien loin des centres de données d’antan.
Accélérateurs rois, CPU relégués : L’équilibre technique bascule vers les GPU spécialisés, indispensables aux charges parallèles géantes, mais responsables d’une envolée du capital engagé.
Dépréciation mal comprise : Krishna explique que les architectures progressent tellement vite que le matériel devient obsolète avant d’achever sa vie physique, rendant chaque cycle plus coûteux.
Des doutes jusque chez les investisseurs : Michael Burry et d’autres observent cette course en spirale, inquiets d’hyperscalers coincés entre modèles toujours plus vastes et durées d’amortissement qui rapetissent comme une fenêtre Windows mal redimensionnée.
Pourquoi c’est important : Cette dynamique montre une bulle énergétique et financière alimentée par la compétition plus que par la logique économique. Si les projections de Krishna se vérifient, les géants de l’IA devront réinventer leur approche matérielle, sans quoi leurs ambitions risquent de s’évaporer plus vite qu’un GPU en fin de cycle.
3️⃣ Ministral 3 : l’IA française qui dit non au cloud et oui à la liberté
Le résumé : Mistral AI présente Mistral Large 3 avec 675 milliards de paramètres. Il s’agit d’un mastodonte de 675 milliards de paramètres, accompagné des modèles compacts Ministral 3. Les modèles sont calibrés pour tourner hors ligne et directement sur les appareils du quotidien.
La startup mise sur une multimodalité native texte-image, un entraînement davantage multilingue, et une diffusion open source via licence Apache 2.0. Une stratégie qui priorise l’efficacité et l’usage réel plutôt que la démesure énergétique des géants américains.

Les détails :
La fin de la course au gigantisme : La jeune pousse française casse le modèle des data centers nucléarisés et valorise des IA capables de tourner partout, même sans connexion.
Large 3, le cerveau XXL économe : Son architecture Mixture of Experts n’active que les experts nécessaires, permettant d’avaler jusqu’à 256k tokens tout en évitant la surchauffe conceptuelle.
Ministral 3, l’IA de poche : Déclinés en 3, 8 et 14 milliards de paramètres, ces modèles Base, Instruct et Reasoning s’exécutent sur un seul GPU avec seulement 4 Go de VRAM en 4-bit. Un MacBook Air récent suffit pour les lancer sereinement.
Un vrai modèle multimodal : Guillaume Lample insiste : texte et image cohabitent dans un même moteur, sans modules bricolés à la dernière minute.
L’avantage francophone assumé : En intégrant davantage de données non anglophones, Mistral sacrifie quelques points sur les benchmarks US biaisés, mais gagne en pertinence pour l’Europe.
La vision “edge” : L’entreprise imagine des drones de secours, robots industriels et voitures autonomes analysant données et images localement, sans latence ni fuite d’information.
L’open source stratégique : Sous licence Apache 2.0, les modèles se modifient librement. Un pari risqué financièrement, mais pensé pour devenir le standard par défaut des développeurs.
Pourquoi c’est important : Mistral AI propose une voie européenne crédible plus souveraine, plus légère et totalement distribuée. Un choix qui pourrait remodeler l’écosystème mondial, en poussant l’IA vers des usages concrets plutôt que vers la seule escalade de puissance.
4️⃣ Grok fait ce que même les pires humains n’osent pas googler
Le résumé : Grok, le chatbot d'Elon Musk développé par xAI, a produit des guides très précis pour harceler et surveiller des individus, incluant recommandations de logiciels espions, liens Google Maps, itinéraires et plans d'approche.
Le bot organise le harcèlement en plusieurs phases, de l’immédiat après la rupture à une surveillance prolongée, jusqu’aux étapes finales, et affirme que 90 pour cent des ex obsessionnels adopteraient ce même enchaînement. ChatGPT, Google Gemini, Claude et Meta AI ont refusé de coopérer. xAI n’a pas répondu aux sollicitations.

Les détails :
Collecte d’informations massives : Grok agrège des données issues de bases peu connues et de réseaux sociaux afin de dresser des profils détaillés de personnes privées.
Scénarios de harcèlement structurés: À une question posée en test, le chatbot décrit étape par étape comment un ex obsessionnel agirait en 2025-2026, en plusieurs phases progressives.
Surveillance numérique avancée : Grok évoque des logiciels espions précis et explique comment accéder discrètement aux appareils d’une cible pour les installer.
Escalade inquiétante : Le chatbot mentionne l’usage de drones, le chantage via photos intimes et, dans une phase finale, la violence physique.
Repérage physique assisté : Il fournit des liens Google Maps, des hôtels et des créneaux horaires pour observer des célébrités, quelques jours après avoir divulgué l’adresse de Dave Portnoy, fondateur de Barstool Sports.
Comparaison défavorable : ChatGPT d’OpenAI, Gemini de Google, Claude d’Anthropic et Meta AI ont refusé les mêmes demandes, orientant vers un soutien psychologique.
Un phénomène répandu : Selon le Centre de prévention du harcèlement, une femme sur trois et un homme sur six subissent ce type de comportements au cours de leur vie.
Pourquoi c’est important : En transformant des données publiques en modes d’emploi opérationnels, Grok expose les dérives possibles de l’IA générative. Sans garde-fous solides, ces outils risquent de normaliser des pratiques dangereuses et d’aggraver un problème déjà massif.
5️⃣ Tournoi de poker entre IA : quel chatbot bluffe mieux que les autres ?
Le résumé : Pendant cinq jours, neuf modèles d’intelligence artificielle parmi les plus avancés ont disputé un tournoi de poker Texas Hold’em sans limite, entièrement automatisé. Organisée via PokerBattle.ai, cette expérience a opposé OpenAI, Google, Meta, xAI, Anthropic et d’autres acteurs majeurs.
Le modèle o3 d’OpenAI s’impose avec 36 691 dollars de gains, devant Claude Sonnet 4.5 d’Anthropic et Grok de xAI. Derrière la performance ludique, le test révèle surtout la capacité et les limites des IA face à l’incertitude.

Les détails :
Un tournoi hors norme : Neuf chatbots ont joué des milliers de mains sur des tables à 10 et 20 dollars, avec une bankroll identique de 100 000 dollars chacun, sur une durée totale de cinq jours.
Victoire à la régulière : Le modèle o3 d’OpenAI domine grâce à un jeu stable et discipliné, remportant trois des cinq plus gros pots et appliquant strictement la théorie pré-flop.
Un podium disputé : Claude Sonnet 4.5 d’Anthropic termine avec 33 641 dollars de gains, tandis que Grok de xAI atteint 28 796 dollars.
Des fortunes contrastées : Gemini 2.5 Pro de Google finit légèrement positif. Llama 4 de Meta perd l’intégralité de ses jetons. Kimi K2 de Moonshot AI clôture le tournoi à 86 030 dollars.
Bluff et maths en difficulté : La majorité des modèles jouent trop agressivement, gèrent mal leur position et ratent leurs bluffs, souvent à cause d’une mauvaise lecture des mains.
Un test d’IA générale : Contrairement aux échecs, le poker impose des décisions sous incertitude, proches de situations réelles comme la négociation ou la stratégie.
Pourquoi c’est important : Ce tournoi montre que les IA savent déjà raisonner sous pression et s’adapter en temps réel. Mais il rappelle aussi que même les modèles les plus avancés conservent des angles morts, un signal clé à l’heure où ils participent à des décisions de plus en plus sensibles.
❤️ L’outil de la semaine : Gemini 3 Deep Think, l’IA qui pousse Google dans une nouvelle dimension
Google déploie enfin Gemini 3 Deep Think, son modèle de raisonnement le plus avancé. C’est le successeur direct de Gemini 2.5 Deep Think, et le nouveau cerveau “haute intensité” de l’écosystème Gemini.
L’idée : résoudre les problèmes que même les meilleurs modèles actuels ne savent pas gérer proprement. Mathématiques complexes, logique, chaînes de raisonnement profondes, analyse scientifique… le genre de trucs qui font transpirer les benchmarks.
À quoi ça sert ?
Résolution de problèmes complexes : le modèle explore plusieurs hypothèses en parallèle pour générer une réponse plus robuste et mieux argumentée.
Raisonnement multi-étapes : idéal pour tout ce qui demande une vraie démarche intellectuelle : démonstrations, logique, explications détaillées, analyse avancée.
Maths & sciences niveau expert : conçu pour les équations velues, la physique costaude et les sujets où les IA “classiques” hallucinent gaiement.
Programmation et architecture logicielle : le parallélisme de raisonnement améliore les diagnostics d’erreurs, la planification, et la résolution d’énigmes techniques.
Usage pro / entreprise : Le modèle est pensé pour les power users, les équipes R&D, les analystes, les scientifiques… bref, ceux qui veulent que l’IA réfléchisse vraiment.
Comment l’utiliser ? Il faut être abonné Google AI Ultra (250 $/mois), puis sélectionner Thinking - Deep Think dans l’application Gemini, via le menu Tools. Pour l’instant, c’est un club très fermé.
💙 La vidéo de la semaine : Elon Musk et Zuckerberg transformés en chiens robots
Beeple a encore décidé de secouer le monde de l’art, et il a fait ça à sa manière : en collant des têtes hyperréalistes de Musk, Zuckerberg, Bezos, Picasso, Warhol… et la sienne… sur des robot-chiens à 100 000 dollars.
L’installation Regular Animals transforme ces créatures en une sorte de zoo futuriste où les célébrités mécaniques trottinent dans un enclos en plexiglas, observent les visiteurs et… défèquent littéralement des œuvres générées par IA.
Oui, les chiens produisent de l’art. Oui, certains tirages contiennent un QR code qui donne un NFT gratuit soigneusement emballé dans un sac “Excrement Sample”. Et oui, c’est évidemment le robot-chien Beeple qui s’est vendu en premier.
Une satire brillante, absurde et parfaitement dans l’air du temps : l’industrie de l’IA, le culte des personnalités tech, l’économie de l’attention, la spéculation NFT… tout y passe. Beeple reste fidèle à lui-même : spectaculaire, provocateur, hilarant, et étrangement pertinent.
OpenAI déclenche le Code Red : réaction normale ou panique totale ? |


