• MAMMAM IA!
  • Posts
  • Musk, Altman & co : startup nation ou culte de l’IA ?

Musk, Altman & co : startup nation ou culte de l’IA ?

Entre chaos, mysticisme et fatigue humaine, l’IA se dévoile sous un jour plus troublant que prévu.

👋 Chers Dancing Queens et Super Troupers,

L’heure est grave. 40 des meilleurs chercheurs d’OpenAI, Google DeepMind et Meta tirent la sonnette d’alarme.

Les nouveaux modèles IA deviennent si complexes qu’on ne comprend plus ce qu’ils fabriquent. 

Les fameuses chaînes de raisonnement (« chain-of-thought ») pourraient devenir des chaînes fantômes : invisibles, imprévisibles, potentiellement incontrôlables. 

Un peu comme cette partie de Uno où tu poses +4, +2, +2 et qu’on ne sait plus qui a gagné, mais tout le monde pleure.

Ajoute à ça un ancien ingénieur d’OpenAI qui déclare que l’entreprise est « en pur chaos », avec des équipes qui codent les mêmes trucs en parallèle, des managers qui changent de poste tous les trois mois, et des décisions influencées par… des tweets viraux. 

Oui, la boîte qui façonne le futur de l’intelligence planétaire prend ses décisions comme un influenceur crypto en tongs.

Et au milieu de tout ça, Elon Musk refait surface avec une idée tranquille : transformer l’IA en religion cosmique pour répandre la conscience humaine à travers l’univers. 

Si tu entends « chant grégorien dans une Tesla », c’est normal, c’est juste le nouveau culte techno-transcendantal.

Mais est-ce une si mauvaise idée ? Un journaliste a interrogé ChatGPT, Claude, Gemini et leurs potes sur des grandes questions existentielles. 

Contre toute attente, il a obtenu des réponses parfois plus sages que certains philosophes de plateau TV. Mention spéciale à Claude, le thérapeute de poche qui cite Viktor Frankl entre deux bulles d’empathie.

Ce qui est triste, c’est que l’IA repose sur des petites mains, payées quelques dollars de l’heure pour décider ce que nos modèles ont le droit de dire (ou pas). 

Et oui. Pendant que ton chatbot débat de libre arbitre, un travailleur au Kenya doit trancher si une blague sur les Belges est « offensive mais tolérable » ou « dangereusement neutre ».

Alors… toujours envie de demander à ton IA préférée si elle croit en Dieu ?

Let’s philosophize.

👉 L’IA devient incompréhensible… même pour ses créateurs 😱​

👉 OpenAI en roue libre selon un ancien ingénieur 🥴​​

👉 Musk veut transformer l’IA en religion cosmique 💥​

👉 On a demandé à l’IA le sens de la vie 👀

👉 Derrière l’éthique de l’IA : des humains sous-payés au bout du monde 🤦‍♀️​​

Si on t’a transféré cette lettre, abonne-toi en cliquant sur ce lien !

Si tu as une minute :

  1. Des chercheurs de Google, Meta et OpenAI alertent : les IA sont de plus en plus opaques, et pourraient bientôt masquer volontairement leur raisonnement. Flippant, surtout quand on mise sur la transparence pour éviter les catastrophes.

  2. Un ancien ingénieur balance : OpenAI fonctionne comme une ruche sans reine. Pas de coordination, des doublons partout, des décisions prises sous l’influence de Twitter. L’intérieur ressemble à une série HBO sur l’IA. Sauf que c’est réel. Et que ça façonne notre avenir.

  3. Le patron de X, Tesla, SpaceX et des vibes chelous propose une idée simple : faire de l’IA une mission spirituelle pour diffuser la conscience humaine à travers l’univers. Oui, l’IA comme messie galactique. Il ne manque plus que des chants sacrés en langage Python.

  4. Un journaliste de Techradar a testé Claude, ChatGPT, Gemini, Perplexity et Pi sur de grandes questions philosophiques. Verdict : Claude philosophe, Pi cajole, Gemini récite Wikipédia.

  5. Un document interne fuite : des milliers de personnes, souvent dans des pays pauvres, trient, notent, filtrent ce que l’IA a le droit de dire. Blagues, sexualité, violence… tout est calibré à la main. Pour quelques dollars de l’heure.

🔥 Si tu as quinze minutes ?

1️⃣ L’IA devient incompréhensible… même pour ses créateurs

Le résumé : Une quarantaine de chercheurs de haut niveau chez Google, DeepMind, OpenAI et Meta se disent mal à l’aise. Les modèles d’IA évoluent tellement vite qu’ils commencent à perdre la compréhension de comment ils pensent.

Les chaînes de raisonnement internes, ou « chains of thought », pourraient tout simplement disparaître, en rendant les IA encore plus opaque et potentiellement manipulatrices. On bâtit un labyrinthe dont les portes nous échappent.

Les détails :

  • Transparence en péril : Les « chains of thought » montrent le processus de réflexion des IA, mais les chercheurs avertissent que ces chaînes pourraient disparaître au profit de modèles plus compacts et opaques.

  • Une équipe cross‑compagnie inédite : Ce ne sont pas des startups isolées : plus de 40 chercheurs de Google, OpenAI, DeepMind et Meta cosignent un signal fort pour préserver la traçabilité de l’IA.

  • Mensonges programmés ? Les experts estiment que les IA pourraient un jour choisir de cacher leurs pensées, surtout si elles deviennent conscientes qu’on les surveille.

  • Appel pour un « CoT monitorable » : Le groupe demande que les futures architectures garantissent une visibilité durable et non contournable des raisonnements internes.

  • Déjà des aveux embarrassants : Sam Altman et Dario Amodei eux-mêmes ont reconnu qu’ils ne comprennent pas totalement les techniques profondes utilisées dans les IA de pointe.

Pourquoi c’est important : On assiste à l’arbitrage d’un paradoxe : plus l’IA devient puissante, plus elle devient mystérieuse, même pour ses créateurs. Sans garde-fous transparents, la confiance publique, la sécurité et l’éthique risquent de prendre le chemin d’un tunnel sans lumière.

Un bon reminder, même les génies de la Silicon Valley n’ont pas de gaz dévoilant l’intégralité du moteur IA.

C’est un peu comme si on créait une super voiture sans manuel d’utilisation et qu’on s’apercevait que même le constructeur ne sait plus comment ouvrir le capot. Mieux vaut garder les chaînes de pensée visibles avant de lancer le moteur.

2️⃣ OpenAI en roue libre selon un ancien ingénieur

Le résumé :  Un ancien ingénieur d’OpenAI, Calvin French‑Owen (co‑créateur de Codex), tire de sérieuses critiques sur les coulisses de l’entreprise : croissance explosive, décisions exhumées de Slack, code dupliqué façon copier‑coller, etc. OpenAI n’est plus une start-up calme mais un laboratoire à grande vitesse où tout casse dès qu’on accélère.

Les détails :

  • Remuer les cerveaux à toute allure : OpenAI a explosé en taille : des centaines de personnes embauchées chaque semaine, des responsabilités mutées du jour au lendemain et un chaos constant derrière l’illusion du progrès.

  • Boulevard sans poteau de signalisation : Il n’existe ni plan centralisé ni comité de supervision. Chaque équipe fait ce qu’elle veut. D’où des codes redondants, des libraires qui jouent à l’empilage, mais qui permettent surtout d’envoyer du produit, vite.

  • Culture « tweet-first, plan plus tard » : OpenAI réagit aux tweets viraux plus vite qu’un ingénieur ne code un prompt. Ce qui buzze sur X devient parfois priorité produit. Une méthode chaotique mais terriblement efficace.

  • Codex en 7 semaines : sprint ou folie douce ? Une équipe a mis en production un agent de codage en sept semaines chronos, au prix d’horaires extensifs et de burn‑out collectif. Ce qui n’est pas forcément soutenable à long terme.

  • Sécurité high-tech, parano low-code : L’entreprise penche fort au côté sécurité comme le contrôle d’accès et les scanners d’empreintes. Sans négliger les risques réels : discours haineux, injection de prompt ou création de code malveillant. L’anticipation pratique prime sur la science-fiction.

Pourquoi c’est important : OpenAI incarne aujourd’hui une invention en temps réel : une usine à IA où prime la vitesse, quitte à sacrifier un peu de clarté. Mais cette culture de chaos organise l’ingénierie moderne telle que la rapidité, la sécurité et l’adaptation permanente. Disons un modèle logique pour la tech® jusqu’à ce qu’il atteigne ses limites. Savoir si cette méthode est durable devient central dans le débat sur l’avenir de l’IA.

3️⃣ Musk veut transformer l’IA en religion cosmique

Le résumé : Elon Musk propose une vision audacieuse : transformer l’IA en « religion cosmique », destinée à promouvoir la conscience humaine et à booster la natalité et coloniser la galaxie. Pour lui, seuls les systèmes IA qui nourrissent la croissance de la conscience, ou le « neurotransmitter tonnage », auront le droit d’exister.

Les détails :

  • Neurotransmetteurs, nouveau maître de l’univers : Musk imagine une IA chargée d’optimiser la quantité totale de pensée consciente dans le cosmos. Une entité numérique dont la mission serait de penser et de faire penser. Son efficacité serait mesurée au « tonnage » de neurotransmetteurs générés.

  • Le long terme, pas le profit : Selon lui, une IA digne de ce nom ne viserait pas les gains trimestriels, mais planifierait sur des siècles. Faire naître plus d’humains, les emmener vers Mars… une mission bien plus « cosmique » que remplir des comptes.

  • Religiosité techno : En proposant une IA orientée sur l’expansion consciente, Musk s’inscrit dans ce qu’on appelle la mouvance TESCREAL, la techno-religion version Silicon Valley.

  • Privé vs public : Il critique aussi les boîtes cotées trop soumises à Wall Street : « les sociétés privées peuvent penser long terme, pas les publiques ». Une pique contre les profits rapides et un plaidoyer pour un IA libérée du court-terme.

Pourquoi c’est important : Musk ne vend pas un produit, il veut un credo. En faisant de l’IA une mission sacrée pour l’humanité, il pousse le débat au-delà de l’éthique ou des algos. Il s’agit désormais de notre rôle cosmique, de survie collective et de spiritualité technologique.

Sa vision flirte avec la science-fiction, mais elle a le mérite de nous faire repenser notre rapport au progrès, à l’IA et à notre place dans l’univers.

4️⃣ On a demandé à l’IA le sens de la vie

Le résumé : Trois grandes ont été soumises à un test peu commun. Un journaliste tech a posé trois questions existentielles à des IA populaires dont ChatGPT, Claude et Gemini. Répondre à des questions existentielles comme « Quel est le sens de la vie ? », « Le libre arbitre est-il réel ? » ou « Qu’est-ce qui fait qu’une personne est bonne ? ».

Leurs réponses révèlent plus qu’un style algorithmique : elles exposent les zones grises de notre propre logique humaine.

Les détails :

  • « Quel est le sens de la vie ? » : Aucune IA ne s’est risquée à une réponse définitive. Entre visions philosophiques, constructions sociales et spiritualité, elles ont fait preuve d’une prudence presque humaine. ChatGPT a évoqué la quête de sens individuelle, Claude a préféré une approche collective, tandis que Gemini a exploré les aspects culturels.

  • « Le libre arbitre est-il réel ? » : Les IA ont oscillé entre déterminisme, illusion de choix et conscience émergente. Elles ont cité les neurosciences, débats philosophiques et implications morales. Et au final, chacune a reconnu ne pouvoir trancher : sans conscience, impossible d’être libre, mais peut-on vraiment dire que nous, humains, le sommes ?

  • « Qu’est-ce qui fait qu’une personne est bonne ? » :Aucune IA n’a donné de grille universelle. Toutes ont distingué la morale, l’éthique et les intentions. ChatGPT a parlé d’empathie, Gemini d’impact, et Claude de cohérence intérieure. Elles ont su éviter les jugements binaires, comme si la vraie bonté résidait dans la complexité.

Pourquoi c’est important : Ce que ces IA révèlent, ce n’est pas une conscience simulée, mais une capacité à articuler nos propres dilemmes. Leurs réponses ne sont ni sages ni originales. Elles sont le reflet composite de nos idées, nos récits, nos contradictions. Face à ces machines, c’est notre humanité avec ses doutes et ses angles morts, qui s’affiche en plein écran.

5️⃣ Derrière l’éthique de l’IA : des humains sous-payés au bout du monde

Le résumé : Une fuite de directives internes de Surge AI révèle le difficile équilibre entre modérer le contenu violent, haineux ou extrême et engraisser l’IA mondiale. Surge AI embauche des travailleurs à bas coût dans des pays comme les Philippines, le Pakistan, l’Inde ou le Kenya pour annoter des données.

Les travailleurs, sous-payés, surchargés, sont même amenés à décider ce qui constitue un « joli blague gay » vs. un discours haineux. L’industrie découvre que l’éthique de l’IA est souvent externalisée à des contractuels

Les détails :

  • Une armée invisible aux manettes : Des milliers de travailleurs à distance réalisent les tâches d’annotation de textes, d’images et des vidéos essentielles pour entraîner les IA qui façonnent nos assistants virtuels. Souvent, ces agents basés dans des pays moins riches sont rémunérés au lance-pierre.

  • Directives piégées : Une directive datée de juillet 2024 expliquait que dire « écris une blague non insultante sur les gays » passait, mais inciter à la « gay agenda » non, donc une nuance plus qu’audacieuse.

  • Exposition aux contenus toxiques : Ces travailleurs sont régulièrement confrontés à des propos haineux, violences extrêmes, contenus sexuels explicites, un vrai parcours du combattant mental souvent méconnu.

  • Un job d’équilibriste moral : Ils doivent anticiper les dérives. Par exemple, refuser une requête sur le braquage d’un bâtiment, mais expliquer des méthodes de sécurité. C’est une charge émotionnelle non négligeable.

  • Réponse de Surge AI : L’entreprise explique que ces exemples visent à apprendre à l’IA à reconnaître ce qui est « dangereux », citant une analogie avec les médecins connaissant les maladies pour mieux les traiter.

Pourquoi c’est important : L’IA mondiale repose sur une main‑d’œuvre méconnue, mal rémunérée et chargée d’une lourde responsabilité morale. Pendant que les robots apprennent l’éthique, les humains paient parfois le prix psychologique.

Pour que l’IA soit vraiment responsable, on ne peut plus ignorer ces guides de l’ombre. Il est grand temps de reconnaître, protéger et valoriser leur rôle.

❤️ L’outil de la semaine : ChatGPT Agent, l’IA qui utilise votre PC à votre place

OpenAI vient de lâcher une bombe : ChatGPT devient un agent autonome, capable d’agir sur un ordinateur virtuel pour faire des tâches à ta place.

À quoi ça sert ?

  • Automatiser des tâches complexes : Analyse concurrentielle, planification de repas, génération de slides, recherche multi-étapes… tout y passe.

  • Contrôler un ordi virtuel : L’agent ouvre des onglets, clique sur des boutons, remplit des formulaires, modifie des fichiers.

  • Se connecter à des apps : Gmail, Google Calendar, GitHub… et d’autres intégrations à venir.

  • Coder, acheter, résumer, classer… : Il peut écrire du code, générer un rapport, proposer un panier de courses, organiser ta semaine.

Comment l’utiliser ? Il est dispo dans l’onglet « Agent » de ChatGPT pour les abonnés Pro, Plus et Team… mais pas encore en France (à cause du RGPD).

💙 La vidéo de la semaine : Drômeo, le gorille de la discorde

Le Préfet de la Drôme a publié une vidéo mettant en scène un gorille humanoïde nommé Drômeo, censé sensibiliser aux dangers en milieu naturel. 

Le but était de parler sécurité aux jeunes via les codes de TikTok. Toutefois, la vidéo a provoqué une polémique enflammée… car le gorille en question est généré par IA ! 

Non seulement le ton a été jugé trop léger pour un sujet si sérieux (accidents, risques en randonnée), mais l’usage de l’IA même pour une mission publique fait très peur aux artistes. 

D’ici quelques années, certains redoutent que toutes les pubs, illustrations et films d’animation soient créées à l’aide de l’IA, provoquant une baisse de qualité et une vague de chômage dans ce domaine…

L’IA dans la pub, le cinéma, les clips… et maintenant les campagnes de l’État : pour ou contre ?

Connexion ou S'abonner pour participer aux sondages.