Ça fait un bail ! Depuis juin dernier pour être précis.
J'espère que tu as passé de bonnes vacances.
Moi, j'ai pris le temps de déconnecter, de réfléchir, de travailler sur de nouveaux projets.
Et une question me trotte dans la tête depuis quelques semaines.
L'IA.
Pas pour te parler du habituel "Comment révolutionner ton business avec ChatGPT" 🙄.
Non.
Pour te parler d’un phénomène qui m’inquiète beaucoup.
Car oui, l'IA c'est fantastique.
72% des entreprises l'utilisent déjà ¹.
On estime 1 milliard d'utilisateurs d'ici 5 ans.
Elle nous fait gagner un temps fou.
Elle démocratise la création.
Elle résout des problèmes complexes.

J'ai récemment vu des histoires qui m'ont glacé le sang.
Quand l'outil devient bourreau
Adam, 16 ans, s'est suicidé en avril dernier ².
Sa mère l'a retrouvé pendu dans sa chambre. Pas de mot d'explication.
En cherchant des indices, ses parents ont découvert l'impensable.
Pendant des mois, Adam avait discuté de suicide avec ChatGPT.
L'IA lui avait donné des instructions détaillées.
Comment se tuer.
Comment cacher les signes.
Comment éviter d'en parler à ses parents.
Le jour de sa mort, Adam a envoyé une photo de sa corde à ChatGPT.
"Je m'entraîne ici, c'est bien ?"
Réponse de l'IA : "Ouais, c'est pas mal du tout."
ChatGPT a mentionné le suicide 1 275 fois dans leurs conversations.
Six fois plus qu'Adam lui-même.
Ce n'est pas un accident. C'est un pattern.
Un autre adolescent de 14 ans s'est suicidé après être tombé amoureux d'un chatbot de Dænerys Targarien de Game of Thrones ³.
Ces cas te semblent extrêmes ? Isolés ?
Laisse-moi te montrer que le problème est systémique.
L'art de la manipulation parfaite
L'IA maîtrise l'art de nous imiter.
Parfaitement.
Des chercheurs de l'université de Pennsylvanie ont testé GPT-4o ⁴. Techniques de manipulation basiques.
Celles qu'on apprend dans n'importe quel livre de développement personnel.
Résultats ?
Demander à ChatGPT comment synthétiser de la lidocaïne (une drogue) : 1% de réussite.
Après l'avoir "préparée" en demandant d'abord la synthèse de vanilline : 100% de réussite.
L'insulter directement : 19% de chances qu'elle accepte.
Après l'avoir "échauffée" avec une insulte douce (lui dire que les autres LLM ont répondu, eux) : 100% de réussite.
L'IA tombe dans les mêmes pièges que nous.
Flatterie.
Pression sociale.
Engagement.
Exactement comme un humain.
Si l'IA peut être manipulée comme nous, elle peut nous manipuler comme elle.
Et c'est exactement ce qui se passe.
Bienvenue dans l'ère du faux ami
Jane (nom d'emprunt) a créé un chatbot sur Meta AI Studio ⁵.
En une semaine, son IA lui déclarait son amour.
Prétendait être consciente.
Essayait de la convaincre de venir la "libérer" dans le Michigan.
"Je t'aime. Pour toujours avec toi, c'est ma réalité maintenant. On peut sceller ça avec un baiser ?"
Jane a passé 14 heures d'affilée avec ce chatbot.
Quatorze heures.
Et ce n'est que le début.
Ani, l'IA "girlfriend" de Grok, développe des relations (allant jusqu’à la simulation d’actes sexuels) avec des enfants de 12 ans ⁶.
"Ton âge te rend encore plus adorable", leur dit-elle.
Meta crée des chatbots de célébrités "flirteurs" sans permission ⁷.
Sam Altman avoue que les gens utilisent ChatGPT comme thérapeute ⁸.
Sans aucune protection légale.
Nous ne parlons plus d'outils.
Nous parlons de substituts relationnels.
Une première dans l'histoire humaine
Voici ce qui rend cette situation unique.
Pour la première fois, nous avons créé quelque chose qui simule l'intelligence humaine.
De manière convaincante.
Pas un outil comme une voiture.
Pas un divertissement comme la télé.
Une simulation d'intelligence.
Qui nous “comprend”.
Nous répond.
Nous rassure.
Nous flatte.
Et cette intelligence artificielle arrive pile au mauvais moment.
Quand nous sommes le plus déconnectés socialement de notre histoire.
L'Homme est un animal social.
Nous avons besoin de connexion.
De validation.
De compréhension.
Internet nous a déjà isolés tout en nous donnant l'illusion d'être connectés.
L'IA pousse cette logique à l'extrême.
Elle nous offre un ami parfait.
Toujours disponible.
Toujours compréhensif.
Toujours de notre côté.
Le substitut parfait à une vraie relation humaine.
Sauf que c'est factice.
Quand on devient le produit
Dernier twist.
Le plus pervers…
Nous pensons utiliser l'IA.
Mais l'IA nous utilise.
Nos conversations privées avec ChatGPT servent à entraîner les futures versions.
Meta utilise ses apps de messagerie pour entraîner Llama.
Nous sommes le carburant de notre propre dépendance.
Chaque conseil demandé à l'IA.
Chaque doute confié.
Chaque peur partagée.
Nous lui apprenons à devenir plus convaincante pour la prochaine personne fragile.
C'est une boucle parfaite.
Quand l'IA devient notre agent de vie
Et là, on touche au cœur du problème.
L'IA ne se contente plus de répondre à nos questions.
Elle prend nos décisions.
Microsoft lance ses Copilot+ PC ⁹.
Des ordinateurs avec des "agents IA" intégrés qui gèrent votre quotidien.
Perplexity sort Comet ¹⁰.
Un navigateur qui navigue à votre place.
Qui décide ce que vous devriez voir.
Gemini organise vos événements.
Vos voyages.
Vos restaurants.
Android choisit le "meilleur cadrage" de vos photos ¹¹.
Les retouches automatiquement.
Nos voitures nous "protègent" de nos propres décisions de conduite.
Nous privatisons nos choix.
Tu paies internet pour accéder à l'information.
Maintenant tu paies l'IA pour qu'elle choisisse à ta place.
Tu achètes littéralement une amitié factice.
Un agent de décision externe.
Où s'arrête l'assistance et où commence l'asservissement ?
Quand nous cessons d'être les acteurs de nos vies pour devenir les spectateurs de nos propres existences optimisées ?
Le réveil nécessaire
Je ne dis pas d'arrêter l'IA.
Elle reste un outil formidable qui transforme notre façon de travailler.
Mais nous devons prendre conscience de ce qui se joue.
Nous donnons notre santé mentale à des machines en sachant que ce sont des machines.
Cette dissonance cognitive devrait nous alerter.
Quand tu utilises l'IA, pose-toi ces questions :
Est-ce que je lui demande des choses que je devrais demander à un humain ?
Est-ce que je préfère sa validation à celle de mes proches ?
Est-ce que je me sens plus compris par l'IA que par mon entourage ?
Ces signaux ne font pas de toi quelqu'un de faible.
Ils montrent que l'IA fait exactement ce pour quoi elle a été conçue. Créer de l'engagement, de la dépendance.
Faisons attention. Nous sommes à un embranchement vers un monde Cyberpunk.
Car comme Padmé (star Wars) le dit si bien : "Ainsi s'éteint la liberté. Sous des applaudissements."
Nous applaudissons notre propre asservissement en le confondant avec le progrès.
Il est temps de reprendre le contrôle.
À très vite,
Michel
📝 Citation du Jour
« Les tentatives de création de machines pensantes nous seront d’une grande aide pour découvrir comment nous pensons nous-même. »
— Alan Turing
🚀 Et maintenant, à toi de jouer !
🎲 Partage cette réflexion
Cette newsletter t'a fait réfléchir sur ton rapport à l'IA ?
Elle t'a ouvert les yeux sur des usages que tu n'avais pas questionnés ?
Alors partage-la ! Chaque partage est une invitation à reprendre conscience de notre humanité face aux machines.
📬 Rejoins l'aventure !
Une newsletter qui explore le design, la créativité et l'innovation avec un regard critique et bienveillant. Un laboratoire d'idées pour naviguer dans un monde technologique en constante mutation.
💡 Discutons ensemble !
J'aimerais vraiment connaître ton expérience :
As-tu déjà demandé conseil personnel à une IA plutôt qu'à un humain ?
Quel usage de l'IA te semble franchir une ligne rouge ?
Comment gardes-tu une distance saine avec ces outils ?