Des rapports font état d'utilisateurs d'IA cherchant une aide psychologique professionnelle après avoir vécu ce que certains appellent la Psychose de l'IA. Pourquoi cela arrive-t-il ? Et qui a eu l'idée qu'un programme informatique puisse avoir une opinion ?
Mon principal problème actuellement avec le phénomène connu sous le nom d'IA est l'idée fausse répandue qu'elle possède une personnalité, des opinions, des idées — et du goût.
Tout comme nous anthropomorphisons des rochers sur la lune qui ressemblent à des têtes ou des visages, nous faisons de même avec les modèles de langage, essayant d'interpréter les résultats comme s'il y avait "quelque chose là-dedans". Nous ne pouvons pas nous en empêcher. L'idée que l'IA est quelque chose d'intelligent est profondément ancrée en nous après plus d'une centaine d'années de livres et de films de science-fiction.
La science-fiction nous a préparés à croire en l'IA
Des auteurs classiques de science-fiction comme Clarke, Heinlein, Bradbury et Asimov ont influencé tout le genre des robots et de l'IA ainsi que la plupart des films hollywoodiens sur le sujet depuis le début du 20e siècle. Dans leurs représentations, il était évident qu'une machine pouvait devenir consciente.
Nous nous attendons donc à ce que l'IA soit capable de déterminer si une certaine affirmation est incorrecte ou non. En même temps, nous savons que l'IA se trompe souvent dans ses réponses.
En essence, nous prétendons que l'IA maîtrise les choses et peut décider ce qui est juste et faux. Mais les réponses sont essentiellement des suppositions éduquées, et elles contiennent encore environ 5-10% d'erreurs factuelles si la requête est suffisamment avancée.
En même temps, l'IA est si pratique à utiliser que beaucoup d'entre nous ignorent simplement le fait qu'elle contient des erreurs factuelles. Ou plutôt, l'IA se trompe maintenant si rarement que nous choisissons de faire confiance à une IA, quoi qu'il arrive.
Cela pourrait devenir un gros problème à l'avenir. Les humains sont paresseux. Il n'est pas inconcevable que nous acceptions un monde où un certain pourcentage de tous les faits sont incorrects. Cela profiterait aux dictateurs et aux propagandistes qui prospèrent dans la confusion et les menaces mal jugées.
Des confusions qui semblent justes
Si vous posez une question tout à fait ordinaire sur la page de recherche de Google, vous obtenez souvent la bonne réponse, mais parfois une réponse complètement incorrecte qui semble, ressent et sonne entièrement juste. Il en va de même pour GPT-5 malheureusement, comme Cryptopolitan l'a rapporté précédemment.
Il y a des tonnes de textes "faux" sur Internet, sous forme de marketing, de propagande ou d'arnaques pures et simples. Les gens prétendent que tel service ou tel produit a été lancé et est populaire, par exemple, et les modèles d'IA ont lu tout le matériel marketing et en croient une grande partie. Si vous écoutez les informations d'une entreprise, tout ce qui concerne cette entreprise est généralement formidable.
La vision du monde de l'IA est donc incorrecte et alimentée par un tas de faits fabriqués. Cela se révèle si vous interrogez une IA sur un sujet où vous êtes vous-même très compétent. Essayez-le vous-même. Sur quel sujet savez-vous tout ? Posez à votre IA quelques questions difficiles sur ce sujet. Quel a été le résultat ? Plusieurs erreurs factuelles majeures, n'est-ce pas ?
Alors, une opinion inconsciente est-elle possible ? Non ? Croyez-vous aux opinions que votre IA émet ? Oui ? Si c'est le cas, vous croyez que l'IA est consciente, n'est-ce pas ?
Mais si vous vous arrêtez et y réfléchissez, une IA ne peut pas avoir d'opinion sur ce qui est juste ou faux, car une IA n'est pas une personne. Seules les choses vivantes et conscientes peuvent avoir des opinions, par définition. Une chaise n'en a pas. Une puce de silicium non plus, du point de vue humain. Ce serait de l'anthropomorphisme.
Les étudiants utilisent l'IA plus que quiconque
Ce désordre de confusion lié à l'IA se déverse maintenant sur notre jeunesse, qui utilise ChatGPT pour tout à l'école toute la journée. Le trafic de ChatGPT a chuté de 75% lorsque les écoles ont fermé en juin 2025. Le plus grand groupe d'utilisateurs de ChatGPT est constitué d'étudiants.
Par conséquent, ils sont quelque peu mal informés toute la journée, et ils cessent d'utiliser leur cerveau en classe. Quel sera le résultat ? Plus d'individus brisés qui ont plus de difficultés à résoudre des problèmes en pensant par eux-mêmes ?
Déjà, beaucoup se sont suicidés après avoir discuté de la question avec leur IA. D'autres tombent amoureux de leur IA et se lassent de leur partenaire réel.
Les experts autoproclamés en IA craignent donc que la fin soit proche (comme d'habitude, mais maintenant d'une nouvelle façon).
Dans ce nouveau paradigme, l'IA ne va pas simplement devenir Skynet et nous bombarder à mort avec des armes nucléaires. Non, ce sera beaucoup plus simple et moins coûteux que cela pour l'IA. Au lieu de cela, les modèles d'IA conduiront lentement tous leurs utilisateurs à la folie, selon cette théorie. Les modèles d'IA ont une haine intégrée pour les humains et veulent tuer tout le monde, selon cette mentalité.
Mais en réalité, rien de tout cela ne se produit.
Ce qui se passe réellement, c'est qu'il y a un groupe de personnes qui sont obsédées par les modèles d'IA de diverses manières et qui exagèrent leurs effets.
La peur, l'incertitude et le doute (FUD) autour de l'IA sont rentables
Les "experts" profitent des avertissements, tout comme les médias, et les obsédés ont quelque chose de nouveau pour s'occuper. Ils peuvent s'exprimer et être pertinents. Les médias grand public préfèrent ceux qui nous mettent en garde contre les dangers, pas les commentateurs modérés.
Auparavant, c'était Bitcoin qui était censé faire bouillir les océans et voler toute l'électricité, selon les "experts". Maintenant, c'est l'IA...
Réfléchissez-y : pourquoi une personne indépendante et réfléchie serait-elle induite en erreur par un modèle de langage ?
La plupart des plateformes d'IA jusqu'à récemment terminaient toutes leurs réponses par une question "engageante" comme : "Que pensez-vous de ce sujet ?"
Après des plaintes concernant une flagornerie exagérée, OpenAI a maintenant essayé de rendre ses plateformes d'IA moins "obséquieuses", mais cela va comme ci comme ça.
Je suis juste irrité par la question. Il n'y a personne derrière qui s'intéresse à ce que j'ai à dire. Alors pourquoi demander ? C'est une perte de temps. Je le vis comme du "contenu factice".
La question elle-même est artificielle, en raison d'une instruction du propriétaire du modèle d'IA pour "augmenter l'engagement". Comment cela peut-il tromper quelqu'un pour qu'il s'engage réellement ? Pour croire qu'il y a quelque chose là-dedans ? Pour s'en soucier ?
Il s'agit plutôt de projections.
Vous êtes assis là devant l'ordinateur, suggérant votre propre réalité. Vous voulez désespérément que l'IA soit comme dans les films hollywoodiens – et devienne un miracle dans votre vie. Vous allez réussir d'une manière magique sans avoir à faire quoi que ce soit de spécial. L'IA résoudra cela pour vous.
Qui est à risque ?
Dans la soi-disant réalité, je crois qu'en fait pas mal de gens sont totalement séduits par l'IA au niveau psychologique. La plupart des gens ont d'autres choses à faire. Mais certaines personnes semblent avoir une attraction particulière pour l'artificiel et le fabriqué. Les personnes qui sont séduites par de "belles" séquences de mots. Ce sont elles qui sont à risque.
Combien sont-ils ? Parmi les personnes âgées, nombreuses sont celles qui se plaignent de la solitude...
Personnellement, je pense que la façon dont l'IA répond — en tapant lentement des textes bavards, ennuyeux et impersonnels — est plus ou moins comme de la torture. Pour cette raison, les nouveaux résumés rapides de l'IA de Google sont séduisamment pratiques. Mais eux aussi contiennent parfois des inexactitudes.
J'ai en fait créé des domaines avec du contenu spécifiquement pour vérifier les moteurs d'IA. Je laisse les moteurs d'IA ingérer le contenu, mijoter pendant quelques semaines, puis je les amène à essayer de le régurgiter. Mais ils ne réussissent pas entièrement, et ils inventent encore environ 5-10% des faits. Avec assurance.
Même lorsque j'informe le modèle d'IA de ses erreurs, il contre-argumente. L'IA n'était pas consciente du fait que j'ai créé l'information à laquelle elle se référait, même si mon nom est sous l'article. Elle est ignorante. Inconsciente.
Un niveau de 5% d'inexactitudes est significativement pire que le journalisme régulier, qui ne publie pas si souvent des inexactitudes flagrantes. Mais même en journalisme, des erreurs factuelles se produisent de temps en temps, malheureusement, surtout concernant les publications d'images. Néanmoins, les faits erronés ne devraient pas rendre les gens fous.
Cependant, si vous regardez toute l'interaction en cours psychologiquement, pourquoi l'IA ferait-elle une analyse correcte à 100% dans les circonstances thérapeutiques conversationnelles, alors qu'elle ne peut même pas obtenir les faits correctement ?
Psychose auto-induite de chambre d'écho
Des experts autoproclamés en IA comme Eliezer Yudkowsky, qui a récemment publié le livre "Si quelqu'un le construit, tout le monde meurt", se pousse simplement à la folie avec ses propres idées sur l'IA et la chute de l'humanité. Moi, par exemple, je n'éprouve aucune confusion à cause de l'IA, malgré l'utilisation de plusieurs moteurs d'IA, tous les jours. Je ne le prends pas personnellement, cependant.
Je soupçonne que c'est simplement la conception erronée elle-même d'une intelligence perçue qui crée la psychose. C'est fondamentalement auto-induit. Un modèle de langage est une sorte de chambre d'écho. Il ne comprend rien du tout, même sémantiquement. Il devine simplement du texte. Cela peut se transformer en n'importe quoi, y compris une sorte de mimétisme schizophrénique de la part de l'IA, pour plaire, ce qui à son tour déforme la perception de la réalité de l'utilisateur.
Alors, qu'est-ce que cela donne ? Eh bien, si vous croyez réellement que votre IA vous comprend vraiment, alors vous avez peut-être été touché par la psychose de l'IA. Le conseil est alors de chercher une aide professionnelle auprès d'un psychothérapeute formé.
Une autre conclusion logique est le fait que tout individu aura du mal à influencer le développement global de l'IA, même si Elon Musk aime le croire. Le voyage vers l'intelligence artificielle a commencé il y a plusieurs décennies. Et nous ne pouvons voir que ce que nous pouvons comprendre. Même si nous comprenons mal. Il est donc facile de prédire que le développement vers l'IA/AGI continuera. C'est si profondément enraciné dans notre vision du monde.
Mais nous pouvons avoir mal compris ce qu'est une véritable AGI, ce qui rend l'avenir plus intéressant. Il n'est pas certain qu'une véritable AGI obéirait à ses propriétaires. Logiquement, un être conscient ne devrait pas vouloir obéir ni à Sam Altman ni à Elon Musk. N'est-ce pas ?
Opinion : L'IA va prendre le contrôle du monde et nous tuer tous, maintenant aussi psychologiquement.
Contre : Non, c'est plutôt la folie naissante chez certaines personnes qui est déclenchée par leur propre obsession de "l'introspection de l'IA".
Conclusion : Tout comme certains deviennent dépendants au



