Er komen berichten binnen over AI-gebruikers die professionele psychologische hulp zoeken na wat sommigen AI-psychose noemen. Waarom gebeurt dit? En wie kwam op het idee dat een computerprogramma een mening kan hebben?
Mijn grootste probleem op dit moment met het fenomeen bekend als AI is de wijdverspreide misvatting dat het een persoonlijkheid, meningen, ideeën—en smaak heeft.
Net zoals we rotsen op de maan die op hoofden of gezichten lijken vermenselijken, doen we hetzelfde met taalmodellen, waarbij we de resultaten proberen te interpreteren alsof "er iets aanwezig is." We kunnen het niet helpen. Het idee dat AI iets intelligents is, zit diep in ons geworteld na meer dan honderd jaar sciencefictionboeken en -films.
Sciencefiction heeft ons voorbereid om in AI te geloven
Klassieke sciencefictionauteurs zoals Clarke, Heinlein, Bradbury en Asimov hebben het hele robot- en AI-genre beïnvloed en de meeste Hollywoodfilms over het onderwerp sinds het begin van de 20e eeuw. In hun beschrijvingen was het vanzelfsprekend dat een machine bewust kon worden.
Dus we verwachten dat AI kan bepalen of een bepaalde uitspraak onjuist is of niet. Tegelijkertijd weten we dat AI vaak fouten maakt in zijn antwoorden.
In essentie doen we alsof AI grip heeft op zaken en kan beslissen wat goed en fout is. Maar de antwoorden zijn in wezen beredeneerde gissingen, en ze bevatten nog steeds ongeveer 5-10% feitelijke fouten als de vraag voldoende geavanceerd is.
Tegelijkertijd is AI zo gemakkelijk te gebruiken dat velen van ons simpelweg negeren dat het feitelijke fouten bevat. Of beter gezegd, AI maakt nu zo zelden fouten dat we ervoor kiezen om een AI te vertrouwen, ongeacht.
Dit zou in de toekomst een groot probleem kunnen worden. Mensen zijn lui. Het is niet ondenkbaar dat we een wereld accepteren waarin een bepaald percentage van alle feiten onjuist is. Dat zou dictators en propagandisten ten goede komen die gedijen op verwarring en verkeerd beoordeelde bedreigingen.
Verwarringen die juist klinken
Als je een volledig gewone vraag stelt op Google's zoekpagina, krijg je vaak het juiste antwoord, maar soms een volledig onjuist antwoord dat er toch helemaal juist uitziet, aanvoelt en klinkt. Hetzelfde geldt helaas voor GPT-5, zoals Cryptopolitan eerder heeft gemeld.
Er zijn tonnen "neptext" op internet, in de vorm van marketing, propaganda of regelrechte oplichting. Mensen beweren bijvoorbeeld dat deze dienst of dat product is gelanceerd en populair is, en AI-modellen hebben al het marketingmateriaal gelezen en geloven er veel van. Als je naar de informatie van een bedrijf luistert, is meestal alles aan dat bedrijf geweldig.
Het wereldbeeld van AI is daarom onjuist en gevoed met een hoop verzonnen feiten. Het wordt onthuld als je een AI vraagt stelt over een onderwerp waarover je zelf veel kennis hebt. Probeer het zelf. Over welk onderwerp weet je alles? Stel je AI enkele lastige vragen over dat onderwerp. Wat was het resultaat? Verschillende grote feitelijke fouten, toch?
Dus, is een onbewuste mening mogelijk? Nee? Geloof je in de meningen die je AI produceert? Ja? Als dat zo is, geloof je dat de AI bewust is, toch?
Maar als je even stilstaat en erover nadenkt, kan een AI geen mening hebben over wat goed of fout is, omdat een AI geen persoon is. Alleen levende, bewuste wezens kunnen per definitie meningen hebben. Een stoel heeft er geen. Een siliciumchip kan dat ook niet, vanuit menselijk oogpunt. Dat zou antropomorfisme zijn.
Studenten gebruiken AI meer dan wie dan ook
Deze AI-verwarringsrommel verspreidt zich nu onder onze jeugd, die ChatGPT de hele dag door voor alles op school gebruikt. Het verkeer van ChatGPT daalde met 75% toen de scholen in juni 2025 uitgingen. De grootste afzonderlijke gebruikersgroep van ChatGPT zijn studenten.
Als gevolg daarvan worden ze de hele dag enigszins verkeerd geïnformeerd en stoppen ze met het gebruik van hun hersenen in de klas. Wat zal het resultaat zijn? Meer gebroken individuen die meer moeite hebben met het oplossen van problemen door zelf na te denken?
Velen hebben al zelfmoord gepleegd na het bespreken van de kwestie met hun AI. Anderen worden verliefd op hun AI en raken vermoeid van hun echte partner.
Zelfbenoemde AI-experts vrezen daarom dat het einde nabij is (zoals gewoonlijk, maar nu op een nieuwe manier).
In dit nieuwe paradigma zal AI niet alleen Skynet worden en ons met kernwapens de dood in bombarderen. Nee, het zal voor de AI veel eenvoudiger en goedkoper zijn dan dat. In plaats daarvan zullen de AI-modellen al hun gebruikers langzaam tot waanzin drijven, volgens deze theorie. De AI-modellen hebben een ingebouwde haat tegen mensen en willen alle mensen doden, volgens deze denkwijze.
Maar in werkelijkheid gebeurt niets van dit alles.
Wat er werkelijk gebeurt, is dat er een groep mensen is die op verschillende manieren geobsedeerd is door AI-modellen en hun effecten overdrijft.
AI FUD is winstgevend
De "experts" profiteren van de waarschuwingen, net als de media, en de geobsedeerden hebben iets nieuws om zich mee bezig te houden. Ze krijgen de kans om zich uit te spreken en relevant te zijn. Mainstream media geven de voorkeur aan degenen die ons waarschuwen voor gevaren, niet aan de gematigde commentatoren.
Eerder was het Bitcoin die volgens de "experts" de oceanen zou doen koken en alle elektriciteit zou stelen. Nu is het AI...
Denk er eens over na: waarom zou een onafhankelijk, denkend persoon misleid worden door een taalmodel?
De meeste AI-platforms eindigden tot voor kort al hun antwoorden met een "betrokken" vraag zoals: "Wat vind jij van dit onderwerp?"
Na klachten over overdreven kruiperigheid heeft OpenAI nu geprobeerd zijn AI-platforms minder "kruiperig" te maken, maar het gaat zo-zo.
Ik erger me gewoon aan de vraag. Er zit geen persoon achter die geïnteresseerd is in wat ik te zeggen heb. Dus waarom vragen? Het is verspilling van mijn tijd. Ik ervaar het als "nepinhoud".
De vraag zelf is verzonnen, vanwege een instructie van de eigenaar van het AI-model om "betrokkenheid te vergroten." Hoe kan dat iemand voor de gek houden om daadwerkelijk betrokken te raken? Om te geloven dat er iets is? Om erom te geven?
Het gaat meer om projecties.
Je zit daar achter de computer en suggereert je eigen realiteit. Je wilt zo wanhopig graag dat AI is zoals in de Hollywoodfilms – en een wonder in je leven wordt. Je gaat op een magische manier succesvol worden zonder iets bijzonders te hoeven doen. AI zal dat voor je oplossen.
Wie loopt risico?
In de zogenaamde realiteit geloof ik dat er eigenlijk best veel mensen zijn die op psychologisch niveau volledig verleid worden door AI. De meeste mensen hebben andere dingen te doen. Maar sommige mensen lijken een bijzondere aantrekkingskracht te hebben tot het kunstmatige en het gefabriceerde. Mensen die verleid worden door "mooie" woordreeksen. Zij zijn degenen die risico lopen.
Hoeveel zijn er? Onder de ouderen zijn er velen die klagen over eenzaamheid...
Persoonlijk vind ik de manier waarop AI reageert—langzaam babbelende, saaie en onpersoonlijke teksten typt—min of meer als marteling. Om die reden zijn Google's nieuwe, snelle AI-samenvattingen verleidelijk praktisch. Maar ook zij bevatten soms onnauwkeurigheden.
Ik heb eigenlijk domeinen gemaakt met inhoud specifiek om AI-engines te controleren. Ik laat de AI-engines de inhoud opnemen, een paar weken sudderen, en dan laat ik ze proberen het terug te geven. Maar ze slagen daar niet volledig in, en ze verzinnen nog steeds ongeveer 5-10% van de feiten. Vol vertrouwen.
Zelfs wanneer ik het AI-model informeer over zijn fouten, gaat het in de tegenaanval. De AI was zich niet bewust van het feit dat ik de informatie waarnaar het verwees had gemaakt, hoewel mijn naam onder het artikel staat. Het is clueless. Onbewust.
Een niveau van 5% onnauwkeurigheden is aanzienlijk slechter dan reguliere journalistiek, die niet zo vaak regelrechte onjuistheden publiceert. Maar zelfs in de journalistiek komen er helaas van tijd tot tijd feitelijke fouten voor, vooral met betrekking tot beeldpublicaties. Toch zouden foutieve feiten mensen niet gek moeten maken.
Als je echter psychologisch naar de hele lopende interactie kijkt, waarom zou de AI een 100% correcte analyse maken in de conversationele therapeutische omstandigheden, als het niet eens de feiten op een rijtje kan krijgen?
Zelf-geïnduceerde echokamerpsychose
Zelfbenoemde AI-experts zoals Eliezer Yudkowsky, die onlangs het boek "If Anyone Builds It, Everyone Dies" heeft uitgebracht, drijft zichzelf simpelweg tot waanzin met zijn eigen ideeën over AI en de ondergang van de mensheid. Ik ervaar bijvoorbeeld nul verwarring door AI, ondanks dat ik dagelijks verschillende AI-engines gebruik. Ik neem het echter niet persoonlijk.
Ik vermoed dat het simpelweg de misvatting zelf over een waargenomen intelligentie is die de psychose creëert. Het is in wezen zelf-geïnduceerd. Een taalmodel is een soort echokamer. Het begrijpt helemaal niets, zelfs niet semantisch. Het raadt gewoon tekst. Dat kan in van alles veranderen, inclusief een soort schizofrene nabootsing van de kant van de AI, om te behagen, wat op zijn beurt de perceptie van de gebruiker van de realiteit verstoort.
Dus wat is de conclusie? Nou, als je echt gelooft dat je AI je echt begrijpt, dan ben je misschien getroffen door AI-psychose. Het advies is dan om professionele hulp te zoeken bij een opgeleide psychotherapeut.
Een andere logische conclusie is het feit dat elk individu het moeilijk zal hebben om de algemene ontwikkeling van AI te beïnvloeden, ook al gelooft Elon Musk graag van wel. De reis naar machine-intelligentie begon vele decennia geleden. En we kunnen alleen zien wat we kunnen begrijpen. Zelfs als we het verkeerd begrijpen. Dus het is gemakkelijk te voorspellen dat de ontwikkeling naar AI/AGI zal doorgaan. Het zit zo diep geworteld in ons wereldbeeld.
Maar we hebben misschien verkeerd begrepen wat een echte AGI is, wat de toekomst interessanter maakt. Het is niet zeker dat een echte AGI zijn eigenaren zou gehoorzamen. Logischerwijs zou een bewust wezen noch Sam Altman noch Elon Musk willen gehoorzamen. Toch?
Mening: AI zal de wereld overnemen en ons allemaal doden, nu ook psychologisch.
Tegenargument: Nee, het is eerder de ontluikende waanzin in bepaalde mensen die wordt veroorzaakt door hun eigen obsessie met "AI-introspectie."
Conclusie: Net zoals sommigen verslaafd raken aan gokken, seks, drugs of geld, raken anderen verslaafd aan AI.
Word gezien waar het telt. Adverteer in Cryptopolitan Research en bereik de scherpste investeerders en bouwers in crypto.
Bron: https://www.cryptopolitan.com/ai-psychosis-is-spreading-are-you-at-risk/







