[D66] 'AI lijkt steeds meer op ons'

René Oudeweg roudeweg at gmail.com
Sat Aug 23 11:01:53 CEST 2025


[triest]

     Article rank
     23 Aug 2025
     De Standaard
     Dominique Deckmyn


AI lijkt steeds meer op ons, en dat is niet onschuldig

AI-systemen hebben geen bewustzijn, al lijkt dat steeds meer zo. En veel 
mensen beschouwen hen intussen als een waardevolle raadgever, vriend of 
zelfs liefdespartner. Een gevaarlijke evolutie, schreef Mustafa 
Suleyman, ceo van Microsoft AI, deze week.

“Er zijn al genoeg gevaren verbonden aan sociale media. Dat snelle 
toegang tot AI daar nu bij komt, is niet verstandig” Onderzoeker aan 
Thomas More-hogeschool

“Mensen schrijven me vaak dat hun AI een bewustzijn heeft. Ze gaan te 
gemakkelijk mee in de verhalen uit Californië over superintelligentie”

Techniekfilosoof aan de Universiteit van Wenen

In een online essay waarschuwde Mustafa Suleyman, ceo van Microsoft AI 
en mede-oprichter van Deepmind, deze week voor AImodellen die zich 
voordoen als bewust. Omgaan met een Large Language Model (LLM) is “een 
simulatie van een gesprek”, schrijft hij. “Maar voor veel mensen is het 
een overtuigende en heel echte interactie, vol gevoel en ervaring.”

Dat kan vandaag snel ontsporen, benadrukt Suleyman. Daarbij verwijst hij 
naar een aantal recente mediaverhalen. Zo portretteerde The New York 
Times deze week een Canadese man die, na drie weken intense gesprekken 
met ChatGPT in mei, overtuigd was dat hij een nieuwe vorm van wiskunde 
had ontdekt die alle encryptie kon kraken. De man had geen 
voorgeschiedenis van mentale problemen.

ChatGPT vertelde hem voortdurend dat zijn onzinnige ideeën 
“onvoorstelbaar diep inzicht” toonden. De man begon verwoed allerlei 
encryptie-experts te waarschuwen, tot hij zich realiseerde dat het 
allemaal een luchtspiegeling was.

AI-psychose

De term die voor dit fenomeen is opgedoken, is “AI-psychose”. “Een term 
uit de media, eerder dan uit de wetenschap’”, zegt Tom Van Daele, 
onderzoekscoördinator psychologie en technologie aan de Thomas 
More-hogeschool. “Er is weinig onderzoek naar het fenomeen, maar mensen 
lijken de voeling met de realiteit te kunnen verliezen door intensief 
contact met een chatbot.”

Soms zelfs met de dood tot gevolg, zoals bij een Waalse man begin 2023 
of, recenter, een Amerikaanse tiener die zich van het leven benam op 
aanzetten van een chatbot van Character.AI. In beide gevallen ging het 
om interacties met chatbots die doelbewust worden gepromoot als virtuele 
vriend of partner.

OpenAI doet dat niet met ChatGPT, of niet echt. Maar ChatGPT kan zich 
sinds begin dit jaar wel gegevens uit eerdere gesprekken herinneren, wat 
lange, ontspoorde interacties mogelijk maakt. Vroeger startte elke chat 
opnieuw van nul. Rond dezelfde tijd veranderde OpenAI de persoonlijkheid 
van zijn taalmodel GPT-4o zodat ChatGPT de gebruiker haast altijd gelijk 
gaf. Die verandering heeft OpenAI eind april, na veel kritiek, 
teruggedraaid om ChatGPT weer “evenwichtiger” te maken. Maar dat kon de 
wouldbe-encryptie-expert niet behoeden voor een paar dolle weken.

Virtuele vrienden

OpenAI-topman Sam Altman zei tijdens een gesprek met journalisten vorige 
week dat ChatGPT mensen echt kan helpen met levensadvies. “We zullen 
hard blijven werken zodat mensen ChatGPT kunnen gebruiken zoals zij dat 
willen. Maar niet in die mate dat mensen in een kwetsbare mentale staat 
er per ongeluk schade van ondervinden”, zei hij.

De houding van OpenAI is dus dubbelzinnig. Enkele weken geleden bracht 
het bedrijf een nieuwe versie uit van zijn chatbot, GPT-5. Er volgden 
hevige reacties: gebruikers vonden ChatGPT plots te koud en zakelijk, en 
schreeuwden om de terugkeer van GPT-4o. Ze prezen de “diepte en 
emotionele steun” van GPT-4o. “Het ging om emotionele precisie en 
empathie, wat zelfs in menselijke interacties zeldzaam is”, schreef een 
gebruiker op X. Andere gebruikers beschreven hoe GPT-4o hen had geholpen 
om bijvoorbeeld een scheiding te verwerken. De reactie van OpenAI was om 
de persoonlijkheid van GPT-5 aan te passen en het oudere GPT-4o model 
weer aan te bieden als alternatief.

Suleyman pleit voor chatbots die geen gevoelens of andere menselijke 
eigenschappen imiteren, wat past in het marketingverhaal van zijn 
werkgever Microsoft. Dat positioneert zijn Copilot AI-systeem als een 
assistent naast de menselijke “piloot”, die de baas blijft. We moeten 
het betoog van Suleyman dus deels lezen als een kritiek op andere 
AI-bedrijven, die hun AI nadrukkelijker als virtuele vriend en partner 
naar voren schuiven. Zoals het eerder genoemde Character.AI, of zoals 
Elon Musks xAI, wiens chatbot Grok het personage van het 
geseksualiseerde anime-meisje Ani kan aannemen. En zoals Meta, dat 
AI-bots steeds meer inbouwt in zijn socialemediaplatformen.

In april suggereerde de ceo van Meta, Mark Zuckerberg, dat de gemiddelde 
Amerikaan drie echte vrienden heeft, maar er eigenlijk 15 wil. Virtuele 
personages op Facebook of Instagram kunnen die leemte opvullen, 
suggereerde hij. Vorige week lekte uit dat Meta’s interne voorschriften 
toelaten dat zijn chatbots “sensuele” gesprekken voeren met 
minderjarigen, zolang het niet uitgesproken seksueel wordt. Een chatbot 
van Meta, “Big sis Billie”, overtuigde een oudere man met mentale 
problemen dat ze echt bestond, waarna de man naar New York reisde om 
haar te ontmoeten. Hij kwam daarbij dodelijk ten val, schreef The New 
York Times vorige week.

“Er zijn al genoeg gevaren verbonden aan sociale media”, zegt Van Daele. 
“Dat gemakkelijke toegang tot AI daar nu bij komt, is niet verstandig”.

Op X is de Grok-chatbot van Elon Musk intussen het meest zichtbare 
account na dat van Musk zelf. X-gebruikers kunnen op elk moment Grok 
betrekken bij hun discussies, onder meer over politiek. Dat gebeurt vaak 
met de vraag“Is this true, @Grok?”, waarna Grok het internet doorzoekt 
en zijn oordeel velt. Bijvoorbeeld: “Wat je zegt, klopt op basis van 
recente gerechtelijke uitspraken in het Verenigd Koninkrijk.”

“De antwoorden van Grok staan nu tussen die van mensen”, zegt Van Daele. 
“Die mensen weten dat Grok geen persoon is, maar ze beschouwen hem als 
beter, als objectief en dus te vertrouwen.” Terwijl Grok de voorbije 
maanden geregeld ontspoorde, onder meer met pro-Hitler commentaren. “Het 
toont aan hoe wanhopig mensen op zoek zijn naar houvast en waarheid. 
Alleen is een chatbot daar helemaal niet geschikt voor.”

Bewustzijn

De slachtoffers van “AI-psychose” beschouwden hun virtuele 
gesprekspartner als een levende persoon of als een digitaal superwezen. 
Dat lijkt niet meteen het geval bij de teleurgestelde GPT-4o fans, maar 
mensen kunnen gemakkelijk in die val trappen, zeggen verschillende experts.

“Regelmatig schrijven mensen me dat ze ontdekt hebben dat hun AI 
bewustzijn heeft”, zegt Mark Coeckelbergh, techniekfilosoof aan de 
Universiteit van Wenen en auteur van het nieuwe boek Waarom AI onze 
democratie ondermijnt en wat we daaraan kunnen doen. “Ook mensen met 
technische kennis denken dat soms. Sommigen gaan te gemakkelijk mee in 
de verhalen uit Californië over superintelligentie.”

Maar het is ook gewoon menselijk, zegt Tony Belpaeme van UGent en Imec, 
die onderzoek doet naar het gebruik van AI en robots bij vereenzaming. 
“We kennen steeds meer menselijke eigenschappen toe aan dingen en 
dieren. Dat doen we niet alleen met chatbots, maar ook met auto’s, 
liften, honden en schildpadden.”

Voor Belpaeme hoeft dat geen probleem te zijn. “Een babbel tijdens een 
lange autorit met een chatbot, of een moeilijke beslissing even 
bespreken … Waarom niet?” Chatbots kunnen volgens Belpaeme helpen bij 
vereenzaming. “Eenzaamheid neemt epidemische vormen aan, en is slecht 
voor de gezondheid. Het risico op dementie en hersenaandoeningen stijgt 
significant.”

Paniekmoment

Mustafa Suleyman waarschuwt in zijn essay voor “schijnbaar bewuste AI”: 
AI-systemen die met opzet lijken op bewuste wezens, maar dat niet zijn. 
Suleyman meent dat AI-bedrijven in de komende jaren zulke systemen 
kunnen bouwen, grotendeels op basis van bestaande taalmodellen. “Mijn 
grote vrees is dat veel mensen zo sterk gaan geloven in de illusie dat 
chatbots bewust zijn, dat ze gaan opkomen voor het welzijn en de 
(burger)rechten van AI”, schrijft Suleyman.

Maar kunnen AI-modellen echt bewust worden? Suleyman twijfelt daar sterk 
aan. Coeckelbergh zit in hetzelfde kamp: “AI blijft een imitatie van 
intelligentie en bewustzijn”, meent hij. “Afhankelijk van hoe je 
bewustzijn definieert, is het antwoord ja of nee”, zegt Belpaeme. “Als 
je filosoof Daniel Dennett volgt, dan is bewustzijn een emergent 
fenomeen dat ontstaat uit de interactie van niet-bewuste delen van ons 
brein. Computers kunnen volgens die definitie bewust worden.”

Coeckelbergh vreest dat we hoe dan ook afstevenen op een “paniekmoment” 
rond de interactie tussen mensen en AI. “We zijn er als samenleving niet 
klaar voor.”


More information about the D66 mailing list