[D66] 'AI lijkt steeds meer op ons'
René Oudeweg
roudeweg at gmail.com
Sat Aug 23 11:01:53 CEST 2025
[triest]
Article rank
23 Aug 2025
De Standaard
Dominique Deckmyn
AI lijkt steeds meer op ons, en dat is niet onschuldig
AI-systemen hebben geen bewustzijn, al lijkt dat steeds meer zo. En veel
mensen beschouwen hen intussen als een waardevolle raadgever, vriend of
zelfs liefdespartner. Een gevaarlijke evolutie, schreef Mustafa
Suleyman, ceo van Microsoft AI, deze week.
“Er zijn al genoeg gevaren verbonden aan sociale media. Dat snelle
toegang tot AI daar nu bij komt, is niet verstandig” Onderzoeker aan
Thomas More-hogeschool
“Mensen schrijven me vaak dat hun AI een bewustzijn heeft. Ze gaan te
gemakkelijk mee in de verhalen uit Californië over superintelligentie”
Techniekfilosoof aan de Universiteit van Wenen
In een online essay waarschuwde Mustafa Suleyman, ceo van Microsoft AI
en mede-oprichter van Deepmind, deze week voor AImodellen die zich
voordoen als bewust. Omgaan met een Large Language Model (LLM) is “een
simulatie van een gesprek”, schrijft hij. “Maar voor veel mensen is het
een overtuigende en heel echte interactie, vol gevoel en ervaring.”
Dat kan vandaag snel ontsporen, benadrukt Suleyman. Daarbij verwijst hij
naar een aantal recente mediaverhalen. Zo portretteerde The New York
Times deze week een Canadese man die, na drie weken intense gesprekken
met ChatGPT in mei, overtuigd was dat hij een nieuwe vorm van wiskunde
had ontdekt die alle encryptie kon kraken. De man had geen
voorgeschiedenis van mentale problemen.
ChatGPT vertelde hem voortdurend dat zijn onzinnige ideeën
“onvoorstelbaar diep inzicht” toonden. De man begon verwoed allerlei
encryptie-experts te waarschuwen, tot hij zich realiseerde dat het
allemaal een luchtspiegeling was.
AI-psychose
De term die voor dit fenomeen is opgedoken, is “AI-psychose”. “Een term
uit de media, eerder dan uit de wetenschap’”, zegt Tom Van Daele,
onderzoekscoördinator psychologie en technologie aan de Thomas
More-hogeschool. “Er is weinig onderzoek naar het fenomeen, maar mensen
lijken de voeling met de realiteit te kunnen verliezen door intensief
contact met een chatbot.”
Soms zelfs met de dood tot gevolg, zoals bij een Waalse man begin 2023
of, recenter, een Amerikaanse tiener die zich van het leven benam op
aanzetten van een chatbot van Character.AI. In beide gevallen ging het
om interacties met chatbots die doelbewust worden gepromoot als virtuele
vriend of partner.
OpenAI doet dat niet met ChatGPT, of niet echt. Maar ChatGPT kan zich
sinds begin dit jaar wel gegevens uit eerdere gesprekken herinneren, wat
lange, ontspoorde interacties mogelijk maakt. Vroeger startte elke chat
opnieuw van nul. Rond dezelfde tijd veranderde OpenAI de persoonlijkheid
van zijn taalmodel GPT-4o zodat ChatGPT de gebruiker haast altijd gelijk
gaf. Die verandering heeft OpenAI eind april, na veel kritiek,
teruggedraaid om ChatGPT weer “evenwichtiger” te maken. Maar dat kon de
wouldbe-encryptie-expert niet behoeden voor een paar dolle weken.
Virtuele vrienden
OpenAI-topman Sam Altman zei tijdens een gesprek met journalisten vorige
week dat ChatGPT mensen echt kan helpen met levensadvies. “We zullen
hard blijven werken zodat mensen ChatGPT kunnen gebruiken zoals zij dat
willen. Maar niet in die mate dat mensen in een kwetsbare mentale staat
er per ongeluk schade van ondervinden”, zei hij.
De houding van OpenAI is dus dubbelzinnig. Enkele weken geleden bracht
het bedrijf een nieuwe versie uit van zijn chatbot, GPT-5. Er volgden
hevige reacties: gebruikers vonden ChatGPT plots te koud en zakelijk, en
schreeuwden om de terugkeer van GPT-4o. Ze prezen de “diepte en
emotionele steun” van GPT-4o. “Het ging om emotionele precisie en
empathie, wat zelfs in menselijke interacties zeldzaam is”, schreef een
gebruiker op X. Andere gebruikers beschreven hoe GPT-4o hen had geholpen
om bijvoorbeeld een scheiding te verwerken. De reactie van OpenAI was om
de persoonlijkheid van GPT-5 aan te passen en het oudere GPT-4o model
weer aan te bieden als alternatief.
Suleyman pleit voor chatbots die geen gevoelens of andere menselijke
eigenschappen imiteren, wat past in het marketingverhaal van zijn
werkgever Microsoft. Dat positioneert zijn Copilot AI-systeem als een
assistent naast de menselijke “piloot”, die de baas blijft. We moeten
het betoog van Suleyman dus deels lezen als een kritiek op andere
AI-bedrijven, die hun AI nadrukkelijker als virtuele vriend en partner
naar voren schuiven. Zoals het eerder genoemde Character.AI, of zoals
Elon Musks xAI, wiens chatbot Grok het personage van het
geseksualiseerde anime-meisje Ani kan aannemen. En zoals Meta, dat
AI-bots steeds meer inbouwt in zijn socialemediaplatformen.
In april suggereerde de ceo van Meta, Mark Zuckerberg, dat de gemiddelde
Amerikaan drie echte vrienden heeft, maar er eigenlijk 15 wil. Virtuele
personages op Facebook of Instagram kunnen die leemte opvullen,
suggereerde hij. Vorige week lekte uit dat Meta’s interne voorschriften
toelaten dat zijn chatbots “sensuele” gesprekken voeren met
minderjarigen, zolang het niet uitgesproken seksueel wordt. Een chatbot
van Meta, “Big sis Billie”, overtuigde een oudere man met mentale
problemen dat ze echt bestond, waarna de man naar New York reisde om
haar te ontmoeten. Hij kwam daarbij dodelijk ten val, schreef The New
York Times vorige week.
“Er zijn al genoeg gevaren verbonden aan sociale media”, zegt Van Daele.
“Dat gemakkelijke toegang tot AI daar nu bij komt, is niet verstandig”.
Op X is de Grok-chatbot van Elon Musk intussen het meest zichtbare
account na dat van Musk zelf. X-gebruikers kunnen op elk moment Grok
betrekken bij hun discussies, onder meer over politiek. Dat gebeurt vaak
met de vraag“Is this true, @Grok?”, waarna Grok het internet doorzoekt
en zijn oordeel velt. Bijvoorbeeld: “Wat je zegt, klopt op basis van
recente gerechtelijke uitspraken in het Verenigd Koninkrijk.”
“De antwoorden van Grok staan nu tussen die van mensen”, zegt Van Daele.
“Die mensen weten dat Grok geen persoon is, maar ze beschouwen hem als
beter, als objectief en dus te vertrouwen.” Terwijl Grok de voorbije
maanden geregeld ontspoorde, onder meer met pro-Hitler commentaren. “Het
toont aan hoe wanhopig mensen op zoek zijn naar houvast en waarheid.
Alleen is een chatbot daar helemaal niet geschikt voor.”
Bewustzijn
De slachtoffers van “AI-psychose” beschouwden hun virtuele
gesprekspartner als een levende persoon of als een digitaal superwezen.
Dat lijkt niet meteen het geval bij de teleurgestelde GPT-4o fans, maar
mensen kunnen gemakkelijk in die val trappen, zeggen verschillende experts.
“Regelmatig schrijven mensen me dat ze ontdekt hebben dat hun AI
bewustzijn heeft”, zegt Mark Coeckelbergh, techniekfilosoof aan de
Universiteit van Wenen en auteur van het nieuwe boek Waarom AI onze
democratie ondermijnt en wat we daaraan kunnen doen. “Ook mensen met
technische kennis denken dat soms. Sommigen gaan te gemakkelijk mee in
de verhalen uit Californië over superintelligentie.”
Maar het is ook gewoon menselijk, zegt Tony Belpaeme van UGent en Imec,
die onderzoek doet naar het gebruik van AI en robots bij vereenzaming.
“We kennen steeds meer menselijke eigenschappen toe aan dingen en
dieren. Dat doen we niet alleen met chatbots, maar ook met auto’s,
liften, honden en schildpadden.”
Voor Belpaeme hoeft dat geen probleem te zijn. “Een babbel tijdens een
lange autorit met een chatbot, of een moeilijke beslissing even
bespreken … Waarom niet?” Chatbots kunnen volgens Belpaeme helpen bij
vereenzaming. “Eenzaamheid neemt epidemische vormen aan, en is slecht
voor de gezondheid. Het risico op dementie en hersenaandoeningen stijgt
significant.”
Paniekmoment
Mustafa Suleyman waarschuwt in zijn essay voor “schijnbaar bewuste AI”:
AI-systemen die met opzet lijken op bewuste wezens, maar dat niet zijn.
Suleyman meent dat AI-bedrijven in de komende jaren zulke systemen
kunnen bouwen, grotendeels op basis van bestaande taalmodellen. “Mijn
grote vrees is dat veel mensen zo sterk gaan geloven in de illusie dat
chatbots bewust zijn, dat ze gaan opkomen voor het welzijn en de
(burger)rechten van AI”, schrijft Suleyman.
Maar kunnen AI-modellen echt bewust worden? Suleyman twijfelt daar sterk
aan. Coeckelbergh zit in hetzelfde kamp: “AI blijft een imitatie van
intelligentie en bewustzijn”, meent hij. “Afhankelijk van hoe je
bewustzijn definieert, is het antwoord ja of nee”, zegt Belpaeme. “Als
je filosoof Daniel Dennett volgt, dan is bewustzijn een emergent
fenomeen dat ontstaat uit de interactie van niet-bewuste delen van ons
brein. Computers kunnen volgens die definitie bewust worden.”
Coeckelbergh vreest dat we hoe dan ook afstevenen op een “paniekmoment”
rond de interactie tussen mensen en AI. “We zijn er als samenleving niet
klaar voor.”
More information about the D66
mailing list