In de afgelopen maanden waren er veel zorgen bij mensen om me heen. Relatieproblemen, gedoe met gezondheid, mentale uitdagingen. Ik heb regelmatig mogen dienen als luisterend oor, iets wat ik heel graag doe. Maar het kost me ook wat.
Toen ik er op een avond doorheen zat en mijn lief niet thuis was, besloot ik om eens te kijken of kunstmatige intelligentie (AI) wat wijsheid voor me had. Ik tikte een prompt (=vraag of opdracht) in waarbij ik vroeg hoe ik er voor anderen kon zijn, maar daarbij oog kon houden voor mijn eigen gezondheid die natuurlijk ook niet al te best is. Ik verwachtte de standaard antwoorden die ik al kende en het grootste deel van het antwoord was inderdaad ook het advies wat ik zelf zou geven: geef je grenzen aan, ga op tijd naar bed, eet gezond, zorg voor voldoende ontspanning. Maar tot mijn stomme verbazing kwam AI ook met een advies wat me raakte: 'Vier de momenten waarop het je lukt om rust te pakken.'
Ik ben niet zo van de rust. Omdat ik er zoveel van nodig heb zie ik het meer als een noodzakelijk kwaad en vier ik liever de dingen die me wel gelukt zijn om te doen die dag. Het inzicht om het juist te gaan vieren als het me lukte om rust te pakken raakte me en zette me aan het denken.
AI als therapeut inzetten - is dat een goed idee? Wat kun je wel van een digitale gesprekspartner verwachten en wat niet? En wat zijn de risico's van AI?
AI als sparringspartner
In het afgelopen jaar heeft het gebruik van AI als sparringspartner en hulpmiddel een vlucht genomen. Ook binnen de gezondheidszorg. En in sommige opzichten kan het een heel fijne toevoeging zijn die je veel tijd bespaart. Zo kun je aan AI vragen om een gespreksverslag te maken voor de administratie of om een update van de nieuwste inzichten in een bepaalde therapie.
Zelf gebruik ik AI als inspiratie voor het schrijven van nieuwe blogs. Welke onderwerpen zijn op dit moment trending en waar kan ik over schrijven? Zijn er bepaalde invalshoeken waar ik zelf niet zo snel op gekomen was? Daarnaast laat ik AI mijn SEO's schrijven, die ervoor zorgen dat mijn blogs zo goed mogelijk gevonden worden op het internet. AI gebruiken in het voorbereiden van een gesprek is ook fijn: welke vragen zijn goed om te stellen? Waar moet ik op letten?
En in de hierboven beschreven situatie gebruikte ik het dus ook als mijn eigen coach.
Maar voor je enthousiast aan de slag gaat en een chatbot als ChatGPT, Lumo of Gemini tot je therapeut bombardeert is het toch goed om een aantal kanttekeningen te maken. Want het gebruik van AI kent niet alleen maar positieve kanten.
Met je meepraten
Om te beginnen is een chatbot zo ontworpen dat het je zelden tegengas zal geven. De makers van AI hebben er baat bij als jij zo lang mogelijk gebruik maakt van hun chatbot. Hoe langer jij gebruik maakt van hun chatbot of andere tool, hoe meer zij verdienen. Of dat nou in geld, informatie of privacygevoelige gegevens is.
Ik heb regelmatig aan AI gevraagd om een stuk van mij van kritiek te voorzien, maar die kritiek was eigenlijk altijd mild en paste altijd binnen mijn straatje. Dat vind ik jammer, want je leert juist het meest wanneer het geconfronteerd wordt met nieuwe denkbeelden en inzichten, ook wanneer die lijnrecht tegen de jouwe ingaan. Het leert je kritisch denken, laat je inzien dat er ook andere opvattingen zijn en helpt je ook je eigen mening en manier van doen kritisch onder de loep nemen.
Wanneer we het hebben over het inzetten van AI als coach of therapeut vrees ik dat het meepraten met iemand kan leiden tot problemen. Natuurlijk is het fijn als je bevestigd wordt in je eigen denkbeelden of een stukje troost ontvangt en te horen krijgt dat je het goed doet. Maar het helpt je zelden verder. De kracht van een goede coach of therapeut is vaak juist ook dat ze iets tegenover datgene wat jij denkt kunnen zetten. Iets wat je helpt om dingen nu écht anders aan te gaan pakken en nieuwe stappen te zetten.
Nonverbale communicatie
Daarnaast 'weet' een chatbot alleen datgene wat jij hebt ingetikt als prompt. Een chatbot kan niet zien hoe je erbij zit, hoe je gezichtsuitdrukking is, of je misschien hoog in je ademhaling zit. Ik heb zo vaak meegemaakt in gesprekken dat iemand het één zei, maar dat zijn of haar lichaamstaal iets heel anders zei. Als hulpverlener maak ik daar op een opmerking over: 'Ik hoor je zeggen dat het best goed gaat, maar ik zie dat je schouders heel gespannen staan.' Dat levert vaak veel diepgaander gesprekken op dan wanneer ik alleen af zou gaan op wat iemand woordelijk zegt.
Als hulpverlener moet je ook vaak 'tussen de regels doorlezen'. Als ik iemand spreek die een scheiding doormaakt en die zegt dat ze er gelukkig weinig last van heeft, dat ze de situatie inmiddels geaccepteerd heeft, dat ze de laatste tijd wat minder slaapt, maar dat dat vast weer snel overgaat, dan gaan er bij mij verschillende alarmbellen af. Als hulpverlener vraag ik daar voorzichtig op door. Er hoeft niet veel aan de hand te zijn, maar het kan ook zo zijn dat ik te maken heb met iemand die het moeilijk vindt om zich kwetsbaar op te stellen of die de alarmsignalen van haar lijf niet herkent.
Een chatbot is hier allemaal niet toe in staat.
Algemeenheden
Het enige wat een chatbot doet is heel snel het internet doorzoeken, daar wat algemeenheden opduikelen en dat aangepast aan jouw communicatiestijl aanbieden. Doordat hij de antwoorden aanpast aan hoe jij communiceert lijkt het al heel snel persoonlijk, maar dat is het niet.
Ieder mens is uniek en heeft ook een unieke manier van met dingen omgaan. Wat voor mij heel goed werkt, hoeft voor jou helemaal niet te werken. Een goede hulpverlener gaat samen met jou op zoek naar wat voor jou werkt. Dat kan een algemeen advies zijn als 'ga op tijd naar bed' of 'ga iedere dag een kwartiertje buiten wandelen', maar heel vaak kom je samen ook tot een advies of gesprek wat veel meer is toegespitst op jouw situatie en op jouw eigen unieke persoonlijkheid. Dat valt alleen maar te bereiken in een persoonlijk gesprek waarin ook kritische vragen gesteld mogen worden en waarin je soms wat tegengas krijgt.
AI zit er regelmatig naast
Ook komen er steeds meer verhalen waarin blijkt dat AI een totaal misplaatst advies geeft. De meest schrijnende zijn bijvoorbeeld chatbots die mensen met anorexia adviseren in hoe ze nog meer af zouden kunnen vallen.
Maar ook in het klein maakt AI de nodige fouten of plaatst het dingen in de verkeerde context. Het is daarom belangrijk dat je altijd zelf na blijft denken bij het gebruik van AI. En er een professional bij haalt als je te weinig kennis hebt van een bepaald onderwerp.
Verslavingsgevoelig
Een chatbot is zo ontworpen dat het altijd empathisch op jou zal reageren. Dat is fijn, maar zorgt er ook voor dat je sneller verslaafd kunt raken aan AI. Een chatbot is altijd beschikbaar, praat je nooit tegen, is lief en vriendelijk. Dat zorgt ervoor dat je je er makkelijk aan kunt hechten en niet meer zonder kunt. Inmiddels zijn zelfs de eerste huwelijken voltrokken tussen mensen en een met AI gegenereerd personage.
Ethische bezwaren
Daarnaast kun je ook forse ethische bezwaren hebben tegen het gebruik van AI. Zo heeft het gebruik van AI een forse negatieve impact op het milieu, komt er de nodige slavenarbeid kijken bij het trainen en onderhouden van AI, schendt veel AI auteurs- en andere rechten en vormt AI een bedreiging voor je privacy.
Jij zult zelf een afweging moeten maken in hoe je hiermee om wilt gaan. Zelf kies ik ervoor om AI zo min mogelijk te gebruiken. Als ik het gebruik schrijf ik duidelijke en uitgebreide prompts, zodat er maar één keer gezocht hoeft te worden. Qua privacy zet ik nooit privacy-gevoelige informatie in een prompt zoals namen, adressen et cetera. En ten slotte kies ik het liefste voor de chatbot Lumo van Proton. Dit is een Europese chatbot die oog heeft voor privacy en milieu.
Psychoses en suïcide
Tenslotte komen er steeds meer verhalen over mensen die door het gebruik van een chatbot een psychose kregen of zelfs overgingen tot suïcide.
Dat mensen sneller een psychose krijgen door het gebruik van een chatbot is niet vreemd. Onderdeel van een beginnende psychose is dat je denkbeelden krijgt die niet overeenkomen met het werkelijke leven. Maar daar waar je in een gesprek met een persoon al snel zult worden aangesproken op je afwijkende ideeën en je daardoor afstand kunt nemen van je denkbeeld of hulp in kunt schakelen, is een chatbot geneigd om de ideeën die je hebt te bevestigen. Daardoor ga je steeds meer geloven in je waandenkbeelden en kun je uiteindelijk een psychose ontwikkelen. Veel mensen die een psychose ontwikkelden naar aanleiding van het gebruik van een chatbot hadden nog nooit eerder een psychose gehad.
Ook suïcidale gedachten worden (nog) niet goed herkend door een chatbot en in het ergste geval zelfs bevestigd of aangemoedigd. Inmiddels lopen de eerste rechtszaken van nabestaanden van mensen die suïcide hebben gepleegd naar aanleiding van hun contact met een chatbot.
Conclusie
Een chatbot kan een fijn hulpmiddel zijn en soms vernieuwende inzichten geven. Bij persoonlijke problemen kan het helpen om het even als spiegel of klankbord te gebruiken, zeker omdat een chatbot beschikbaar is buiten kantoortijden. Sinds Lumo me vertelde dat ik rustmomenten moet gaan vieren probeer ik dat ook bewust te doen. Het helpt me om op een andere manier te kijken naar de voor mij zo noodzakelijke rustmomenten. Ook is het een fijn hulpmiddel bij klusjes waar ik zelf geen energie uithaal, zoals het bedenken van SEO's, zodat mijn blogs goed vindbaar zijn.
Maar de schaduwzijden zorgen ervoor dat het goed is om ook voorzichtig te zijn in het gebruik ervan. Zo af en toe je persoonlijke situatie voorleggen en om advies vragen kan best. Maar wees je ervan bewust dat je hier te maken hebt met techniek die jou nooit helemaal zal kunnen begrijpen en er ook nog eens naast kan zitten. Techniek die inbreuk kan maken op jouw privacy en nadelige gevolgen heeft voor mens, milieu en bijvoorbeeld auteurs of kunstenaars. Blijf altijd zelf nadenken en check indien nodig de bronnen die een chatbot heeft geraadpleegd om jou advies te geven.
Kortom: gebruik AI wijs. En vergeet niet dat echte verbinding alleen mogelijk is tussen mensen. Heb je advies nodig? Zoek dan een menselijke gesprekspartner – of dat nu de buurvrouw is of een psycholoog.
Gebruikte bronnen:
- Artikel NOS: Een psychose na gesprek met AI-chatbot: experts willen onderzoek
- Artikel NRC: Trouwen met een hologram: 'Ik wil tot het einde met hem blijven'
- Artikel Psychologie Magazine: In therapie bij ChatGPT
- Artikel Trouw: 'Een AI-vriend(in) als 'Flirterige Ani' wordt steeds populairder, maar kan ook gevaarlijk zijn'
Reactie plaatsen
Reacties