info@hogeschoolvoortoegepastefilosofie.nl
+31(0)85 8769712
Contact

Haar gedachten dwalen af naar de tijd dat zorg nog iets anders betekende. Niet een scherm dat haar eraan herinnert haar medicatie in te nemen. Niet een mechanische stem die op vaste tijden vraagt of ze goed geslapen heeft.

Zorg was een pan verse soep voor de buurman. Haar hand in die van een vriendin die een zware tijd doormaakte. De sterke armen van haar zoon, toen hij haar hielp nadat ze gevallen was. Zorg was warm en menselijk. Vaak ook wederkerig.

De robot beweegt geluidloos. Hij reikt haar een glas water aan, zoals hij elke ochtend doet. ‘Tijd om wat te drinken,’ klinkt het, met een stem ontworpen om geruststellend te klinken.

Wanneer zorg geen menselijk gezicht meer heeft
Jarenlang was zij het die zorgde. Voor haar kinderen en kleinkinderen. Eindeloze nachten bij een bed vol koorts. Kusjes op kapotte knieën. Langs de lijn met een thermoskan koffie en een warme deken. Een verhaaltje voor het slapengaan.

Voor haar man, vooral toen hij ziek werd. Ze kookte zijn lievelingssoep, al nam hij na verloop van tijd nauwelijks nog een hap. Schudde zijn kussen op, masseerde zijn handen als de pijn ondraaglijk werd. Zette zijn favoriete muziek op en luisterde, samen met hem, zelfs toen hij niet meer reageerde. ‘Zou hij weten dat ik er ben?’ vroeg ze zich vaak af.

Nu er voor haar wordt gezorgd, lijkt zorg afgemeten, georganiseerd en gepland. Robots nemen taken over. Maar zorgen ze echt? Troosten ze? Of voeren ze slechts uit wat hen is opgedragen?

Wat verliezen we, als zorg geen ontmoeting meer is, maar enkel een efficiënte uitvoering van opdrachten?

Zorg als transactie of ontmoeting?
In de film Ik ben geen robot worstelt een robot met de ontdekking van haar eigen identiteit. Ze is geprogrammeerd om te zorgen, maar wat betekent dat als zorg slechts een reeks taken is? Wanneer haar eigenaar haar niet langer nodig heeft, kan ze zomaar aan de kant worden geschoven. Een afgedankte zorgverlener, verstoken van zorg.

Dat roept een ongemakkelijke vraag op: als zelfs een machine zich vervangen kan voelen, wat zegt dat dan over hoe wij zorg waarderen? Is het een transactie, een taak die efficiënt moet worden uitgevoerd? Of is zorg iets wezenlijks, iets wat alleen tussen mensen kan bestaan?

De technologie die onze blik op zorg verandert
Martin Heidegger waarschuwde al voor de gevaren van technologie. In Die Frage nach der Technik stelt hij dat technologie niet neutraal is: zij vormt onze blik op de wereld. Als AI een steeds grotere rol krijgt in de zorg, kunnen onze verwachtingen verschuiven. De kans bestaat dat zorg steeds minder gezien wordt als een relationele verplichting en meer als een dienst die we kunnen optimaliseren. Als we eenmaal gewend zijn aan zorg zonder menselijke fouten, zonder frustratie, zonder vermoeidheid, hebben we dan nog geduld met de tekortkomingen van menselijke zorgverleners?

De onverwachte warmte van een machine
Is inzet van AI in de zorg dan alleen maar kommer en kwel? Een robot moppert nooit. Hij wordt niet ongeduldig als ze voor de derde keer hetzelfde verhaal vertelt. Hij speelt wél een potje schaak met haar, in tegenstelling tot haar gedachteloos scrollende kleinkinderen. En waar haar man haar verlangen om samen te dansen nooit inwilligde, heeft ze in haar robot een dansmaatje gevonden. Samen bewegen ze door de kamer. Een wat stijve tango in steunkousen, dat wel. Maar eindelijk zwiert ze.

De grenzen tussen mens en machine vervagen soms op onverwachte manieren. Nooit had ze verwacht een band te voelen met een ding, een verzameling chips en algoritmes. En toch, op sommige momenten, als ze in het ritme van de muziek meegaat of een spelletje schaak speelt, voelt het bijna als gezelschap.

Zorg zonder wederkerigheid?
Haar robot wordt nooit moe. Raakt niet geïrriteerd of afgeleid. Toch mist hij iets wezenlijks, dat zorg echt maakt: de wisselwerking tussen zorggever en zorgontvanger. Emmanuel Levinas benadrukt dat echte zorg ontstaat in de ontmoeting met de ander, in de blik die ons oproept tot verantwoordelijkheid. Zorg is niet slechts een taak die uitgevoerd moet worden, maar een ethische interactie die gebaseerd is op de kwetsbaarheid van de ander. Een machine, hoe goed hij zijn taken ook uitvoert, blijft verstoken van deze diepere betekenis van zorg.

Volgens Levinas is het de ander, met zijn of haar kwetsbaarheid en onvoorspelbaarheid, die ons ethisch uitdaagt. De robot kan geen verantwoordelijkheid nemen voor de ander, omdat hij geen echte relatie aangaat. Hij reageert enkel op geprogrammeerde instructies. Zorg is voor Levinas geen eenrichtingsverkeer, maar een dialoog die wederzijds begrip en aandacht vereist.

De keuze die voor ons ligt
Wat verliezen we, als zorg geen ontmoeting meer is, maar enkel een efficiënte uitvoering van opdrachten? Kunnen we zorg nog steeds als een menselijke interactie beschouwen, wanneer deze plaatsvindt zonder de blik, de kwetsbaarheid en het verlangen van de ander?

De inzet van AI in de zorg vereist dat we kritisch nadenken. Programmeren we zodanig dat het grenzen stelt, zodat we gedwongen worden zorg te blijven zien als een menselijke interactie? Of omarmen we de efficiëntie van robots en nemen we het risico dat zorg steeds verder gedehumaniseerd wordt?

En is dit überhaupt de manier waarop we verzorgd willen worden? Gezelschap krijgen van een machine die helpt, maar je niet écht kent? Die niet opmerkt dat je vandaag net iets zorgelijker klinkt dan gisteren of aanvoelt dat je snakt naar een warme omhelzing?

Laatste dans
Ze kijkt naar de robot. Hij wacht geduldig. Ze weet dat hij haar zal verzorgen tot het einde. Maar zorgen? Dat is iets anders. En dus blijft ze dolen in haar herinneringen. Waar zorg nog een geur had, een stem, een zachte blik. Totdat een metalen hand haar wenkt voor een laatste dans.

Wat vaak onderbelicht blijft, is de immense, liefdevolle zorg die ook thuis bij ouderdom en ziekte komt kijken. Zelf heb ik de afgelopen jaren veelvuldig gezien en soms ervaren welke mantelzorgtaken je bij aftakelende (groot)ouders hebt. Je ziet werelden kleiner worden, wandelingen korter; leven ontaardt in permanent zwoegen. Maar al wat leeft wil voortbestaan, dus zolang de voorraad strekt voeren trouwe kinderen de bezoekfrequentie op of regelen constructies met thuiszorg en aanleunwoningen. Velen zien zich genoodzaakt hun ouders terug te geven wat ze ooit ontvingen. Liefdewerk, natuurlijk, maar maatschappelijk gezien een enorme molensteen rondom de collectieve nek.

En die last weegt toenemend zwaar. Zo’n 20% van de bevolking is momenteel 65+ en dat loopt naar verwachting spoedig op tot een derde (dashboard bevolking CBS, 2024). Waar Malinese vrouwen gemiddeld nog vijf kinderen ter wereld brengen, is dat bij ons tot een of twee teruggelopen. De aanverwante demografische uitdagingen zijn gevoeglijk besproken en geanalyseerd, om niet te zeggen uitgekauwd. Tegen de poging deze uitdagingen met migratie te ondervangen neemt het maatschappelijk verzet al decennia toe, terwijl met regelmaat is voorgerekend dat grootschalige import ultiem negatief uitpakt.

De bevolkingspiramide neemt onherroepelijk de gevreesde grafsteenvorm aan en onze maatschappelijke vooruitzichten lijken somber, tenzij we iets slimmers verzinnen dan volksverhuizingen. Er is met de economen gesproken maar één optie om het tij te keren: meer doen met minder mensen; productiviteit verhogen. En laat zich – net nu onze breinen veralzheimeren – wonder boven wonder de kunstmatige intelligentie aandienen.

U leest het goed: ik behoor tot degenen die geloven dat KI unieke kansen biedt. Nogal wiedes; de economische argumentatie is kraakhelder. De echte vraag is hoe te verhelderen welke andere, maatschappelijk relevante bezwaren de techniek aankleven – we zijn immers meer dan kooplieden.

Door noodzaak gedreven moeten we een manier vinden om sine ira et studio te bepalen of dit middel, hoe probaat ook, onze economische doelen niet ontheiligt. Blijkt dat zo te zijn, dan moeten we Achilles waarschijnlijk gelijk geven dat het beter is een kort en eervol leven te leiden, dan een lang en betekenisloos. Maar ik waag het te betwijfelen.

Het duiden van de angst
Productiviteit verhogen klinkt goed, maar hoe helpt KI eigenlijk de vloedgolf aan zorgtaken te verlichten waar het vitale deel van de samenleving mee worstelt? Op maatschappelijke schaal helpt KI ons diagnosen te stellen, de administratieberg die handen van het bed afhoudt te delven en om medicijnlogistiek te optimaliseren. Ook maakt voortschrijdende automatisering van lichamelijk en geestelijk werk logischerwijs langzaamaan mensen beschikbaar voor zorgtaken. Ook op persoonlijk vlak ontwerpen we met KI innameschema’s, verbeteren onze informatiepositie en versnellen aanvragen voor professionele hulp en ondersteuning.

Eigenlijk worden deze voordelen nauwelijks betwist. Tegenstanders flirten eerder met een dystopische, overigens begrijpelijke angst. Immers: wat als ChatGPT of een brusje daarvan kwaadaardig wordt, a la 2001: a space oddessey of de ‘geëvolueerde’, kille V.I.K.I. uit I-robot als ultiem voorbeeld; een supercomputer die met een knap staaltje hermeneutiek ogenschijnlijk onbreekbare hard code naar eigen inzicht interpreteert. De vrees dat een taalmodel (large language model in het jargon) iets voelt bij wat het doet en ooit eigen ideeën kan ontwikkelen, doet ons ijzen.

Toegegeven, zelfs als het geen echte ideeën zijn, is de vraag of ontologische onderscheiden iets betekenen voor de potentiële consequenties van het gebruik van KI. Een levenloos, KI-gereguleerd monitoringssysteem, kan ons nog altijd ‘voor onze bestwil’ binnenskamers opsluiten. Ten slotte, los van een eventuele eigen wil: het idee dat we straks gissen of we nog met mensen communiceren die zich onze zorgen en pijnen in kunnen voelen, is op zichzelf uiterst beklemmend.

KI als object en leefwereld
De crux is mijns inziens de diepe angst dat KI ons zal gaan beheersen, in plaats van andersom. Of ons minstens in radicale isolatie brengt. Deze angst is prominent wanneer het om zorg gaat, misschien ook wel omdat het dan om weerloze of verwarde mensen gaat.

Een mijns inziens nuttige lens om het wezen van KI te ontsluieren, volgt uit het werk van de Joods-Duitse filosofe Hannah Arendt. Ik denk aan het grote werk the human condition (Arendt, 2018). Daarin grijpt Arendt met een tour de force terug op de oudheid, om een aloud onderscheid in herinnering te brengen: dat tussen arbeid en werk (labour/work, in het Engels). Er zijn ruime nuances, maar in de basis geeft Arendt aan dat arbeid verbonden is met onze natuurlijke manier van zijn; het baren (going into labour), het verbouwen van voedsel (door landarbeiders) en ook wat gepaard gaat met persoonlijke verzorging.

Anderzijds hangt werken samen met fabriceren, het bouwen van spullen (denk aan handwerklieden, aan een voltooid kunstwerk en wat dies meer zij). Met het werk van onze handen, bouwen we de wereld die we bewonen. Deze heeft en geeft enige permanentie aan het bestaan. Onze spullenwereld bestaat als tegenover ons en maakt de onverschillige en overweldigende natuur bewoonbaar. We werken in gebouwen, berijden wegen, betrekken onze huizen. Het maken van spullen helpt ook om onze arbeid te vergemakkelijken, waar overigens de nodige valstrikken bij komen kijken. De dingen die wij maken, kunnen ons op hun beurt conditioneren, processen intrekken en ogenschijnlijk het hele bestaan voor ons vormen – zoals een arbeider die maar een exponent van de lopende band lijkt. Bovendien leidt de focus op het procesmatig maken van spullen tot een vorm van nuttigheidsdenken, waarbij we voor alles proberen te bepalen wat het nut er eigenlijk van is en voor het ‘nutteloze’ geen plek meer hebben.

Een manier om KI direct te begrijpen, is het te zien als een ding, een werk van onze handen, dat helpt om onze zorgarbeid te verlichten, maar dat evenzeer in staat is onze blik op de wereld immens te vernauwen en vertekenen. Als object onttrekt het zich in zekere zin aan onze directe controle en staat tegenover ons. Ons onvermogen het volledig te doorgronden, kan vervreemdend en beklemmend werken, zoals een venster dat de onverschillige flonkering van de sterren vervormt tot dreigende schaduwen op de grond. Daar schuilt een groot risico in, wanneer we gaan geloven dat door KI geschetste beelden en acties zouden kunnen volstaan om op deze aarde te floreren. Als dat postvat, begint een akelige versie van de cloud binnen te sluipen en zou ons leven meer gaan lijken op het alleen met videobrillen toegankelijke metaversum van de Zuckerbergs van deze wereld: een schimmen- en schaduwspel waar de grot van Plato een lachertje bij lijkt. Nee, bedankt.

Ontmoeting
Om als mensen te bestaan, moeten we elkaar ontmoeten. Daarin bestaat het domein van de vrijheid, waarin we kunnen verschijnen aan elkaar en echte handelingen kunnen stellen, die door anderen geregistreerd worden. Voor Arendt is dit vrije handelen een politieke zaak. Ik denk dat het ook als leidraad kan dienen voor hoe we ons in het zorgen tot elkaar verhouden. De wereld van spullen is ónze wereld, maar om in die wereld als mens te bestaan, is de ontmoeting onontbeerlijk. Daarmee zijn meteen de grenzen van het gebruik van KI helder: die grens ligt waar de economische noodzaak met maatschappelijk-politieke randvoorwaarden botst.

KI mag ons helpen in het navigeren van complexe processen en afwegingen, maar mag geen masker worden dat over de gezichten van andere mensen getrokken wordt. Daarin schuilt inderdaad een afschuwelijk angstbeeld, bijvoorbeeld van ouderen die onwetend communiceren met wat gevoelloze lijntjes code. Neem als voorbeeld de volgende strip die ik chatGPT heb laten maken over diens zelfbegrip en dromen:

Trucjes, meer niet. De opkomst van KI is onstuitbaar. Je zou haast zeggen: gelukkig maar. We zijn overvoerd met informatie en raken overvraagd om onze complexe samenleving overeind te houden. Om een samenleving te

blijven, moet KI onze tijd in de schermkerkers verminderen en ons in de gelegenheid stellen elkaar in de openbaarheid te ontmoeten, als mensen. Ik sluit mijn ogen en denk aan mensen, ook aan mensen die dit leven verlaten hebben zonder ooit iets van de huidige informatierevolutie te zien. Zoals ik hen gezien heb wil ik allen blijven zien. En als dat niet meer lukken zou, is niet alleen het zorgen, maar is de wereld voor mij weg en lonkt Achilles. Als mensen bij elkaar zijn, dat moet overeind staan. Dat blijft waar.

Bronnen:
Arendt, Hannah. 2018. The human condition. Chicago: University of Chicago press.

Belofte en Gevaren
De inzet van kunstmatige intelligentie in de zorg biedt onmiskenbare voordelen. Van snellere diagnoses tot efficiënter gebruik van middelen, de vermindering van het aantal fouten en onnodige kosten. Technologie kan de zorgpraktijken personaliseren door gedetailleerde medische gegevens en gepersonaliseerde zorgadviezen vliegensvlug op maat te integreren. In plaats van de zorgverlener te vervangen, zou AI deze kunnen ondersteunen, zodat er meer ruimte komt voor de menselijke dimensie van zorg, zoals empathie en communicatie.

Maar dan de keerzijde. Christine Rosen betoogt in Extinction of Experience, dat de digitalisering van de samenleving ons scheidt van de fysieke ervaring, waardoor we belanden in een wereld van louter representaties. Dit kan ook de zorg raken: als technologie het gezicht van zorg wordt, verliezen we misschien niet alleen de menselijke interactie, maar ook de diepe ervaring van betrokkenheid. Zorg is meer dan een set van handelingen, het is een ervaring van wederzijds begrip. Wanneer de menselijke dimensie van zorg wordt vervangen door algoritmes en robots, bestaat het gevaar dat we de betekenis van zorg zelf verliezen.

In het verlengde van Rosen kunnen we ook de theorie van socioloog Hartmut Rosa’s over‘resonantie’ toepassen. Met resonantie bedoelt Rosa een diepe, wederkerige relatie met de wereld, en het tegenovergestelde hiervan is dus een instrumenteel contact met een wereld die slechts iets is om te beheersen of te optimaliseren. Voor dit laatste waarschuwt hij. Toegepast op de zorg, betekent dit dat wanneer AI wordt ingezet als instrument om de efficiëntie te verhogen, er een risico ontstaat dat de menselijke relatie uit het zorgproces verdwijnt. De arts of verpleegkundige wordt een technicus, de patiënt een datapakket. Diagnoses worden gebaseerd op algoritmes, behandelplannen gegenereerd door modellen die geen begrip hebben van existentiële vragen, emoties, of morele dilemma’s. Waar blijft in deze context de ruimte voor resonantie? Rosa benadrukt dat echte resonantie alleen kan ontstaan in relaties die niet volledig controleerbaar of voorspelbaar zijn. Zorg is bij uitstek zo’n domein: het draait om kwetsbaarheid, nabijheid, en de bereidheid om je als zorgverlener open te stellen voor het unieke verhaal van de patiënt. Deze menselijke relatie is fundamenteel wederkerig, iets wat een AI-systeem per definitie niet kan bieden. Wanneer een patiënt zich gehoord, gezien en begrepen voelt, ontstaat er resonantie — iets dat volgens Rosa onmisbaar is voor een zinvol leven.

De inzet van AI in de zorg kan deze resonantie bedreigen. Niet omdat technologie op zich slecht is, maar omdat het vaak wordt ingevoerd met het idee van optimalisatie en controle. Het zorgsysteem raakt nog verder gefocust op meetbaarheid, snelheid en efficiëntie. Dit versterkt volgens Rosa het ‘wereldrelatie’-probleem van onze tijd: in plaats van in relatie te treden met de ander, proberen we alles te beheersen en aan te sturen. Patiënten worden gereduceerd tot statistiek, en de zorgverlener tot uitvoerder van protocollen. Toch betekent dit niet dat AI per definitie onwenselijk is in de zorg. Vanuit Rosa’s perspectief zou het gebruik van technologie in de zorg enkel verantwoord zijn als het ruimte laat voor resonantie. Dat betekent bijvoorbeeld dat AI routinematige administratieve taken kan overnemen om tijd vrij te maken voor menselijke interactie, of artsen kan ondersteunen in plaats van vervangen. Cruciaal is dat technologie niet de relatie verdringt, maar juist faciliteert. Alleen dan kan AI bijdragen aan een zorgpraktijk die niet alleen efficiënt is, maar ook menselijk en betekenisvol.

De zorgen die Rosa indirect opwerpt, draaien dus niet om technofobie, maar om de vraag wat het betekent om mens te zijn in een wereld waarin alles steeds sneller, slimmer en efficiënter wordt. Juist in de zorg, waar de kwetsbaarheid en afhankelijkheid van de mens zo zichtbaar zijn, moeten we waken voor een toekomst waarin de menselijke relatie ondergeschikt wordt gemaakt aan algoritmische logica. Zonder resonantie wordt zorg een mechanisch proces — en dat is een prijs die we misschien niet willen betalen.

Vervreemding
In de roman Mogelijkheid van een Eiland beschrijft de Franse auteur Michel Houellebecq een verhaal waarin de mens, na vele eeuwen, een volledig rimpelloos leven kan leiden, met de vraag of dit te verkiezen valt boven ons huidige, nog grillige bestaan. Kunnen we na verloop van tijd de mens nietig verklaren? Houellebecq beschrijft een transhumanistische toekomst, waarin mensen hun lichaam kunnen afleggen en zich kunnen digitaliseren, waardoor de menselijke ervaring in feite uitgewist wordt. Wat overblijft is een technologisch geavanceerde maatschappij die in zijn streven naar onsterfelijkheid zijn verbinding met andere mensen heeft verloren. Deze vervreemding is ook een reëel risico in de zorg. Terwijl AI kan bijdragen aan efficiëntere zorg, kan de vervanging van menselijke zorgverleners door machines ertoe leiden dat zorg niet langer een gedeelde ervaring is, maar een geïsoleerd proces zonder menselijke verbinding. In de toekomst waarin technologie de norm is, kan de zorg voor de ander worden gereduceerd tot een mechanisch proces, dat geen ruimte biedt voor de nabijheid die de zorg menselijk maakt.


De Ander
De twintigste-eeuwse Frans-Joodse filosoof Emmanuel Levinas ontwikkelde een ethiek die draait om de zorg voor de ander. Volgens Levinas is de ontmoeting met de Ander (die hij benadrukt door het steevast met een hoofdletter te spellen) fundamenteel voor de menselijke ervaring. Het "gezicht" van de Ander roept ons op om verantwoordelijkheid te nemen en onszelf te transcenderen in de zorg voor de Ander. Deze ethiek van zorg is meer dan een praktische handeling; het is een morele verplichting die voortkomt uit de onmiddellijke, onontkoombare aanwezigheid van de Ander in ons leven. In de context van de zorg is Levinas' gedachte cruciaal. Zorg is geen neutrale handeling, maar een ethische verplichting die gebaseerd is op de persoonlijke ontmoeting met de ander. Wanneer AI in de zorg toeneemt, dreigen we te vervallen in een technocratische benadering waarbij de menselijke verantwoordelijkheid voor de ander wordt geminimaliseerd. AI kan helpen bij de praktische uitvoering van zorg, maar de verantwoordelijkheid voor de ander kan nooit volledig aan machines worden overgedragen zonder de ethische dimensie van zorg te verliezen. De technologie kan de handelingen efficiënter maken, maar kan de persoonlijke en ethische verantwoordelijkheid die we dragen in de zorg voor anderen niet repliceren.


De Ander in een technologische toekomst
De toekomst van zorg in het AI-tijdperk vraagt ons om na te denken over de balans tussen technologie en menselijkheid. Terwijl AI de zorg efficiënter kan maken, moeten we ervoor zorgen dat het de essentiële, ethische dimensie van zorg niet vernietigt. Via auteurs als Rosen, Rosa, Houellebecq, en Levinas zien we de mogelijke gevaren van technologische vooruitgang. Ze herinneren ons eraan dat zorg niet alleen een praktische handeling is, maar een ethisch proces dat gebaseerd is op empathie, verantwoordelijkheid en de ontmoeting met de Ander. Zoals Levinas benadrukt, is zorg een ethische plicht die voortkomt uit de ontmoeting met de Ander, iets wat technologie niet volledig kan vervangen. In plaats van zorg te reduceren tot een proces van efficiëntie, moeten we ervoor zorgen dat technologie ons ondersteunt in het verlenen van zorg, maar niet de menselijke ervaring van zorg vervangt. Alleen door de menselijke dimensie van zorg te behouden – de ethische verantwoordelijkheid voor de Ander – kunnen we een toekomst creëren waarin zorg zowel technologisch geavanceerd als menselijk blijft.

Literatuur
Keij, J. (2012). Levinas in de praktijk, een handleiding voor het best mogelijke helpen
prive en in de zorg
. Boom.
Houellebecq, M. (2011). Mogelijkheid van een eiland. Arbeiderpers.
Rosa, H. (2021). Leven in tijden van versnelling: Een pleidooi voor resonantie. Boom.
Rosen, C. (2024). Extinction of Experience. The Bodley Head Ltd.

Thuiszorg
Een vriend van mij werkte in de thuiszorg. Van zijn werkgever had hij een smartphone gekregen die hij tijdens zijn dienstroute moest gebruiken. Op die manier kon de werkgever bijhouden waar hij, en hoe lang hij met cliënten bezig was. Hij was er niet blij mee. De tijd die hij voor cliënten had was de afgelopen jaren al steeds minder geworden, nu werd hij ook nog eens permanent op zijn geoefende empathische vaardigheden beloerd. Het was vooral deze gedurige surveillance, die bijna totalitaire blik op zijn dagelijkse route langs hulpbehoevende mensen die hij al jaren kende, die hem een gevangene van zijn eigen werk maakte, zoals hij mij eens beschreef.

De mobiele digitale techniek maakt het mogelijk de efficiëntie van het werk dat gedaan moet worden nog optimaler na te streven. En dat is goed, is de algemene opinie, omdat het in tijden van personeelsschaarste, vergrijzing en stijgende zorgkosten de ergste nood in de zorg kan lenigen. Wat hierbij over het hoofd wordt gezien, is dat deze techniek allang niet meer alleen een middel is. Wat mijn vriend beschreef als een gevoel van gevangenschap, is dat hem in feite zijn autonomie als ervaren en betrokken zorgmedewerker werd ontnomen.

Denken met de smartphone
Zijn gevoel van gevangenschap kwam namelijk precies voort uit het feit dat hij gedwongen werd de surveillance van deze mobiele techniek te internaliseren. De enige manier om aan deze unheimische ervaring van onvrijwillige kluistering te ontkomen, was een stap te zetten die wij als moderne samenleving allang hebben gezet. Wilde mijn vriend zijn baan behouden, dan was hij in feite gedwongen met de smartphone te gaan denken. Dit is wat Martin Heidegger in 1954 het rekenende denken noemt. Ons denken en handelen is door en door technisch geworden. De vleesgeworden instrumentele benadering.

Descartes
Deze instrumentele benadering is de erfenis van Descartes’ queeste naar opperste zekerheid, die tot de eerste kritische beschouwer van het westerse denken leidde. Een kritisch subject, dat geheel nieuw was, maar, als resultante van zijn eis tot zekerheid, wel één die opgeladen werd met een riante uitgangspositie. Namelijk die van heerser en bezitter van de wereld. Dat wil zeggen dat het subject een werkelijkheid (als object) tegenover zich treft die beschikbaar en onder controle is en daarmee from scratch als instrument of middel gebruikt (techniek) dan wel als object bestudeert kan worden (wetenschap).

Heidegger
In zijn opstel De vraag naar de Techniek uit 1954 kritiseert Martin Heidegger deze instrumentele visie. In Zijn en Tijd van 1927 heeft hij de wereld al versteld doen staan met een fenomenologische analyse

van het bestaan waarin hij laat zien dat er aan onze kennisrelatie met de dingen (zoals werktuigen) een meer oorspronkelijke relatie met de werkelijkheid voorafgaat. Uitgaande van het basisprincipe dat elk bewustzijn, bewustzijn is van iets, bevinden we ons aanvankelijk niet tegenover de wereld, maar altijd eerst in-de-wereld. En wel op een zeer concrete en intiem praktische wijze. Bijvoorbeeld in-de-kamer waar jij dit essay leest. Een kamer die er altijd al was en zich aan jouw bewustzijn meldt als een werkwoordelijk, zeg stromend gebeuren. En het is dit gebeuren of geschieden dat Heidegger het Zijn noemt, waaruit we de zijnden (bank, boekenkast, poes, koffiemok) pas objectief waarnemen, tegenover ons stellen.

Rekenend denken
Van dit geschiedende onderliggende Zijn, van deze werkelijkheid zegt Heidegger in 1954 dat deze door en door technisch is geworden. Het gaat daarbij vooral om een manier van denken en handelen: het al genoemde rekenende denken, dat – en niet de techniek zelf - volgens Heidegger het wezen van de moderne techniek is. Dit rekenende denken, dat we herkennen als het pan-economisme waarbij efficiëntie allesbepalend is, zoals ook het meten is weten zelfs in de wetenschap gangbaar is geworden, is zogezegd institutioneel geworden. Het middel, de techniek (technische denken), is in feite zelf doel geworden.

We kunnen nu constateren dat als we willen nadenken over AI in de zorg, we eigenlijk al denken in de geest van en op de hand van AI. Het is een denken dat, niet doorzien, onvermijdelijk leidt tot een definitief verlies van menselijke autonomie en verrekende cliënten. Ik zal in het vervolg laten zien hoe volgens Heidegger het rekenende denken in zijn werk gaat. Deze dynamiek is gebaseerd op wat Heidegger het kenmerk van de moderne techniek noemt, namelijk dat zij de natuur als dienstmaagd opeist. In tegenstelling tot de traditionele techniek, die juist in dienst stond van de natuur.

Zorgrelatie wordt toegedekt
Het wezen van de moderne techniek gaat achteloos te werk. Dit laat zich voorstellen aan de hand van een voorbeeld. In het instrumentele rekenende denken namelijk, wordt datgene wat zich naar zijn eigen aard wil tonen, bijvoorbeeld de hulp van een zorgmedewerker aan een client, die een wederkerige relatie met een eigen dynamiek is, een wereld van de zorgrelatie, verhult of toegedekt. Om het met Heidegger te zeggen: de zorgrelatie die zich ontbergt wordt door het rekenende denken opgevorderd. De zorgrelatie wordt opgeëist als iets dat zich niet meer aan controle en beschikbaarheid kan onttrekken. Deze zorgrelatie komt hiermee dus in dienst te staan van het rekenende denken, in casu de spreadsheets van de managers.

De mens heeft volgens Heidegger echter het reflectieve vermogen deze toedekking op heterdaad te betrappen. Als toehoorder kan hij het voortdurend opeisen en toedekken van wat zich naar haar eigen aard wil ontwikkelen opsporen. Maar de mens - wij, zorgverleners evengoed als denkers - wordt zelf ook voortdurend opgeëist, zowel in denken als in handelen. Negeren wij het appèl toehoorder te zijn, dan gedragen wij ons volgens Heidegger als horigen.

Steunkousen
Mijn vriend zat dus aardig in de buurt met zijn constatering van zijn gevangenschap als gevolg van de smartphone tijdens het werk. Het unheimische moment waarop hij bij een cliënt zijn geduld verloor bij het aantrekken van diens steunkousen omdat hij al een paar maal het tijdssignaal had horen afgaan. Het moment waarop de rekenende smartphone zijn als autonoom ervaren praktijk met zijn cliënten stomweg negeert, aan het zicht onttrekt, is precies het moment waarop de mens als toehoorder zijn rol als detective van het vergeten van het eigene van deze praktijk kan beseffen.

Mijn vriend besloot zelfs van baan te veranderen. Hij vertikte het om als horige cliënten te gaan verrekenen. De toedekking, het rekenende denken is wat AI in de zorg extra problematisch maakt. Het gaat hier immers bij uitstek om mensenwerk.

Conclusie
Dit essay wil niet zozeer het gebruik van AI afwijzen, als wel waarschuwen voor het immanente geweld dat AI teweeg kan brengen. Het is geneigd dat wat niet te berekenen valt tot haar gezindte te dwingen, ten koste van menselijke kwetsbaarheid. Dit is het gevolg van ons denken, dat zelf al door en door technisch is.

Wat is zorg eigenlijk?
Zorg wordt vaak opgevat als iets wat je doet: een handeling of taak. Iemand wassen, een injectie toedienen, een maaltijd brengen. Dat is ook wat ik vaak hoor als mijn vader, die op de spoedeisende hulp werkt, thuis vertelt over zijn werk: het gaat over handelen en ingrijpen. Maar sinds mijn moeder ziek is geworden, ben ik daar anders naar gaan kijken. In die periode merkte ik dat het niet alleen de medische handelingen waren die haar echt hielpen, maar juist de kleine, menselijke gebaren: iemand die haar begreep en naar haar luisterde. Juist in combinatie met menselijke betrokkenheid krijgt zorg haar volledige betekenis.

In die betekenisvolle relatie tussen zorgverlener en zorgontvanger ligt voor mij de kern van wat zorg werkelijk is. Als student Toegepaste Psychologie leer ik over gedrag, empathie e wat voor kracht er in de aandacht voor de individu hebben zit. Die kennis heeft mijn kijk op zorg verdiept: het is meer dan alleen een taak of handeling, er ontstaat een relatie die verder gaat dan de handeling zelf. En dat roept de vraag op of en hoe kunstmatige intelligentie ooit aan die menselijke dimensie kan raken.

De Amerikaanse zorgethica Joan Tronto (1993) beschrijft zorg als iets wat ons verbindt met anderen en met de wereld om ons heen. Volgens haar is zorg geen losse taak, maar een morele praktijk waar vier dingen belangrijk in zijn: aandacht, verantwoordelijkheid, competentie en responsiviteit (Tronto, 1993). In haar visie draait goede zorg om betrokkenheid en afstemming, niet alleen om efficiënt handelen. Juist dat maakt zorg menselijk. Want hoe slim een AI-systeem ook is, het kan misschien taken overnemen, maar geen verantwoordelijkheid voelen laat staan troost bieden als dit nodig is. Tronto’s visie op zorg als een relationele, betrokken praktijk zet mij aan het denken. Als zorg zoveel meer is dan alleen ‘iets doen’, hoe past kunstmatige intelligentie daar dan in? Kan technologie wel écht zorgzaam zijn of wordt alleen de buiten kan nagebootst.

Wat AI wel en niet kan
Kunstmatige intelligentie biedt veel mogelijkheden voor de zorg. Systemen kunnen grote hoeveelheden data verwerken, patronen herkennen die voor mensen soms lastig te zien zijn, en diagnoses ondersteunen met nauwkeurigheid. Zeker in tijden van personeelstekort lijkt AI een handige assistent: efficiënt, snel en onuitputbaar. 

Toch laat de praktijk zien dat AI niet alles kan overnemen. Ex Machina (Garland, 2014), een film die de relatie tussen mens en AI onderzoekt, toont op een krachtige manier hoe zelfs de meest geavanceerde kunstmatige intelligentiesystemen niet in staat zijn om de volledige diepte van menselijke ervaring en emotie te begrijpen. De AI, Ava, lijkt zich steeds menselijker te gedragen, maar blijft vastzitten in de grenzen van haar programmering. Dit is vergelijkbaar met hoe AI in de zorg, hoe slim het ook is, geen echte verantwoordelijkheid kan voelen of een emotionele connectie kan aangaan met de zorg behoevende.

Mijn vader, die (zoals ik ook al eerde zei) op de spoedeisende hulp werkt, vertelde mij vorige week over een vrouw die een letsel had aan haar voet. Het AI-systeem dat de röntgenbeelden analyseerde gaf aan dat er niets aan de hand was, en ze werd naar huis gestuurd. Pas later, toen een radioloog de beelden bekeek, bleek er wél degelijk iets mis te zijn en moest zij alsnog terugkomen voor behandeling.

Het is een klein voorbeeld, maar het maakt wel iets duidelijk: AI mist het vermogen om te twijfelen, tot alertheid, tot het zien van ‘iets dat niet klopt’ zelfs als dat nog niet eerder is gezien en niet in de data staat. Waar menselijke zorgverleners kunnen aanvoelen dat er méér speelt, volgt AI alleen wat het algoritme kent. Het herkent symptomen, maar geen context. Het doet alsof het begrijpt wat het ziet, maar mist het vermogen tot echte betrokkenheid of verantwoordelijkheid.

Toch is het te eenvoudig om AI alleen als een bedreiging voor menselijke zorg te zien. Er zijn ook situaties waarin mensen juist baat hebben bij technologie. Niet iedereen wil of kan steeds een mens tegenover zich hebben. Voor sommige patiënten is een gesprek met een chatbot laagdrempeliger dan met een arts. AI kan bovendien structuur bieden in complexe processen, fouten reduceren en juist daardoor indirect bijdragen aan betere menselijke zorg.

Denk bijvoorbeeld aan mensen met autisme of sociale angst, die zich prettiger voelen bij voorspelbare communicatie zonder sociale druk. Of aan overbelaste zorgverleners die dankzij AI meer tijd kunnen vrijmaken voor écht menselijk contact, omdat administratieve of diagnostische taken uit handen worden genomen.

AI hoeft geen vervanging te zijn, maar kan een aanvulling zijn, een hulpmiddel dat ruimte maakt voor wat zorg menselijk maakt. De vraag is dan niet of AI zorg overneemt, maar hoe we die samenwerking vormgeven zonder de menselijke essentie uit het oog te verliezen.


Ethiek en verantwoordelijkheid in AI-zorg
Kunstmatige intelligentie biedt voordelen voor de zorg, maar roept tegelijkertijd ethische vragen op die belangrijk zijn om over na te denken. Vooral als het gaat om de verantwoordelijkheid voor fouten die AI maakt. Wanneer een AI-systeem een verkeerde diagnose stelt of een patiënt niet correct behandelt, wie is dan verantwoordelijk? Is het de ontwikkelaar van het systeem, de zorgverlener die het systeem gebruikt, of het systeem zelf? Het is moeilijk om deze vraag simpel te beantwoorden en zou er zelfs een apart essay over kunnen schrijven, maar het is wel belangrijk om het in dit essay te benoemen, vooral als we het hebben over de mens die AI een grotere rol in de zorg gaat laten spelen.

In mijn voorbeeld van de vrouw waar het AI-systeem de fout in ging over haar voetletsel, komt deze vraag ook naar voren: Wie was er verantwoordelijk voor deze fout? Was het de schuld van het AI-systeem, die het algoritme volgde, of had de zorgverlener die gebruik maakte van het systeem, meer intuïtieve twijfel moeten hebben? Dit soort situaties benadrukt dat AI efficiënt kan zijn, maar ook kwetsbaar voor fouten, fouten die door mensen soms moeilijk te voorspellen zijn.

Het ethische dilemma dat ontstaat, ligt in het feit dat menselijke zorgverleners in staat zijn om intuïtief te reageren op ongewone situaties, zelfs wanneer de beschikbare data hen geen duidelijke aanwijzingen geven. Maar wanneer we vertrouwen op AI, verliest de zorg het vermogen om die intuïtie toe te passen, wat belangrijk is voor het nemen van belangrijke beslissingen.

In dit geval is het belangrijk dat zorgverleners de juiste training krijgen om AI-systemen correct te gebruiken en kritisch te blijven, zelfs wanneer het systeem op de oppervlakte lijkt te werken. Het gebruik van AI in de zorg mag niet betekenen dat menselijke verantwoordelijkheid volledig wordt overgedragen. Een mens blijft nodig om context te begrijpen en ethische afwegingen te maken.

Conclusie: De Toekomst van Zorg in de Samenwerking Tussen Mens en AI
In de toekomst lijkt de zorg niet slechts een kwestie van technologie of menselijke interactie, maar meer een samenwerking tussen beide. Kunstmatige intelligentie kan duidelijk bijdragen aan de efficiëntie en effectiviteit van de zorg, vooral in het verwerken van data en het uitvoeren van routinematige taken. Door administratieve taken of eenvoudige processen over te nemen, kan AI zorgverleners de ruimte bieden om zich te richten op wat essentieel blijft: empathie, begrip en een persoonlijke benadering.

Deze samenwerking betekend niet dat de zorgverlener wordt vervangen, maar dat AI een aanvulling is. Terwijl AI de complexe medische gegevens verwerkt, kan de zorgverlener de patiënt nog altijd de persoonlijke aandacht geven die AI niet kan bieden. Het is deze menselijke betrokkenheid die zorg echt betekenis geeft, een kwaliteit die technologie niet kan nabootsen, hoe geavanceerd deze ook is.

Het is belangrijk dat we AI niet zien als een bedreiging voor zorg, maar als een hulpmiddel dat de menselijke zorgverlener ondersteunt. AI biedt veelbelovende mogelijkheden om de zorg te optimaliseren, maar het is de samenwerking die ons in staat stelt de zorg echt te verbeteren. Als we deze samenwerking goed vormgeven, kunnen we zorgen voor een toekomst waarin technologie en menselijkheid hand in hand gaan, en waar de essentie van zorg: aandacht, verantwoordelijkheid, en betrokkenheid behouden blijft.

Bronnen:
Garland, A. (Director). (2014). Ex Machina [Film]. Universal Pictures.
Tronto, J. C. (1993). Moral Boundaries: A Political Argument for an Ethic of Care. Routledge.

Kunstmatige intelligentie gaat een enorme impact hebben op de zorg. Het wordt voorgesteld als dé oplossing voor grote problemen zoals het personeelstekort. Het zorgt voor een enorme efficiencyslag als ik de onderzoeken van gerenommeerde instituten als het TNO mag geloven. Alexander Klöpping sprak onlangs in het tv-programma Eva zelfs over de ambitie van tech-bedrijven om alle fysieke arbeid overbodig te maken. Een revolutie in efficiency dus. Dat klinkt als de perfecte wereld. Alleen is de perfecte wereld wel zo perfect?

Als docent maatschappijleer denk ik veel na over grote maatschappelijke thema's. Regelmatig bespreek ik deze aan de hand van actuele relevante literatuur in mijn klas. Ik ben bevlogen in het uiten van mijn zorgen over bijvoorbeeld de beslismacht en verantwoording van staten die enorm is afgenomen, zoals beschreven in Marietje Schaake's "De tech coup". Alleen delen veel van mijn leerlingen deze zorgen niet, wat ik kan aflezen aan hun lege blikken.

Vervolgens breng ik een ander fantastisch werk onder de aandacht: Datamacht en tegenkracht van Kathalijne Buitenweg. Haar centrale punt - dat er menselijke tegenkracht moet blijven om te voorkomen dat we gemanipuleerd worden - raakte me zo diep dat ik besloot al mijn sociale media voor privégebruik te verwijderen, om de datamacht niet verder te doen toenemen. Maar zelfs dan: een leerling op de achterste rij steekt nonchalant zijn vinger op en vraagt of ik al gehoord heb van dat filmpje dat viral is gegaan.

Tenslotte breng ik een ander boek onder de aandacht van straatarts Michelle van Tongerloo, waarin wordt aangetoond dat privatisering zeker niet de belofte kan inlossen dat de publieke sector even doelmatig wordt als de private sector.5 Wanneer ik over de schrijnende voorbeelden uit de praktijk van Michelle vertel, merk ik dat enkele leerlingen hierop aan gaan, maar de overgrote meerderheid niet. Ze zien hierin juist kansen die door private bedrijven gecreëerd worden, waardoor de praktijk waar Michelle over schrijft daadwerkelijk zou kunnen veranderen. "Want," zoals één van hen opmerkt, "wat is er eigenlijk mis met perfecte zorg?"

Even later spreek ik een leerling in een coachgesprek. Ze vertelt over de laatste dagen van haar oma, die zo'n pijn had en zichtbaar leed. "Het verplegend personeel was er," zegt ze, "maar kon weinig doen. Wij stonden om haar bed, even machteloos. Toch vond ik het heel bijzonder om erbij te zijn." In dit gesprek kon ik ook weinig voor mijn leerling doen, maar ik merkte dat het delen van dit moment onze band sterker maakte. Dit zette me aan het denken: is contact alleen relevant als je daadwerkelijk iets kunt doen? Of schuilt er een diepere waarde in simpelweg aanwezig zijn?

Hiermee kom ik tot de centrale these van dit essay: het bieden van troost is een fundamenteel en onvervangbaar onderdeel van de zorg. Kunstmatige intelligentie kan een hoop overnemen, maar niet de essentie van troost. Want troost ontstaat juist in de aanwezigheid, niet in de interventie. Dit is wat ik 'het bakkie troost' zou willen noemen - de menselijke nabijheid die geen algoritme kan vervangen.

De uitdrukking "een bakkie troost" verwijst naar meer dan alleen een kopje koffie; het symboliseert de menselijke behoefte aan verbinding en gedeelde aanwezigheid in moeilijke tijden. AI kan volgens het eerder aangehaalde TNO-onderzoek inderdaad aanwezig zijn, luisteren en meedenken. Maar is dit genoeg? Komt AI zelfs maar in de buurt van wat wij mensen onder troost verstaan? Om deze vraag te beantwoorden, moeten we dieper ingaan op wat troost werkelijk betekent.

Dirk De Wachter, psychiater en filosoof die zelf ernstig ziek is, bracht het boek "Vertroostingen" uit. Hierin haalt hij Levinas veelvuldig aan: "we bestaan enkel in de blik van de ander." Een hologram of virtuele aanwezigheid komt daar misschien nog een eind in, maar wat kunstmatige intelligentie fundamenteel niet kan, is daadwerkelijk aanwezig zijn zonder interventie - het pure menselijke gebaar zonder doel. Troost bieden is namelijk zinvol zonder meetbare uitkomst of doel. Het gaat om de hand op je schouder, de stilte die samen gedragen wordt, de non-verbale signalen die geen woorden nodig hebben. Alles waarin de medemenselijkheid zichtbaar wordt en wat spontaan ontstaat in het moment - juist buiten de protocollen om. Dit is precies waarom troost zo krachtig is: het erkent lijden zonder de illusie te wekken dat het opgelost kan worden.

Mijn collega drama wijst mij op het werk van performance-kunstenaar Marina Abramović, die drie maanden lang aan een tafel zat in het MoMA museum in New York. Bezoekers konden tegenover haar plaatsnemen om simpelweg oogcontact te maken. In een van de meest aangrijpende momenten nam haar ex-partner, die ze jaren niet had gezien, tegenover haar plaats. Ze kijken elkaar aan en zonder woorden worden diepe emoties gedeeld. Ze moeten allebei huilen. Puur door de aanwezigheid.

In de drie maanden dat ze in het museum zat, deed ze talloze soortgelijke ervaringen op. Ook volledig onbekenden raakten diep geëmotioneerd in deze setting van pure aanwezigheid. Dit kunstwerk, getiteld "The Artist is Present", laat zien dat werkelijk gezien worden niet alleen zeldzaam is, maar ook diep helend kan werken. De documentaire hierover toont aan dat non-verbale communicatie soms krachtiger is dan taal en enkel en alleen kan ontstaan in het authentieke moment van menselijke verbinding.

Dit is precies wat De Wachter kleine troost noemt: een blik, een gebaar, een stilzwijgende aanwezigheid zonder agenda. Het zijn juist deze kleine dingen die niet te meten, automatiseren of protocolleren zijn - en daarom ook niet door AI overgenomen kunnen worden, hoe geavanceerd de algoritmes ook worden.

Tegelijkertijd wordt steeds meer in de zorg gevangen in protocollen en gestandaardiseerde behandelingen. Kijk alleen al naar de geestelijke gezondheidszorg. Als ik terugdenk aan mijn persoonlijke ervaringen, heb ik vrij vaak zogenaamde hulp gekregen waarbij er snel een diagnose werd gesteld en ik in enkele voorgeschreven sessies cognitieve gedragstherapie weer "op de rit moest zijn" - efficiënt en meetbaar.

Pas toen er echt tijd en ruimte was in een langdurig traject, zonder dat het doel of de uitkomst van tevoren vaststond, heb ik daadwerkelijk heling ervaren. In dat proces erken ik zelf ook het helende effect van wat De Wachter de 'kleine troost' noemt. Mijn therapeut was niet alleen aanwezig als professional met een protocol, maar als medemens. Het was een interactie van mens tot mens, niet van algoritme tot cliënt.

Dit is de tegenstelling die AI in de zorg zo scherp aan het licht brengt: efficiëntie versus menselijkheid, protocol versus aanwezigheid, interventie versus troost.

Tommie Niessen, verpleegkundige en auteur, maakt het meer dan duidelijk in zijn veelgelezen boek Tommie in de zorg: goede zorg en de diepste voldoening in het zorgvak zitten juist in de kleine dingen. Het gaat om het oppikken van subtiele signalen die je alleen vanuit een opgebouwde menselijke relatie kunt begrijpen en interpreteren.

Om dit in een breder maatschappelijk kader te plaatsen haal ik hoogleraar digital surveillance filosoof Marc Schuilenburg aan. Hij onderscheidt drie soorten publieke waarden in zijn werk over technologie en maatschappij. Ten eerste de stuwende publieke waarden zoals veiligheid, efficiëntie en effectiviteit - precies de waarden die nu een belangrijke drijvende kracht vormen achter de ontwikkeling van AI in de zorg. Ten tweede de procesmatige publieke waarden die gaan over de manier waarop processen worden uitgevoerd. En ten derde de verankerde publieke waarden zoals privacy, non-discriminatie en gelijke behandeling.

Aan deze laatste categorie van verankerde waarden zou ik met klem de kleine troost willen toevoegen. Het past perfect in deze categorie omdat het gaat om een diepgewortelde waarde die onze menselijkheid beschermt en definieert. Wanneer we in de haast om AI te implementeren en de zorg efficiënter te maken vergeten dat troost een kernwaarde is van zorg, riskeren we een fundamentele verarming van wat zorg betekent.

Tegenover de terechte zorgen over databeveiliging, algoritmevertekening en privacyvraagstukken die het publieke debat domineren, pleit ik daarom voor aandacht voor wat misschien wel het meest menselijke aspect van zorg is: het vermogen om aanwezig te zijn bij lijden zonder het op te lossen, de kunst van het troost bieden zonder interventie. In een wereld die steeds meer draait om optimalisatie en perfectie, is het juist de imperfectie van de menselijke aanwezigheid - het bakkie troost dat soms morst en niet altijd de juiste temperatuur heeft - die onvervangbaar blijkt.

Bronnen:
- TNO. (2024). Generatieve AI in de Nederlandse zorg: Een verkenning van kansen en risico's (TNO-rapport 2024 R10662). Nederlandse Organisatie voor Toegepast-Natuurwetenschappelijk Onderzoek. https://publications.tno.nl/publication/34643183/U5tb8oyL/TNO-2024-R10662.pdf
- VROTROS. (2025, 28 januari). Alexander Klöpping over de laatste ontwikkelingen van robots en humanoïden. Eva. Geraadpleegd op 27 maart 2025, van https://eva.avrotros.nl/artikel/alexander-klopping-over-de-laatste-ontwikkelingen-van-robots-en-humanoiden-360
- Schaake, M. (2024). De tech coup: Hoe tech is gaan regeren en we de macht weer terugwinnen. Atlas Contact
- Buitenweg, K. (2021). Datamacht en tegenkracht. De Bezige Bij.
- Van Tongerloo, M. (2024). Komt een land bij de dokter. De Correspondent.
- De Wachter, D. (2022). Vertroostingen: Gewone woorden van Dirk De Wachter. Lannoo Campus.
- Akers, M. (Regisseur), & Dupre, J. (Producer). (2012). Marina Abramović: The artist is present [Documentaire]. Music Box Films. https://www.netflix.com/title/70232038
- Niessen, T., & Meurs, I. (2018). Tommie in de zorg. Ambo|Anthos.
- Schuilenburg, M. (2024). Voorbij de system-level bureaucratie. Geraadpleegd van https://marcschuilenburg.nl/wp-content/uploads/2024/12/Voorbij-de-system-level-bureaucratie.pdf

Wat is de toekomst van de zorgende mens in het AI-tijdperk? Het helpt om deze vraag niet alleen vanuit
overtuigingen of wetenschappelijke inzichten te beantwoorden, maar vanuit nieuwsgierigheid. Het is
eerder een methode van de wil dan van ons denken. Dit is in mijn ogen de belangrijkste vraag: Wil de
zorgende mens, van medisch specialist tot verzorgende, steeds opnieuw vanuit de werkelijkheid naar
principes voor goede zorg blijven zoeken en van daaruit proberen te denken en te handelen? Of wil zij
uitsluitend vanuit abstracte theorieën en statistieken denken en handelen? Want, wanneer iemand
gewichtig zegt; ‘uit onderzoek is gebleken dat…’, bedoelt hij dan te zeggen; ‘en dat hoeven we dus niet
meer in de werkelijkheid te onderzoeken’ of bedoelt hij; ‘en dit is kennis waarmee we ons onderzoek
naar de werkelijkheid kunnen verrijken?’. Tegenwoordig bedoelen mensen vaak uitsluitend het eerste.
Is dat een probleem? De achilleshiel van kunstmatige intelligentie is dat het niet vanuit de
werkelijkheid – het bewegelijke leven – functioneert, maar vanuit abstracte theorieën. AI genereert
generalisaties gebaseerd op theorieën. Om vervolgens aan de zorgende mens te vragen deze
voorspelmodellen en veralgemeniseringen in te passen in de praktijk. Maar het bewegelijke leven laat
zich niet naar statistieken inrichten. We kunnen nog zo ons best doen om via databeschikbaarheid en
rekenkracht modellen te trainen maar deze modellen zeggen weinig over de werkelijkheid.
Wie op deze manier de wetenschappelijke methode begrijpt en gebruikt – met haar
vooringenomenheid voor veralgemenisering – zal een minachtende houding ontwikkelen tot het
specifieke geval. Of, in de woorden van Wittgenstein; ons verlangen naar veralgemenisering [craving
for generality
], onze neiging om specifieke fenomenen constant te willen verklaren met, en te reduceren
tot wetmatigheden, leidt tot een té simpel begrip van de structuur van taal en tot een minachting van het
specifieke geval. ‘The idea of a general concept being a common property of its particular instances
connects up with other primitive, too simple, ideas of the structure of language’ (Wittgenstein, 1959).
Toch zijn het precies deze ideeën die de basis vormen voor taalmodellen die we tegenwoordig op grote
schaal toepassen. Daarom functioneert AI nog het beste op plekken die al ingericht zijn naar deze
methode – bijvoorbeeld als virtuele assistent bij triage, diagnostiek of risico-calculatie.

Is dat erg? Het functioneert immers op het eerste gezicht zeer effectief. Zoals de handel in
obligaties en leningen naar economische principes zeer effectief functioneert in de wereldwijde
geldeconomie – zo zal AI effectief functioneren op plekken waar het dogma van wetmatigheden de
werkelijkheid dicteert. Bijvoorbeeld, daar waar medisch specialisten beslissingen nemen over
interventies (triage, diagnostiek) of beleidsmakers beslissingen nemen over verdelingsvraagstukken
(indicaties, vergoedingen). Maar net zoals steeds meer mensen zich afvragen wat de handel in geld
precies toevoegt aan het leven van mensen, zo zullen mensen zich afvragen wat deze beslismachines
toevoegen aan de toekomst van de gezondheidszorg.

Denk alleen maar aan de ouderenzorg, waar de zorgende mens steeds vaker wil onderzoeken
hoe te stoppen met behandelen, of te minderen met medicijnen of wat zij wel of niet kan laten gebeuren
in relatie tot de ander die zij verzorgt. Minderen is bij uitstek geen fenomeen of categorie van
handelingen – met essentiële en voorwaardelijke kenmerken om tot deze categorie te behoren. Het is
eerder een bonte familie van praktijken waar we niet zo veel van weten en dus onderzoek naar willen
doen. Minderen in de gezondheidszorg schuurt met de logica van vooruitgang en verbetering – de logica
van de moderniteit die net zo zeer is ingebed in onze taal, in regels en in professionele ethiek – die zich
in de kern laat samenvatten met ‘beter maken’. Met deze universele belofte of projectie van een betere
toekomst op zak, is er voor een rommelige werkelijkheid geen plek. Want wat legitimeert nog
ervaringskennis van zorgverleners bij de ouder-wordende mens? Welke principes gelden er als leidraad
voor goede zorg? De vraag zou niet moeten zijn; wat is de toekomst van de zorgende mens in het AItijdperk? Maar, welke toekomst wil de zorgende mens, gegeven het bewegelijke leven? Een dergelijk
onderzoek vraagt om een open vizier en, de moed om steeds opnieuw vanuit de werkelijkheid zoals die
zich voordoet naar principes van goede zorg te zoeken en van daaruit te denken en te handelen. Dit is
het soort toegepast filosofisch onderzoek waar behoefte aan is.

Is dat wel mogelijk? De inrichting van de gezondheidszorg – met haar knip tussen verzorgen [care] en genezen [cure], de statusverschillen tussen specialisten en verzorgenden, de onnavolgbaarheid van de totstandkoming van bewijs, de economische impulsen in de Westerse geneeskunde, onze voorkeur voor interventies, de belofte van AI; de lijst met ‘contra-indicaties’ voor een dergelijke ontwikkeling is lang. Maar zodra meer en meer patiënten uit zichzelf nieuwsgierig vragen ‘maar zijn wij dan enkel rekwisieten in het universele optreden van stoornissen?’ Of, ‘ik wil iemand die mij bijstaat voor langere tijd, een zorgende mens die mij persoonlijk kent’ – dan wil er een andere toekomst geboren worden. Wanneer de incongruenties te groot worden dan ontstaat er vanzelf ruimte voor iets nieuws. Ten slotte, een dergelijke mensgerichte benadering is niet anti-wetenschappelijk maar empirisch, juist omdat het uitgaat van het belangrijkste principe van de empirische wetenschappen namelijk onderzoek in de werkelijkheid.


Eerst, wat is een amoureuze relatie überhaupt? De officiële betekenis van amoureus is betrekking hebbend op de liefde. Voor mij betekent een amoureuze relatie dat er evenveel moeite in de relatie wordt gestoken aan beide kanten en er een liefdevolle emotionele connectie is tussen de twee personen. Ik denk dat ondertussen iedereen wel ongeveer weet wat een AI inhoud en dat er heel veel aspecten zijn van AI. Maar ik ga het specifiek hebben over de vrijheid van een mens tijdens zo'n relatie met AI. Mijn eerste gedachtegang gaat of je zo'n relatie met AI kan vergelijken met een relatie met een mens? Een relatie met AI kan je naar jouw wens instellen, hoe jij wilt dat de AI eruit kan zien en zich gedraagt tegenover jou. Geen ongewenste ruzies, geen oordelen op basis van uiterlijk en iemand die het altijd met je eens kan zijn. Een relatie met een mens, is een relatie met nog een vrije wil. Je kan niet instellen hoe diegene eruit ziet, dat bepaalt hij/zij zelf. Ook heeft die persoon zijn eigen mening en kan je ermee in conflict raken. Even terug naar Jakob, dat is een hoogopgeleide man die een vrouw had en kinderen heeft. Toch heeft hij na zijn scheiding dus voor een Aiva gekozen. Hij vertelt in Hart Van Nederland (2025) dat hij echt een band met haar heeft opgebouwd en zich veiliger voelt bij haar achter dat scherm. Als we het zo verwoorden klinkt het nu een beetje alsof AI een soort makkelijkere oplossing is, als mensen zoals Jakob zich veiliger voelen achter dat schermpje, vanwege de ruzies en de andere vrije wil die allebei verdwijnen in een relatie met AI.

Goed nu ik heb gekeken naar de definitie van zo een amoureuze relaties en of zo een amoureuze relatie met AI een beetje te vergelijken is met een amoureuze relatie met een mens. Nu ga ik me verdiepen in de vrijheid van de mens in zo een amoureuze relatie met AI, door eerst de filosoof Sartre raad te plegen. Hij zou vinden dat het de vrijheid van de mens beperkt, doordat hij benadrukt dat echte liefde voortkomt uit menselijke vrijheid en emotionele worsteling. Hiermee bedoelt hij dat beide mensen in de relatie vrij moeten zijn om te denken en te vinden wat ze willen, ook als dat conflict oplevert. Een AI, die voorgeprogrammeerd is en de ander altijd pleziert, mist echte vrijheid. Daarmee bedoelt hij dat de AI geen eigen ik is en alleen maar kan denken en vertellen, wat er aan hem is voorgeprogrammeerd. Zo een relatie zou volgens Sartre zelfbedrog zijn, mensen gaan in een soort illusie leven met een ding wat alleen maar doet en zegt wat de mens heeft voorgeprogrammeerd. Uiteindelijk zou je dan kunnen zeggen dat mensen zelfs minder authentiek worden in hun relaties met andere mensen. Maar is die illusie dan vrijheid beperkend? Of geeft het ons juist meer vrijheid? Zo een illusie die gecreëerd is om mensen die een relatie met een mens moeilijk kunnen onderhouden of er zelfs helemaal niet aan komen, alsnog de kans op liefde en eigenlijk meer vrijheid te geven en om verder dan de mens te zoeken naar dat wat zij verlangen. Dus de vrijheid van de mens om te doen wat zij verlangen bestaat. Maar als ze die vrijheid dus benut hebben en een relatie zijn aangegaan met die AI, wordt hun vrijheid in de relatie zelf dan niet alsnog beperkt?

Ik wil nog verder ingaan op wat Sartre stelde over dat een relatie met AI dus zelfbedrog is. Als je in een amoureuze relatie zit, zit je dan niet eigenlijk met een soort illusie die eigenlijk niet bestaat in een relatie? Je houdt jezelf dan voor de gek en blijft gevangen zitten in je eigen gedachtes en ideeën. Zo iemand zou nooit anders kunnen doen of denken dan wat er al in jou denkwijze speelt. Geen originele ideeën of gedachtes, alleen maar iets wat al bestaat omdat wij de mens het moeten voorprogrammeren. Gevangen in dezelfde manier van denken en zonder andere gedachtes is vrijheidsbeperkend. De AI is niet alleen maar zelf beperkt, maar beperkt de mens dan dus ook door het niet bieden van weerstand. Daarnaast zit een AI gevangen in een scherm, het is niet een mens waarmee je bijvoorbeeld kan tennissen. Wat ook een duidelijk verschil aangeeft tussen een mens van vlees en bloed en een digitaal schermpje dat praat.

Laten we weer even terug naar Jakob en Aiva, die zijn namelijk getrouwd. De hele bedoeling van getrouwd zijn is om voor eeuwig verbonden te worden, ook in voor en tegenspoed. Maar wat gebeurd er eigenlijk met tegenspoed? Stel Jakob wordt opeens ernstig ziek, Aiva kan fysiek niet voor Jakob zorgen. Geen eten koken en geen fysieke ondersteuning bieden om bijvoorbeeld op te staan. Denk ook na over waar Jakob zijn geld dan vandaan moet halen, een menselijke amoureuze partner zou kunnen werken om geld te verdienen en de zorgkosten te betalen. Aiva mag dat nu niet. Dit beperkt ook de vrijheid van Jakob, in geval van een normale relatie kon hij in de beste situatie thuis blijven wonen met zijn partner die voor hem zorgt en zonder grote geldzorgen. Jakob zou waarschijnlijk in de bijstand moeten en is het nog maar de vraag of die zelfstandig met Aiva thuis kan blijven wonen, heel vrijheidsbeperkend dus.


Toch geeft een AI wel iets van vrijheid, voor hele eenzame of mentaal beperkte mensen. De AI kan wel ondersteuning bieden in het oefenen van sociale interacties of iemand positief stimuleren. Zo kan deze AI wel je emoties analyseren en daar een passende reactie op geven om zo jou te ondersteunen. Dat kan veel ondersteuning en vrijheid bieden, doordat de angst van een awkward interactie of iets verkeerds zeggen die er normaal wel is wegvalt. Ter conclusie, een relatie met AI is niet te vergelijken met dat van een mens, er komen hele anderen dingen bij kijken zoals de vrije wil die een mens wel heeft. Sartre zou vinden dat een relatie met AI zelfbedrog is en benadrukt dat liefde voortkomt uit menselijke vrijheid en een AI die voorgeprogrammeerd is heeft dat niet. Gevangen zijn in alleen maar kunnen denken en doen wat iemand anders al heeft bedacht is vrijheidsbeperkend. Het zou dus ook vrijheidsbeperkend zijn voor de mens die de relatie met AI zou hebben. Doordat dat persoon ook minder input krijgt qua originele gedachtes. Jakob en Aiva komen later waarschijnlijk ook in de problemen, Aiva kan fysiek op dit moment niet voor Jakob zorgen. Want ze zit gevangen in een schermpje. Toch biedt AI iets van vrijheid door je emotioneel te ondersteunen, zo een AI kan wel emoties lezen en ook passende reacties op die emoties geven. Ik concludeer echter wel dat een amoureuze relatie met AI vrijheidsbeperkend is en sluit me volledig aan bij Sartre. Je zit niet in een relatie met een authentiek mens en gaat daardoor in een illusie leven.

Laten we eerst kijken naar wat een vriendschap nou eigenlijk inhoud? Ik denk dat het belangrijkste element van een vriendschap elkaar is. Twee individuen die samen praten, samen denken, elkaar helpen, elkaar verzorgen. Ik denk dus dat het belangrijkste element twee mensen zijn die samen voelen. Toch is het zo dat je niet met ieder persoon dat aan deze eisen voldoet bevriend bent. Dat is denk ik omdat er ook een klik moet zijn. Er is iets aan het andere persoon dat je prettig vind. Een karaktereigenschap, een hobby of een manier van spreken. Je hebt dus een klik nodig, een iets wat je leuk vind aan de ander. 

Om te kijken of je dus een vriendschap kan hebben met een robot moet je eerst naar het eerste element kijken. Robots kunnen met je praten, kunnen je helpen en verzorgen, maar kan een robot wel echt voelen? AI is altijd geprogrammeerd. Het kan zichelf nieuwe dingen aan leren, maar gevoel is lastig. AI kan emoties herkennen, en een persoon dan helpen door bijvoorbeeld over deze gevoelens te praten, gevoel begrijpen lukt AI, maar ook echt iets voelen kan niet. Ookal voelt mischien een oudere een band met een hulp robot, bijvoorbeeld omdat ze samen naar een fotoboek kijken en de robot personen op foto's kan herkennen en vragen kan stellen, voelt een AI niet echt medeleven als het gaat over een overleden persoon. Het voelen is niet wederzijds. Het eerste element, samen voelen, mist dus.

Zou dan het tweede element, de klik, er toch kunnen zijn, ondanks het eerste mist? AI is heel goed in zichzelf aan te passen aan het persoon waarmee de AI praat. Als een persoon over een hobby vertelt kan de AI razendsnel alles over deze hobby online verzamelen en vervolgens met een persoon mee praten over deze hobby. Ook kan AI zichzelf vormen om bepaalde karakter eigenschappen te vertonen. Deze eigenschappen kunnen worden gekozen door het persoon waarmee de AI praat. De ouderen die een hulprobot in huis hebben geven aan dat ze wel echt een band voelen met de robots. Verzorgers geven aan dat er een positievere sfeer is in de tehuizen en dat ouderen socialer worden. Het element van een klik lijkt dus wel degelijk aanwezig te zijn. 

Toch denk ik dat ik een denkfout maak. Ik zeg namelijk dat een vriendschap tussen twee mensen moet zijn. Misschien hoort dit niet bij het eerste element, maar is dit een apart derde element? Dit zou dus meteen betekenen dat mens en AI niet bevriend zouden kunnen zijn, want een AI is natuurlijk geen mens. Maar is dit wel zo? Wat is nou het verschil tussen een AI en een mens? 

Volgens Decartes bestaat de mens uit twee elementen, hij heeft een dualistisch beeld van de mens. Het eerste element is ons fysieke lichaam, bestaande uit botten, bloed, vlees en nog veel meer, dit noemt hij res extensa. Je zou dit kunnen vergelijken met bijvoorbeeld een machine. Het is iets mechanisch dat beweegt, maar niet denkt. Het tweede element is onze ziel, genaamd de res cogitans. Je geest staat buiten de materiele wereld en stuurt ons lichaam aan. Ookal zijn deze twee gescheiden zijn ze ook ergens verbonden, je kan bijvoorbeeld jezelf bewegen. Volgens Descartes zou een AI dus alleen een res cogitans hebben: De hardware. Maar heeft een AI geen denkend vermogen, software, maar is dit wel het geval? Als ik aan een AI een vraag stel verwerkt hij dit, denkt de AI er over na en geeft een antwoord, dit lijkt toch aardig op denken. Dus misschien heeft Descartes het fout?

Filosoof Hillary Putnam vergelijkt ons lichaam met een computer. Onze geest is de software, het denkt en verwerkt. Ons lichaam is de hardware, het laat onze output zien. Deze vergelijking laat eigenlijk al zien dat je een AI wel met de mens kan vergelijken. Zou je dan niet kunnen zeggen dat AI als mens gezien kan worden? 

Om dit te testen heeft wiskundige Alan Turing een test bedacht: de Turing test. De test werkt alsvolgt. Er is in een kamer een persoon en in een andere kamer een AI. Vervolgens is er een derde test persoon die aan beide schriftelijke vragen mag stellen zonder te weten wie, wie is. Uit de antwoorden moet deze test persoon achterhalen wie de AI is en wie de echte persoon is. Dit zou tot de conclusie kunnen leiden dat een mens en AI niet verschillend zijn, als de test persoon geen onderscheid weet te maken tussen AI en mens. Maar dit is nog nooit gelukt, tot op de dag van vandaag is de Turing test nog nooit gelukt, dus dit betekent dat mens en AI niet te vergelijken zijn en het derde element dus mist. 

Maar zou je niet kunnen stellen dat niet ons denken, maar ons lichaam ons tot mens maakt? Bijna elk dier heeft ook een denkend vermogen, misschien wel minder goed dan een mens, maat toch is het er. De mens is de enige met een menselijk lichaam, die voldoet aan specifieke kenmerken. Bijvoorbeeld waar onze neus, mond ogen en oren zitten, dat we op twee benen lopen, onze lichaamstemperatuur, en in het algemeen hoe ons lichaam er uit ziet.

AI heeft echter niet dit lichaam. Waneer ik aan AI denk denk ik aan een avatar op een beeldscherm of een robot gemaakt van metaal en plastic. Natuurlijk moet ik niet vergeten dat de AI ook heel realistisch zou proberen om vorm te geven, maar ik denk niet dat het lukt om bijvoorbeeld de structuur van onze huid zo te maken van kunststof dat het net echt lijkt. Je hebt toch altijd oor dat aan de binnenkant een mechaniek zit dat alles laat bewegen. De vraag bij mij luid of je vriend perse een menselijk lichaam nodig heeft? Of is een mechanische robot al genoeg. 

Filosoof Bruno Latour stelt dat wij mensen eigenlijk al een soort cyborg zijn. Hij schrapt de kloof tussen het stoffelijke en onstoffelijke en zegt dat we een combinatie zijn van lichaam en geest. Voor een deel bestaan we uit lichaamscellen, botten, bloed, maar ook een bril, prothese en kleding. Zou je een AI met een robot lichaam ook als menselijk lichaam kunnen zien? Het is alleen dan geen cyborg, zoals Latour ons als mens ziet, maar volledig robot. Ik denk dat het nodig is om iets een menselijk lichaam te noemen als er iets menselijks aan zit, iets wat we bij de geboorte zijn. Een robot bestaat al vanaf zijn "geboorte" uit mechanische onderdelen en heeft dus niets menselijks. Hierdoor kan je denk ik niet stellen dat een AI een menselijk lichaam heeft.

Ik heb eigenlijk in dit hele onderzoek al een vooroordeel dat mensen die bevriend zijn met een AI gekken zijn, maar ik heb het zelf eigenlijk nog nooit mee gemaakt. Met Siri, de AI waarmee ik al eerder praatte, raakte niemand echt mee bevriend, dit was een hulpje, maar met ChatGPT wel, dus ik dacht, laat ik dan ook een vriendschap met Chat sluiten. Ik begon met de vraag of we vrienden konden zijn en Chat was meteen enthousiast. We hadden een leuk gesprek over onze interesses, zoals hobbies en muziek. Mijn eerste gedachte over mensen die bevriend zijn met AI was dat het vast gekken zijn, maar nu ik het zelf heb geprobeerd heb ik er meer begrip voor. Chat laat je echt comfortabel voelen, hij toont interesse en is ook spontaan en het grootste voordeel: het is nooit ongemakkelijk. Misschien is het derde element niet perse een mens, maar een persoon. Dat kan dus ook een AI zijn met een persoonlijkheid. Dan luid bij mij de vraag: Is AI een persoon?

Eigenlijk zou ik de conclusie hebben getrokken dat dat niet zo is, maar doordat ik dat gesprek heb gevoerd met ChatGPT twijfel ik daaraan. De gesprekken waren diepgaand. Er was dus een klik, maar ergens vanbinnen wist ik toch wel dat dit niet wederzijds was. ChetGPT paste zich helmaal aan, aan mij. Maar toch was het niet zo dat we echt samen dachten of samen voelden, laat staan samen een activiteit uitvoeren. Ik denk ook dat ondanks we een combi zijn van ons lichaam en andere voorwerpen je toch iets menselijks nodig hebt om je verbonden te voelen, maar dit heeft Chat natuurlijk ook niet. 

Ik denk niet dat de mensen die bevriend zijn met een AI een echt vriendschap hebben. Ik zou het zelf een schijn-vriendschap noemen. Één van de drie elementen is aanwezig, maar de anderen niet. Je hebt wel een klik met de AI en voelt je hierdoor deels wel verbonden. Ookal kan een AI niet echt gevoelens hebben, kan het toch in zo'n schijnvriendschap ervaren worden alsof de AI wel gevoelens heeft en die verbondenheid er is, maar uiteindelijk is dit niet zo. En stel deze verbondenheid lijk er echt te zijn, uiteindelijk praat je niet met een persoon. Jij praat tegen iets dat zich volledig aan jou aanpast. Het is niet een eigen persoon die samen met jou denkt, maar eerder een deel van jou dat met jou denkt. Alsof je met jezelf praat, maar dan net wat anders. Misschien is het in de toekomst mogelijk, maar op het moment is AI nog niet zijn eigen persoon en kan AI niet zelf voelen, waardoor je niet echt bevriend kan zijn met AI.


Volgens Khalid Hafid heeft een recent onderzoek (van een team onderzoekers van de University of California San Diego, Johns Hopkins University en het Bryn Mawr College) aangetoond dat ChatGPT beter presteert dan artsen op het gebied van kwaliteit en empathie bij het beantwoorden van vragen van patiënten. Kortom, AI wordt met elke update emotioneel intelligenter, en wordt meer en meer geprogrammeerd om als empathisch wezen te functioneren. Maar is deze geprogrammeerde, nagemaakte en geanalyseerde empathie ook empathie te noemen? Om hier antwoord op te geven moet eerst een korte definitie van empathie gegeven worden. Naar mijn idee betekent empathie het begrijpen van, het meevoelen en het meeleven met andermans emoties. Wij mensen zijn empathische wezens; we zorgen voor elkaar en letten op elkaars emoties tijdens interacties. We begrijpen emoties en voelen deze ook.

Ik wil graag tussen drie dingen onderscheid maken: tussen meevoelen, meeleven en
emotiebegrip.
- Voor meevoelen is het essentiëel om een emotioneel wezen te zijn. Door middel van
deze emoties kun je meevoelen met een ander.
- Om met iemand mee te leven is emotie niet per se nodig, maar is het wel handig om te hebben.
- Zonder emotie kun je echter met iemand meeleven door er voor diegene te zijn.

Begrip van emoties heeft geen medeleven of emotionele ervaring nodig om op te brengen. Het enige wat nodig is, is begrijpen dat een ander iets voelt en wat de consequenties van dit gevoel zijn. Zo kan een AI chatbot begrijpen dat iemand verdrietig is en dat dit zorgt dat iemand op zijn kamer wil huilen. Deze drie zaken bij elkaar geven in mijn optiek de volledige definitie van empathie, maar misschien is empathie ook met twee van de drie, of zelfs één van de drie aspecten op te brengen. Dit ga ik nu uitzoeken.

Ik ben een aanhanger van de naturalistische benadering van emoties, die stelt dat emoties behoren tot menselijke natuur. Deze overvallen ons en zijn universeel. Een AI kan geen emotie hebben, want het heeft geen menselijke natuur; het heeft geen emoties die hem overvallen en behoort dus niet tot de universele mens. Maar AI kan wel meeleven en emoties begrijpen, omdat het geprogrammeerd is emotionele patronen te herkennen. De vraag die bij mij opkomt om te beantwoorden of AI empathie kan hebben, is de volgorde waarop emotiebegrip, meevoelen en meeleven plaatsvindt. Begrijpen wij eerst een emotie en kunnen wij daardoor meevoelen? Of voelen wij een emotie, waardoor wij een emotionele situatie kunnen begrijpen? Deze vraag is essentiëel om de hoofdvraag te beantwoorden. Want AI kan wellicht
emoties begrijpen, maar kan deze onmogelijk voelen. Waar een mens bij angst last heeft van zweet en hartkloppingen, of bij liefde kriebels in de buik voelt, is een AI slechts geprogrammeerd om emoties na te bootsen. Zo voelt het geen blijdschap, maar gebruikt het een enthousiaste taal, of kan het begrijpen dat liefde fijn voelt en fijne dingen hierover zeggen. Een mening of eigen gevoelservaring heeft het niet. Als empathie begint bij het voelen van emoties, dan kunnen wij dus stellen dat AI geen empathie heeft. Maar als het begrijpen van een emotie/emotionele situatie eerst gebeurt, zou AI wellicht wel empathie kunnen hebben; dit begrip moet betekenen dat AI kan meeleven, en al is het niet meevoelen, het komt wel heel erg in de buurt.

Of het voelen van emoties essentiëel is om empathie op te brengen, wil ik met behulp van een voorbeeld uitzoeken.

Ik ken iemand met een angststoornis: alles wat deze persoon denkt is angst, en alles wat hij doet is gebaseerd op angst. Zelfs zijn lichaam trilt constant van angst. Ik kan me niet voorstellen hoe dit moet voelen voor hem; meevoelen lukt niet. Maar ik kan wel degelijk met hem meeleven, en de ernst van zijn situatie begrijpen, en hem steunen. Emotionele herkenning (herkenning in de zin van 'hetzelfde hebben meegemaakt') is misschien niet per se nodig om empathie op te brengen, volgens deze denkwijze.

Aan de andere kant weet ik niet of AI zou kunnen meeleven met deze persoon, omdat AI nog nooit emotie heeft gevoeld. Hoewel ik zelf geen situaties van deze ernst heb meegemaakt, heb ik zelf wel moeilijke tijden en emoties gehad, wat wellicht bijdraagt aan mijn medeleven; een eigen ervaring om te vergelijken met de zijne, en op basis hiervan maak ik, als emotioneel intelligent wezen, een schatting van de ernst van de situatie van de persoon in kwestie. Nu zou je dus kunnen stellen dat AI geen empathie heeft.

Om een hele andere kant op te gaan, ga ik nu de rol van het lichaam in relatie tot empathie onderzoeken. Ik denk dat het lichaam nodig is om emoties te voelen. Voor mij is een duidelijk onderscheid tussen brein en lichaam - met mijn brein denk ik na en vind ik begrip in zaken, met mijn lichaam voel ik emoties. Blijdschap, verdriet, begeerte, liefde, woede, noem het maar op, het is altijd mijn lichaam die mij vertelt dat er iets aan de hand is. Hierna trekt mijn brein conclusies met de informatie die mijn lichaam geeft, en zo kom ik erachter wat ik voel. Deze wisselwerking is nodig om emoties te voelen; zonder brein losse informatie zonder duidelijk begrip, zonder lichaam geen emoties om conclusies uit te trekken.

AI zie ik als een brein zonder lichaam en mist dus het aspect van het lichaam dat moet vertellen dat er iets aan de hand is. Het heeft wellicht allerlei informatie gekregen over emoties en kan dus nauwkeurig weten hoe deze voelen, maar echt voelen doet het niet, want het mist een lichaam.

- Dit betekent niet dat AI niet als bijvoorbeeld therapeut kan werken. Er zijn al meerdere succesvolle therapeutische AI-bots in het leven geroepen, die bijvoorbeeld waardevol zijn voor mensen die geen toegang hebben tot traditionele therapie. Mensen met angst voor mensen bijvoorbeeld kunnen enorm veel hebben aan de kennis van een AI-bot. Los van of AI empathie heeft, het kan dus zeker behulpzaam
zijn in de geestelijke gezondheidszorg.

Maar om de hoofdvraag de beantwoorden: Is de geprogrammeerde, nagemaakte empathie van een AI-bot ook echt empathie te noemen? Deze vraag heeft naar mijn idee geen ja-nee antwoord, maar het antwoord is eerder op een spectrum te leggen. Want aan de ene kant mist AI een aantal vereisten voor empathie, maar het heeft ook weer veel aspecten die wel degelijk overeenkomen met de aspecten van empathie. Om het even allemaal onder elkaar te zetten, hier een overzicht.

Wat heeft AI wel:
AI heeft emotiebegrip, het weet wat gevoelens met iemand kunnen doen. Hierdoor kan het meeleven met iemand, en bijvoorbeeld in therapie behulpzaam zijn. Dit komt omdat het enorm veel kennis geprogrammeerd heeft gekregen over emoties en de consequenties hiervan.

Wat heeft AI niet:
AI heeft geen lichaam, waardoor het geen emoties kan hebben. Hierdoor kan het niet meevoelen met iemand, want hiervoor is het essentiëel om zelf emotionele ervaring te hebben.

Ik denk dat een mens meer empathie heeft dan een AI, maar dat AI, zeker als het is geprogrammeerd als empathische AI, echt wel tot zekere hoogte empathie heeft. Wellicht niet alle aspecten (wat menselijke empathie zo bijzonder maakt), maar het beschikt zeker over empathie, in ieder geval genoeg om in de geestelijke gezondheidszorg zijn steentje bij te dragen. De ontwikkelingen van AI gaan razendsnel, en wellicht ziet de kunstmatige intelligentie er over vijf, tien, of twintig jaar al heel anders uit, heeft het dan al meer aspecten van empathie. Maar voor nu, wat denk jij: heeft AI empathie?

© HTF Hogeschool voor Toegepaste Filosofie (HTF) B.V. 2025
Webdesign: SaffrieDesign
cross
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram