Moet je AI gebruiken als je nieuwe beste vriend?
AI wordt steeds vaker gebruikt om persoonlijke kwesties te bespreken.
Iedere week verzamel ik (geautomiseerd uiteraard) de meest interessante AI artikelen en onderzoek. Want naast het verder uitbouwen van mijn AI Agency blijft het belangrijk om op de hoogte te blijven. En dat is een uitdaging. Maar meestal stuit ik wel op artikelen die me persoonlijk veel plezier brengen om te lezen. Met name de onderzoeken die Anthropic (makers van Claude) doen zijn super interessant.
Dus dook ik op mijn vrijdagavond in het nieuwe onderzoeksrapport van Anthropic. Ze hebben 4,5 miljoen Claude-gesprekken geanalyseerd, niet om te turven hoeveel code-snippets er werden gegenereerd, of om bedrijfsinformatie los te peuteren, maar om te ontdekken hoe vaak mensen hun diepste twijfels, liefdesverdriet of onrust bij een chatbot droppen.
Het bleek een privacyslim onderzoek: alle data geanonimiseerd via hun Clio-tool, waardoor we toch scherp zicht krijgen op de emotionele kant van AI-gebruik zonder iemands dagboek op straat te leggen.
Want hoewel wij dagelijks voor bedrijven bezig zijn om AI verder te implementeren is en blijft het belangrijkste aspect het persoonlijk gebruik van AI. En hoe meer je het persoonlijk gebruikt, hoe meer je dat ook in het werk zal doen.
Want dezelfde AI die je ’s avonds helpt relatietherapieën uit te pluizen, zet je de volgende ochtend in voor een boarddeck. De grens tussen privé-gepruttel en zakelijke besluitvorming kan klein zijn. Zo stel ik: wie thuis leert prompten, fact-checken en kaders stellen, vergroot op kantoor zijn beslissnelheid en creativiteit.
TL;DR
2,9 % van alle gesprekken met Claude zijn affectief: mensen zoeken steun, advies of simpel gezelschap. Dat lijkt weinig, maar het betreft nog steeds ruim 131 000 diepgaande gesprekken.
Binnen die 2,9 % gaat het gros over interpersoonlijk advies en coaching (samen ± 2,4 %). Romantisch of seksueel rollenspel komt amper voor (< 0,1 %), vooral omdat Claude dat actief ontmoedigt.
Sam Altman waarschuwt in de eerste OpenAI-podcast: “AI hallucineert; zie het als een briljant ideeënkanon, niet als het evangelie.” Met andere woorden: blind vertrouwen is een strategische fout.
Waarom zoeken we warmte bij chatbots?
Anthropic laat zien dat emotioneel gebruik misschien klein is in absolute aantallen, maar groot qua impact. Slechts 0,5 % van alle Claude-interacties is puur “gezelligheid” of romantische rollenspel, maar bijna de hele rest van die 2,9% draait om relationele conflicten, loopbaandilemma’s en mentale belastbaarheid. Die thema’s zijn zwaarder dan een simpele small-talk prompt, en het feit dat mensen er met een chatbot over beginnen zegt iets over hun behoefte aan een oordeelloos, 24/7-beschikbaar klankbord.
Waarom niet gewoon een vriend bellen? Drie observaties uit het rapport geven inzicht:
(1) Anonimiteit verlaagt de drempel om kwetsbaar te zijn;
(2) Claude onthoudt context en vat samen zonder oordeel – iets wat we bij mensen zelden consequent krijgen;
(3) De kosten zijn nihil in tijd én geld.
Dat trio maakt AI voor sommigen aantrekkelijker dan een mens, vooral wanneer schaamte, tijdzones of therapietarieven in de weg staan.
De werk-levencyclus – hoe privé-prompten je productiever maakt
Ik herken het patroon bij klanten én bij mezelf:
Avond – relatiecoaching: Claude helpt de ruzie met je partner te ontleden in belangen, behoeften en “non-negotiables”. De structuur die je meekrijgt, dient als sjabloon voor…
Ochtend – boarddeck: dezelfde balkenschema’s gebruik je om risico’s en stakeholders van een B2B-deal in één prompt te plotten.
Middag – sales-mail: de empathische toon uit de relatietherapie-prompt blijkt perfect om een kritische prospect warm te houden.
Door thuis laagdrempelig te experimenteren ontdek je sneller welke prompt-patronen wél werken – een vliegwiel dat je professionele output versnelt zonder dure trainingsprogramma’s.
De realiteitscheck: hallucinaties blijven het zwakke punt
Sam Altman zei het onomwonden: “Mensen hebben een ontzettend hoog vertrouwen in ChatGPT – te hoog, want AI hallucineert nog steeds.” Hij noemde het “de technologie die je juist niet blind zou moeten vertrouwen”. Dit klinkt als oud nieuws, maar het heeft een nieuwe lading nu we AI als vertrouweling inzetten.
Een hallucinatie over een restaurantopening is vervelend; een foute suggestie over antidepressiva kan levensgevaarlijk zijn.
Mijn checklist (nu ook thuis getest):
Bronverificatie – Remind jezelf om feiten buiten de chat te checken.
Rol-scheiding – aparte chats voor “persoonlijk” en “project X”.
Transparantie-labels – vraag de AI expliciet om ‘FEIT’, ‘BRON’ en ‘SPECULATIE’ te taggen, zodat je visueel ziet waar de zwakke plekken zitten.
Waar trekken we de grens?
Claude weigert in minder dan 10 % van de coaching- of therapie-chats, meestal om de gebruiker te beschermen tegen schadelijk advies of zelfbeschadiging. Dat lijkt weinig, maar bedenk dat bij miljoenen gesprekken elke procent tienduizenden risico-momenten vertegenwoordigt.
Tegelijkertijd laat een MIT-Media-Lab-studie zien dat zwaardere chatbot-gebruikers vaker eenzaamheid en minder sociaal contact rapporteren.
In de kortetermijn kan AI steun geven, maar op lange termijn ligt emotionele afhankelijkheid op de loer.
De boodschap: AI mag helpen, maar moet niet je enige schouder worden om op uit te huilen.
Praktisch aan de slag
Spreid je bronnen. Gebruik AI als één van meerdere adviseurs – combineer met menselijk feedback-loops.
Log je sessies. Laat de chatbot een beknopte samenvatting maken; zo kun je later teruglezen waar eventuele hallucinaties inslopen.
Plan menselijke check-ins. Zet (ja, old-school) belafspraken in je agenda om gevoelige beslissingen altijd even met een collega of vriend te toetsen.
Conclusie – mijn take
AI als maatje is een katalysator: hij versnelt reflectie, structuur en zelfs creativiteit. Maar warmte komt nog steeds uit menselijk weefsel, niet uit computers.
De winnaars zijn straks de professionals die bewust oefenen met AI, voortdurend testen en durven te twijfelen aan elk antwoord. Zo bouw je een voorsprong zonder de menselijke factor te verliezen.
Wat denk jij? Durf jij je diepste twijfels aan een chatbot toe te vertrouwen, of blijft dat terrein exclusief voor mensen? Reageer – ik lees elke reply.
Tot de volgende,
Olaf Lemmens
Founder | NinA AI Agency
P.S. Sparren over verantwoord AI-gebruik in jouw organisatie? Plan een call: www.nina-ai.nl
Dit artikel komt uit mijn LinkedIn nieuwsbrief. Deze vind je hier!