Waarom AI in de zorg alleen werkt als patiënten het vertrouwen
AI kan de zorg radicaal verbeteren. Maar technologie die niet vertrouwd wordt, wordt niet gebruikt. En AI die niet gebruikt wordt, helpt niemand. Vertrouwen is geen bijproduct — het is de voorwaarde.
Miriam en de AI die ze nooit gebruikt
Miriam is verpleegkundige in een GGZ-instelling. Haar werkgever heeft onlangs een AI-module geïntroduceerd die automatisch zorgplannen suggereert op basis van cliënthistorie. De bedoeling: minder schrijfwerk, meer tijd voor gesprekken.
Miriam gebruikt het systeem niet. Niet omdat ze tech-onkundig is — ze doet dat al jaren. Maar omdat ze niet weet hoe de AI tot zijn conclusies komt. “Stel dat het iets mist,” zegt ze. “Dan heb ik mijn handtekening gezet onder een plan dat ik zelf niet volledig heb gemaakt.”
Miriam is niet de uitzondering. Onderzoek laat zien dat een significante groep zorgprofessionals AI-aanbevelingen stelselmatig negeert — niet vanwege weerstand tegen technologie, maar vanwege een geïnformeerd gebrek aan vertrouwen. En dat gebrek aan vertrouwen is terecht: er zijn te veel gevallen geweest van AI-systemen die weliswaar accuraat waren op populatieniveau, maar faalden voor specifieke patiëntgroepen die ondervertegenwoordigd waren in de trainingsdata.
De paradox van nutteloze AI
Een AI-systeem dat niet vertrouwd wordt, wordt niet gebruikt. Een AI-systeem dat niet gebruikt wordt, levert geen waarde — ongeacht hoe accuraat het is. Vertrouwen is daarmee geen zachte waarde, maar een harde implementatievoorwaarde.
Wat maakt AI vertrouwbaar?
Vertrouwen in AI is geen gevoel. Het is een resultaat van concrete technische en organisatorische keuzes. Vier elementen zijn daarbij bepalend.
1. Uitlegbaarheid (Explainability)
Een zorgverlener moet kunnen begrijpen waarom een AI-systeem een bepaalde aanbeveling doet. Niet op detailniveau van de berekening, maar op het niveau van de redenering: “Op basis van vergelijkbare cliëntprofielen met deze kenmerken, suggereert het systeem behandeloptie X.” Die uitleg maakt het mogelijk om kritisch te evalueren — en is in de zorg wettelijk vereist op grond van de AVG (recht op uitleg bij geautomatiseerde beslissingen).
2. Menselijk toezicht als architectuur
Human-in-the-loop is geen feature die je kunt uitschakelen — het is een architectuurkeuze. In vertrouwbare zorg-AI beslist de professional altijd. Het systeem presenteert opties, geeft context en wijst op risico’s. De clinicus valideert, corrigeert of verwerpt. Dat is geen beperking van AI; het is de reden waarom AI ingezet kan worden in een domein waar fouten mensenlevens raken.
3. Dataveiligheid en privacy als fundament
Patiënten vertrouwen zorginstellingen met de meest gevoelige informatie die er is. Die data mogen nooit worden ingezet voor doeleinden die de patiënt niet heeft goedgekeurd. Privacy-by-design — gegevensbescherming als ingebouwde architectuurkeuze, niet als nagedachte — is de minimumstandaard. NEN 7510 en ISO 27001 zijn daarvoor het kader.
4. Consistentie en reproduceerbaarheid
Vertrouwen groeit door herhaalde positieve ervaringen. Een AI-systeem dat bij vergelijkbare situaties consequent vergelijkbare en logische aanbevelingen doet, wint het vertrouwen van professionals over tijd. Willekeurige of onverklaarbare variatie ondermijnt dat vertrouwen onmiddellijk — en terecht.
Safe-by-design: het wetenschappelijke fundament
Yoshua Bengio, Turing Award-winnaar en een van de meest geciteerde wetenschappers ter wereld, heeft een helder standpunt: de huidige generatie frontier AI-systemen is “opaque and misaligned with human goals.” Via zijn nonprofit-initiatief LawZero werkt hij aan wat hij omschrijft als een “fundamentally new form of advanced AI, designed to be trustworthy and safe.”
Dat klinkt abstract, maar de vertaling naar de zorgsector is concreet. Safe-by-design betekent:
Geen zelfredzame autonomie
AI-systemen die zichzelf corrigeren of opdrachten herinterpreteren zonder menselijke tussenkomst zijn gevaarlijk in de zorg. Safe AI kan niet meer dan waarvoor het is ontworpen.
Transparante doelstructuur
Het systeem werkt naar expliciete, verifieerbare doelen — niet naar geoptimaliseerde proxies die kunnen afwijken van het echte doel. In de zorg: betere cliëntuitkomsten, niet hogere declaratieaantallen.
Aantoonbaar gedrag
Elk besluit is navolgbaar. Niet alleen voor de toezichthouder, maar ook voor de zorgverlener die er dagelijks mee werkt.
Corrigeerbaar door ontwerp
Als een AI-systeem een fout maakt, kan een mens dat corrigeren — en die correctie wordt verwerkt. Het systeem leert van menselijke feedback, niet alleen van data.
Dit is niet het beeld dat de technologiesector altijd uitdraagt. Maar het is het beeld dat de zorg nodig heeft. En het is steeds meer het beeld dat regulators vereisen: de Europese AI Act classificeert AI in de gezondheidszorg als “hoog risico” en stelt hoge eisen aan transparantie, auditeerbaarheid en menselijk toezicht.
Hoe CareHub dit implementeert
Vertrouwen bouw je niet met een whitepaper. Je bouwt het met keuzes die je dagelijks maakt in de architectuur van je systemen. Dit is hoe het CareHub-ecosysteem die keuzes heeft ingebakken.
AI alleen waar het past
Niet elke zorghandeling is geschikt voor AI-ondersteuning. CareHub maakt onderscheid tussen processen waar AI waarde toevoegt (administratieve routines, datadoorzoeking, patronenherkenning) en processen waar menselijk oordeel onvervangbaar is (behandelbeslissingen, risico-inschatting, cliëntrelatie).
Uitleg bij elke aanbeveling
Elke AI-aanbeveling in het CareHub-platform is voorzien van een uitleg op begrijpelijk niveau. Geen black-box output, maar context: op welke data is de suggestie gebaseerd, welke factoren wegen zwaar mee en wat is de betrouwbaarheidsgraad?
Volledige audittrail
Elke AI-interactie wordt gelogd: wat heeft het systeem gesuggereerd, wat heeft de zorgverlener beslist en waarom? Deze audittrail is beschikbaar voor de organisatie, de toezichthouder en — op verzoek — voor de cliënt zelf.
Geen data-export voor modeltraining
Cliëntdata die in het CareHub-platform zijn opgeslagen, worden nooit gebruikt voor het trainen van AI-modellen buiten de eigen organisatie. Datasoevereiniteit is een harde eis, geen marketingbelofte.
Terug naar Miriam
Als het AI-systeem in haar instelling had uitgelegd hoe het tot zijn suggesties komt, haar handtekening alleen had gevraagd na expliciete validatie, en haar de mogelijkheid had gegeven om bij te sturen — had ze het waarschijnlijk wél gebruikt. Dat is het verschil dat safe-by-design in de praktijk maakt.
Vertrouwen is de échte innovatie
De techniek is er. De uitdaging is vertrouwen verdienen. Zorgorganisaties die AI implementeren op basis van transparantie, menselijk toezicht en aantoonbare veiligheid, zullen zien dat hun medewerkers het omarmen. En dat is het moment waarop AI écht waarde gaat leveren.
Lees ook onze andere insights
Ontdek meer over verantwoorde AI, digitale zorg en het CareHub-ecosysteem.
Hoe zet uw organisatie AI verantwoord in?
Ontdek hoe het CareHub-ecosysteem AI integreert op een manier die uw medewerkers kunnen vertrouwen en uw cliënten beschermt. Neem contact op voor een gesprek.
Neem contact op