Miriam en de AI die ze nooit gebruikt
Miriam is verpleegkundige in een GGZ-instelling. Haar werkgever heeft onlangs een AI-module geïntroduceerd die automatisch zorgplannen suggereert op basis van cliënthistorie. De bedoeling: minder schrijfwerk, meer tijd voor gesprekken.
Miriam gebruikt het systeem niet. Niet omdat ze tech-onkundig is — ze doet dat al jaren. Maar omdat ze niet weet hoe de AI tot zijn conclusies komt. 'Stel dat het iets mist,' zegt ze. 'Dan heb ik mijn handtekening gezet onder een plan dat ik zelf niet volledig heb gemaakt.'
Miriam is niet de uitzondering. Een significante groep zorgprofessionals negeert AI-aanbevelingen stelselmatig — niet vanwege weerstand tegen technologie, maar vanwege een geïnformeerd gebrek aan vertrouwen. Een AI-systeem dat niet vertrouwd wordt, wordt niet gebruikt.
“Vertrouwen is de échte innovatie in AI voor de zorg.”
Wat maakt AI vertrouwbaar?
Vertrouwen in AI is geen gevoel. Het is een resultaat van concrete technische en organisatorische keuzes. Een zorgverlener moet kunnen begrijpen waarom een AI-systeem een bepaalde aanbeveling doet. In zorgcontexten is uitlegbaarheid essentieel voor transparantie, AVG-verantwoording (art. 13–15 en 22) en — voor hoog-risico AI-systemen — AI Act-compliance.
Human-in-the-loop is geen feature die je kunt uitschakelen — het is een architectuurkeuze. In vertrouwbare zorg-AI beslist de professional altijd. Het systeem presenteert opties, geeft context en wijst op risico's. De clinicus valideert, corrigeert of verwerpt.
Patiënten vertrouwen zorginstellingen met de meest gevoelige informatie die er is. Die data mogen nooit worden ingezet voor doeleinden die de patiënt niet heeft goedgekeurd. Privacy-by-design is de minimumstandaard.
Safe-by-design: het wetenschappelijke fundament
Yoshua Bengio, Turing Award-winnaar, werkt via zijn nonprofit LawZero aan een nieuwe generatie AI: 'designed to be trustworthy and safe.' Het uitgangspunt: de huidige frontier-systemen zijn opaque en niet-aligned met menselijke doelen.
Safe-by-design betekent: geen zelfredzame autonomie. AI-systemen die zichzelf corrigeren zonder menselijke tussenkomst zijn gevaarlijk in de zorg. Safe AI kan niet meer dan waarvoor het is ontworpen — werkend naar expliciete, verifieerbare doelen.
De Europese AI Act classificeert AI in de gezondheidszorg als 'hoog risico' en stelt hoge eisen aan transparantie, auditeerbaarheid en menselijk toezicht. Dit is het beeld dat de zorg nodig heeft én dat regulators vereisen.
Hoe CareHub dit implementeert
Het CareHub-ecosysteem maakt onderscheid tussen processen waar AI waarde toevoegt en processen waar menselijk oordeel onvervangbaar is. Elke AI-aanbeveling in het platform is voorzien van uitleg op begrijpelijk niveau.
Elke AI-interactie wordt gelogd: wat heeft het systeem gesuggereerd, wat heeft de zorgverlener beslist en waarom? Dat maakt auditing — en leren — mogelijk.
Cliëntdata die in het CareHub-platform zijn opgeslagen, worden nooit gebruikt voor het trainen van AI-modellen buiten de eigen organisatie. Datasoevereiniteit is een harde eis.


