AI is allang geen toekomstmuziek meer. In steeds meer sectoren speelt het een rol, waaronder ook de zorg. Tegelijkertijd wordt de roep om kaders en controle luider. In Europa is daar sinds kort concreet werk van gemaakt met de invoering van de AI Act. Maar wat betekent dat eigenlijk voor zorginstellingen, softwareleveranciers en eindgebruikers? En wat zijn de valkuilen bij het ontwikkelen én toepassen van AI-toepassingen, zeker binnen een domein waar betrouwbaarheid en veiligheid cruciaal zijn?

De AI Act: why, how, what
De Europese AI Act is in juni 2023 in het leven geroepen en bedoeld om AI-systemen aan ethische en wettelijke kaders te binden.
In februari 2025 ging de eerste verordening van kracht, met daarin de eis tot geletterdheid en het verbieden van de extreemste algoritmecategorie. De wet maakt onderscheid tussen vier risiconiveaus: laag, beperkt, hoog en onaanvaardbaar. Binnen de zorg bevinden we ons vaak in de categorie ‘hoog risico’, bijvoorbeeld bij het gebruik van AI voor het adviseren van behandelingen of het samenvatten van medische dossiers.
Voor deze toepassingen gelden strenge eisen:
• Transparantie over het gebruik van AI
• Inzicht in hoe het algoritme werkt
• Controle op bias en discriminatie
• Verplichte validatie en documentatie
Systemen die mensen misleiden of manipuleren, zoals deepfakes of gedragsbeoordeling op basis van camerabeelden, vallen onder ‘onaanvaardbaar’ en zijn verboden.
Hoe AI (niet) denkt
AI klinkt vaak slimmer dan het is. Zeker generatieve AI, zoals ChatGPT, genereert tekst door simpelweg te voorspellen welk woord waarschijnlijk volgt op het vorige. Dat doet het model op basis van miljarden voorbeelden uit eerder gezien materiaal. Het ‘begrijpt’ niets, het herkent slechts patronen. Dat leidt soms tot indrukwekkende resultaten, maar ook tot fouten die overtuigend worden gebracht.
Een berucht voorbeeld: een AI die tanks moest herkennen op foto's, bleek uiteindelijk vooral het weer te herkennen, omdat de trainingsfoto’s van tanks op zonnige dagen waren genomen, en de controlegroep op grauwe dagen.
In de zorg is dat risico vele malen groter. Een fout in een patiëntvriendelijke brief is vervelend, maar een fout in een behandeladvies kan levensgevaarlijk zijn. Daarom is het belangrijk dat de arts altijd het laatste woord heeft en valideert bij een medisch advies. Bij het ontwikkelproces beoordelen we ook altijd de ethische gronden en wat we verantwoorde ontwikkelingen vinden.
Van hype naar praktijk
AI wordt steeds vaker ingezet voor praktische toepassingen in de zorg:
• Het opstellen van brieven in begrijpelijke taal
• Samenvattingen van medische dossiers
• Chatbots voor patiëntinformatie
Deze tools kunnen zorgverleners ondersteunen, maar vervangen ze nooit. AI is en blijft een hulpmiddel. Daarom moet altijd menselijke controle plaatsvinden, zeker wanneer er sprake is van medische gegevens of beslissingen.
Validatie, verantwoordelijkheid en vertrouwen
Voor ons als softwareleverancier betekent de AI Act dat ook het ontwikkelproces onder de loep genomen wordt. Niet alleen ons eindproduct moet voldoen aan regels, ook de manier waarop het gebouwd is. Certificering is daarbij essentieel, maar kan kostbaar en tijdrovend zijn. Daarom onderzoeken wij of we niet alleen tools, maar ook onze hele ontwikkelmethode kunnen laten certificeren.
Daarnaast kijken we hoe we ziekenhuizen kunnen ondersteunen, vooral kleinere instellingen die minder kennis of capaciteit in huis hebben om AI op een veilige manier te implementeren.
Privacy en bias: de blinde vlekken
Naast betrouwbaarheid is privacy een groot aandachtspunt. Alles wat in een publiek AI-model wordt ingevoerd, kan in theorie worden hergebruikt, ook broncodes of patiëntdata. Daarom werken steeds meer bedrijven met gesloten, private modellen die draaien op hun eigen servers. Alleen zo is vertrouwelijkheid te waarborgen.
Ook bias is een terugkerend risico; AI leert van de data die het krijgt en als die data discriminerend zijn (zoals bij de wervingstool van groot Amerikaans bedrijf die vrouwen benadeelde), dan worden die vooroordelen klakkeloos overgenomen. In de zorg kan dat bijvoorbeeld leiden tot foute diagnoses of verkeerde behandelingen voor bepaalde patiëntengroepen. Het is dus essentieel om voortdurend te kijken naar de data waarop je traint, leerdoelen te stellen en te kijken hoe dit in de data vertegenwoordigd is. Daarom is goede data-vetting een vereiste, om zo de kwaliteit en betrouwbaarheid ervan te waarborgen.
De balans: kansen benutten, risico’s beheersen
AI biedt enorme kansen om processen te versnellen, personeel te ontlasten en patiënten beter te bedienen. Maar het vereist ook realisme, transparantie en controle. De AI Act helpt ons daarbij, door kaders te scheppen waarin innovatie kan plaatsvinden, zonder dat veiligheid en ethiek uit het oog worden verloren. De belangrijkste les: blijf kritisch. Of je nu ontwikkelaar, zorgverlener of gebruiker bent, AI werkt alleen goed als we zelf ook blijven nadenken.
Meer weten?
Wilt uw zorginstelling ook aan de slag met AI in HiX? Neem contact op met uw accountmanager of mail ons voor meer informatie. We helpen u graag verder!