‘Mogen we AI gebruiken in onze communicatie?’ Die vraag klonk vaak in 2025. Het goede nieuws: steeds meer zorgorganisaties zeiden ‘ja’. Met duidelijke kaders. Met zichtbare resultaten. AI is geen hype meer, het wordt een belangrijke factor voor de kwaliteit en de kosten van de zorg.
In dit verhaal blik ik kort terug op de lessen en ontwikkelingen van 2025. En waar liggen de kansen en aandachtspunten voor 2026?
Wat er veranderde in 2025?
AI zit nu overal
Nog geen jaar geleden zat AI vooral in een aparte tab op je browser of in een eigen app. Nu werkt het mee waar jij werkt: in Word, Outlook, Teams, het EPD, je notities.
Je merkt het in kleine, concrete dingen die veel tijd schelen. Patiëntbrieven worden korter en begrijpelijker, zonder drie rondes tussen arts en communicatie. Copilot stelt zinnen voor, en (als het goed) is bewaak jij de toon. Het is misschien niet spectaculair, maar wel merkbaar. En dat is precies hoe je het zou moeten hebben: AI als aanvulling, als assistent, als Aanvullende Intelligentie. En zeker niet als automatische piloot.
Automatische acties uit. Assistentie aan. Jij beslist. Jij bewaakt de stem.
AI kan en doet steeds meer
Natuurlijk gebruik je AI niet alleen bij het (her)schrijven. Ook voor transcripties, samenvattingen, conceptbrieven en beelden maken is praktisch. Een MDO opnemen en vijf minuten later een transcript én actiepunten hebben — het kan, en het werkt. Zo ging Bravis in HiX live met Autoscriber via de generieke speech‑to‑text API. Dat betekent minder schrijftijd en betere dossiervorming.
In Teams zie je hetzelfde: vergaderingen leveren sneller bruikbare actielijsten op. Afdelingen klinken consistenter in hun patiëntbrieven.
Er is wel een keerzijde die zich langzaam aandient.
AI kiest veilige formuleringen. Dat is handig, maar ook generiek. Als je niet oplet, verdwijnt de nuance uit samenvattingen en de kleur uit je communicatie. Concepten die “even” doorrollen naar eindversies worden feiten zonder controle. En ja: er worden persoonsgegevens vastgelegd. Dus moeten toestemming, opslag en bewaartermijnen geregeld zijn. De AP/AVG en NEN‑kaders gelden ook hier en je wilt er niet de fout mee ingaan.
De remedie is praktisch: spreek per outputtype af wat “goed genoeg” betekent. Voor brieven, samenvattingen en beeld een korte checklist. En altijd een eindcheck door een mens met inhoud én bij voorkeur een communicatieblik. Zo versnel je zonder kwaliteit te verliezen.
Wat werkte in 2025?
De grootste winst zat dicht bij de werkvloer. Spraak naar tekst in het EPD verlaagt de administratieve last en maakt informatie sneller beschikbaar voor wie hem echt nodig heeft. Bij patiëntcommunicatie helpt AI complexe termen te vertalen naar begrijpelijke taal. Uiteraard vereist dat wel menselijke eindredactie om de medische juistheid te borgen.
Intern werd het werk soepeler. Door leesbare samenvattingen van MT‑overleggen kunnen medewerkers acties sneller oppakken. Dankzij ingest (documenten doorzoekbaar maken voor AI, met bronverwijzing) zijn beleid, protocollen en handleidingen snel vindbaar. Je vraagt “Wat zegt ons valpreventieprotocol over thuismonitoring?” en krijgt direct de relevante alinea met bron en datum. Ook hier geldt: jij checkt en beslist, AI versnelt het zoeken en samenvatten.
Risicoverhalen om niet te vergeten
We zagen in 2025 en ook daarvoor genoeg voorbeelden waar het misging. Zo werd in Engeland een van de grootste AI-projecten binnen de NHS stilgelegd omdat mogelijk zonder de juiste toestemming de gezondheidsgegevens van 57 miljoen mensen waren gebruikt. In Nederland waarschuwde de AP al eerder voor de kans op datalekken bij het gebruik van AI-chatbots.
De risico’s voor reputatieschade zijn levensgroot, zoals consultancybureau Deloitte merkte toen het AI gebruikte bij (hele dure) rapporten voor de Australische regering. Hierin werden bronnen “geciteerd” die niet bestonden. En de slimme denkers van Deloitte bleken ook hardleers, want ondanks een grote terugbetaling aan de regering van Australië, kreeg iets later ook de Canadese overheid een onderzoeksrapport met AI-hallucinaties.
In 2023 diende advocaat Steven Schwartz een stuk in met door ChatGPT verzonnen jurisprudentie in de Avianca-zaak. De rechter kon de uitspraken niet vinden, eiste bewijs, en trof vervolgens “bogus” opinies en citaten. Het leidde tot een hoorzitting en sancties.
Het patroon is steeds hetzelfde: geen menselijke eindcontrole, onduidelijke kaders, onduidelijke aansprakelijkheid. Wat dit betekent voor de zorg? Niet dat je AI uitzet, maar wel zorg je ervoor dat je proces scherp staat. Daarbij geldt broncontrole als standaard en zijn. menselijke eindbeslissing ingebouwd. Ook is het belangrijk dat je transparant bent over waar AI wel en niet is gebruikt. Dan pak je de winst, zonder de risico’s te ontkennen.
Het beleidsprobleem (en de oplossing)
Duidelijk is dat verbieden van het gebruik van AI niet werkt. Maar het volledig toestaan zonder begeleiding ook niet. De organisaties die wél vooruit kwamen, kozen voor een hybride aanpak: “Ja, met regels.” En dan geen handboek van honderd pagina’s, maar twee A4’tjes met heldere kaders: wat mag, wat niet, wie checkt, waar staat het.
Bijvoorbeeld niet‑gevoelige taken in publieke modellen, interne data in zakelijke varianten. Daarbij horen ook korte, praktijkgerichte trainingen over prompten, privacy en tone of voice. En monitoring van wat er gebeurt, door steekproefsgewijs te controleren op fouten, referenties en bias.
AI adviseert, de mens beslist. Altijd. Of het nu een arts, bestuurder, kwaliteitsmedewerker of communicatieadviseur is. Bronnen en claims controleer je, zeker zolang hallucinatie geen theoretisch fenomeen is maar een groot risico.
Verder is het belangrijk je toon en stijl actief te bewaken. Doe je dat niet, dan vervormt AI je stem tot middelmaat. En wees transparant naar patiënten: benoem waar AI is ingezet, zeker in communicatie en processen die hen raken. Dat bouwt vertrouwen.
Het effect van dit soort maatregelen is voelbaar: minder schaduwdiensten, betere kwaliteit, lager risico, hogere adoptie. En misschien belangrijker nog: rust in de organisatie.
Het gladstrijk‑probleem
Nog even over het vervlakken van teksten. Het is een logisch gevolg van de manier waarop de taalmodellen van AI zijn getraind. Ze optimaliseren de tekst voor wat statistisch het meest voorkomt in die trainingsdata. Dat betekent: veilige formuleringen, voorspelbare structuren, zinnen die niemand choqueren maar ook niemand raken. Alles wat eigenaardig is, wordt gladgestreken. Alles wat karakter heeft, verdwijnt in een zee van professionele middelmaat.
Katie Parrott, schrijver bij Every noemt dit het “timide kopiist”-effect. AI gedraagt zich als een angstige redacteur die elk scherp randje afvijlt uit angst voor kritiek. Grammaticaal klopt het. Het klinkt professioneel. Maar het is vlak. AI herschrijft zonder goede prompting en controle naar wat veilig is, niet naar wat werkt. Het resultaat is communicatie die niemand leest omdat niemand geraakt wordt.
De oplossing is niet AI uitzetten, maar bewaken. Laat AI zwakke plekken in je teksten aanwijzen (te lang, te vaag, inconsistent) en herschrijf die zelf. AI helpt. Jij schrijft. Zo blijft de stem van jouw organisatie herkenbaar en menselijk.
Wat je in 2026 moet weten?
Modellen worden goedkoper en draaien steeds vaker on‑prem of on‑device. Dus niet in de cloud. Dat scheelt vertraging en verbetert privacy. Het wordt steeds normaler dat je zakelijke modellen gebruikt die niet voor trainingsdoeleinden worden gebruikt.
Er komen meer en meer audittrails beschikbaar die je zicht en bewijs geven op het gebruik van AI. Weten wie wat wanneer heeft aangepast is cruciaal bij kwaliteits- en privacy‑audits. Net als DPIA’s die ervoor zorgen dat je vooraf de juiste privacy‑ en veiligheidsmaatregelen neemt. Samen maken ze AI‑gebruik in de zorg verantwoord, herleidbaar en schaalbaar.
Door het multimodale gebruik wordt AI praktisch inzetbaar: tekst, spraak en beeld komen samen in één workflow. Een gesprek kan automatisch worden samengevat, vertaald naar een begrijpelijke patiëntbrief en ondersteund met een visuele uitleg. Dat gebeurt in één proces, zonder handmatige tussenstappen.
Bij het trainen en testen van AI maken we steeds vaker gebruik van synthetische data. Dat zijn kunstmatig gegenereerde datasets die lijken op echte patiëntgegevens, maar geen gegevens van echte mensen bevatten. Zo kun je systemen verbeteren en testen zonder privacyrisico’s of AVG-problemen.
Verder wordt de human-in-the-loop standaard. Dat betekent dat een mens altijd onderdeel blijft van het proces. AI mag voorstellen doen, samenvatten of analyseren, maar de eindbeslissing en eindcontrole liggen bij een zorgprofessional of communicatieadviseur. Die controle is niet vrijblijvend of achteraf, maar vooraf ingebouwd in het proces. Zo blijft het gebruik van AI efficiënt, controleerbaar en veilig.
Wat nu?
Ik heb drie tips voor 2026:
- Begin klein en gericht. Maak een lijst van taken die repeterend, saai of tijdrovend zijn. Dat zijn bij uitstek mogelijkheden om AI slim in te zetten. Taken die inzicht, nuance of je eigen stem vragen, blijven bij mensen.
- Kies één tool en leer die goed. Prompten, privacy, toon. Twee weken investeren levert jaren profijt op. Je kunt weken spenderen aan het testen en vergelijken van de grote hoeveelheid tools, maar de winst zit in het gebruiken, niet in het proberen.
- Spreek af hoe je werkt. Wat mag wel en wat niet? Wie checkt het eindresultaat? Waar slaan we teksten en bestanden op? Meet wat het oplevert: tijdwinst, beter begrip, minder terugvragen. Werkt het? Doorzetten. Werkt het niet? Aanpassen of stoppen.
2025 maakte AI normaal. 2026 laat zien hoe jij er voordeel van hebt. Voor je team, voor je organisatie en voor je cliënten en patiënten. En vandaag is het begin.




