• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Contact

Taxence

Taxence

  • Nieuws & achtergrond
    • Nieuws
    • Branchenieuws
    • Blogs
    • Verdieping
  • Thema’s
    • AI & Tax Technology
    • Arbeid & Loon
    • Belastingplan
    • BTW & Overdrachtsbelasting
    • BV & DGA
    • Duurzaamheid (ESG & CSRD)
    • Estate planning
    • Alle thema’s
  • Opleidingen
    • AI & Tax Tech
    • ESG & CSRD
    • Estate Planning
    • BTW
    • Vastgoed
    • Internationaal
    • Arbeid & Loon
    • Formeel
    • Familiebedrijven
    • VPB
    • Pensioen
  • Carrière
    • Personalia
    • Vacatures
    • Vacature toevoegen
    • Partners
  • Vakinformatie
    • NDFR
    • Addify
    • JES! Knowledge
    • Fiscaal en meer
    • Tax talks
    • Vakblad Estate Planning
    • Specials
  • Kennisbank

Wanneer is werken met AI op kantoor ‘veilig genoeg’?

18 december 2025 door Koen Aarns

AI veiligheid

Het is dinsdagavond, 21:45 uur. De deadline voor het memo over een voorgenomen overname is morgenochtend om negen uur. De structuur staat, maar de tekst mist scherpte. Een collega laten meekijken? Daarvoor is het nu te laat. Dan maar ChatGPT op de privélaptop. Binnen tien minuten staat er een strakkere versie, inclusief vertrouwelijke informatie over een mogelijk bod op een beursgenoteerde partij. “Moet kunnen, het is toch maar een concept? En morgenochtend moet het af zijn!”

De privélaptop als noodoplossing

Dit scenario is niet hypothetisch. Het gebeurt. Officieel klinkt het: “We moeten goed nadenken over hoe we veilig met AI werken.” Ondertussen experimenteert iedereen erop los. De een gebruikt een publieke chatbot op een privélaptop. De ander weigert iedere vorm van AI. Een derde vraagt eerst toestemming en besluit de volgende keer die vraag maar niet meer te stellen.

Tien professionals, tien definities

Vraag professionals wat ‘veilige AI’ is en je krijgt tien verschillende antwoorden. De een denkt vooral aan geheimhouding: vertrouwelijke cliëntinformatie hoort niet in externe systemen. De ander denkt aan reputatie: voorkomen dat het kantoor in het nieuws komt na een datalek of AI-hallucinatie. Weer een ander legt de nadruk op kwaliteit en aansprakelijkheid. Allemaal valide zorgen. Zonder duidelijke afspraken bepaalt het toeval echter wat het zwaarst weegt.

De geheimhoudingsplicht speelt een cruciale rol. Zodra cliëntinformatie in een AI-tool belandt, is er een keuze gemaakt over wie er potentieel toegang toe kan krijgen. De vraag is dan niet alleen of dit technisch veilig is, maar ook of het nog te verantwoorden is tegenover de cliënt.

De échte veiligheidsvraag

Daarom is de vraag ‘is AI veilig?’ op zichzelf niet voldoende. De echte veiligheidsvraag luidt eerder: wat vinden we als kantoor zó belangrijk dat we het bewust willen beschermen wanneer we AI inzetten? Pas als dat helder is, kun je bepalen wanneer iets veilig genoeg is.

Kantoren die die beschermingsvraag expliciet stellen, zien vaak hetzelfde gebeuren: het schaduwgebruik neemt af, collega’s durven te vragen waar de grenzen liggen en tools die wél zijn toegestaan, worden juist eerder gebruikt.

Op kantoor is AI pas ‘veilig genoeg’ wanneer drie dingen tegelijk kloppen:

  1. Er is expliciet gemaakt wat het kantoor wil beschermen (welke soorten dossiers, welke informatie, welke reputatierisico’s);
  2. Hieruit volgen duidelijke grenzen over welke informatie en taken wél en niet via AI mogen lopen;
  3. Medewerkers voelen zich veilig genoeg om twijfel hardop te uiten, in plaats van op eigen houtje te experimenteren op privélaptops.

Dit niveau van duidelijkheid ook binnen jouw organisatie bereiken? Vul dan dit kader in:

Een praktisch kader voor ‘veilig genoeg’ AI-gebruik op kantoor

• Wat beschermen we?
Welke soorten informatie mogen onder geen beding in een extern AI-systeem belanden (bijvoorbeeld lopende M&A-dossiers, strafzaken, zeer gevoelige fiscale structuren)? Zijn er situaties waarin dat wél mag, en wie beslist daarover?
• Aan welke technische basisvoorwaarden moet een systeem voldoen?
Denk aan gegevensopslag binnen de EU, duidelijke afspraken over datagebruik (geen hergebruik voor training), versleuteling van data in transport en opslag, logging en audit¬mogelijkheden, en koppeling aan de bestaande identity- en toegangsstructuur van het kantoor. Niet om ieder risico uit te sluiten, maar om een minimumniveau af te spreken dat past bij beroepsregels en cliëntvertrouwen.
• Welke AI-tools vallen binnen deze ‘veilige zone’, en waarvoor?
Maak een lijst: welke tools zijn toegestaan, voor welke typen werk (bijvoorbeeld onderzoek, structureren van argumenten, stijlredactie) en onder welke beperkingen (wel of geen cliëntnamen, wel of geen volledige documenten). Alles wat níet op die lijst staat, wordt niet gebruikt voor kantoorgebonden werk.

Zonder beleid beslist de deadline

‘Veiligheid’ is niet alleen een eigenschap van een tool, maar vooral ook de manier hoe een kantoor ermee omgaat. Het wordt pas veilig genoeg als helder is welke waarden je wil beschermen, welke grenzen daaruit volgen en hoe je die consequent toepast. Veilig genoeg betekent niet nul risico, maar weten welk risico je professioneel aanvaardbaar vindt.

De vraag of AI ooit volledig veilig wordt, is niet de juiste. E-mail is dat ook niet, werken in de trein evenmin. De echte vraag is of je accepteert dat deadlines zwaarder wegen dan de waarden die je zegt belangrijk te vinden. Bij kantoren die de beschermingsvraag onbeantwoord laten, beslissen individuele medewerkers.

‘Veilig genoeg’ wordt pas een serieuze norm wanneer je het omdraait: bepaal eerst wat je wil beschermen en beslis pas daarna welke vormen van AI daarbij passen. Wie dat gesprek blijft uitstellen, laat de beslissing uiteindelijk vallen op dinsdagvond, kwart voor tien, op een privélaptop.

Over de auteur
Koen Aarns is AI Product Owner bij Lefebvre Sdu. Hij werkt continu aan het nog slimmer maken van GenIA-L: de gespecialiseerde AI-tool voor juristen en fiscalisten.

Doe mee aan ons onderzoek!
Anonimiseren of pseudonimiseren van documenten, hoe belangrijk is dat voor jou / jouw organisatie? We horen het graag! Laat het ons hier weten.

Filed Under: AI & Tax Tech, Fiscaal nieuws, Nieuws

Reageer
Vorige artikel
Voortgang afbouwen schijnzelfstandigheid binnen Rijksoverheid
Volgende artikel
Uitbreiding rechtsbijstand naar fiscaal adviseurs niet nodig

Reader Interactions

Gerelateerde berichten

AI

Vier AI-partners, één dossier – in anderhalf uur

Maandagochtend, half tien. Een klant belt: de inspecteur wil zijn loon corrigeren, de bezwaartermijn loopt vrijdag af. Vroeger kostte dit een halve dag zoeken, schrijven en afstemmen. Nu werkt Ron Meijer met vier AI-partners die elk hun eigen rol vervullen – en heeft hij binnen anderhalf uur een compleet, uitlegbaar dossier.

Risicocategorieën AI Act blijven onderbelicht, terwijl de verplichtingen al gelden

Over de risicocategorieën van de EU AI Act is opvallend weinig te horen, terwijl de bijbehorende verplichtingen en sancties al van kracht zijn. De aandacht ging vooral naar Artikel 4 van de Verordening, dat door fiscale én juridische experts breed wordt geïnterpreteerd als trainingsplicht. Maar daarmee houdt het niet op.

AI

AI gebruiken is één ding – het kunnen uitleggen is een ander

Stel: je gebruikt AI om een bezwaarschrift op te stellen. De inspecteur vraagt: “Hoe is dit tot stand gekomen?” Kun je dat antwoorden? Niet vaag, maar concreet – welke tool, welke bronnen, wie heeft het beoordeeld?

AI

AI is niet dom – maar radicaal eerlijk

Er was een tijd dat een goed fiscaal advies begon met koffie, een pen en een stapel wetboeken. Die tijd is voorbij. Vandaag open je Copilot of ChatGPT, typt een vraag en wacht af. Wat terugkomt is keurig, beleefd – en volkomen onbruikbaar. Niet omdat de technologie faalt, maar omdat de instructie ontbreekt.

LegalAI

Legal AI heeft genoeg features. Tijd voor integratie

De legal AI-markt explodeert. Elke maand verschijnt er een nieuwe tool. Ook de features, zoals jurisprudentieonderzoek en contractanalyse, zijn indrukwekkend. Maar in de praktijk werkt een jurist en fiscalist dagelijks al snel in zeven, acht applicaties: DSM, zaaksysteem, Word, Outlook, researchtools, interne kennisbanken. Voeg daar twee of drie AI-tools aan toe en je hebt geen tijdswinst meer, maar elf vensters die niet met elkaar praten. En daar gaat de productiviteit weer verloren.

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Primary Sidebar

Opleidingen

Stoomcursus AI voor Fiscale professionals

Online Basistraining AI voor de fiscale praktijk

Verdiepende AI training voor de fiscale praktijk

Cursus AI-Implementatie – Organiseren van AI-geletterdheid

AI Governance & Compliance: Veilige toepassing van AI in juridische/fiscale praktijk

AGENDA

Masterclass De positie van de samenwoner in de inkomstenbelasting, relatievermogensrecht en vermogensplanning – Civiel en fiscaal

Nationaal Btw Congres 2026

Online cursus introductie participatieregelingen en lucratieve belangen

Online cursus Internationale aspecten van Nederlandse belastingwetgeving

Online cursus Auto van de zaak

Online cursus Staken van de onderneming: (turbo)liquidatie, WHOA liquidatie akkoord

Stoomcursus Erfrecht – Civiel en fiscaal – Het hele erfrecht in één dag! 

Stoomcursus AI voor Fiscale professionals

Specialisatieopleiding Estate Planning

Basiscursus Estate planning

Meer opleidingen

Footer

  • Fiscaal nieuws
  • Opleidingen
  • Kennisbank
  • Vacatures
  • Over ons
  • Adverteren op Taxence
  • NDFR
  • JES! (ESG producten)
  • Fiscaal en meer
  • Tax Talks
  • Register Estate Planners (REP)
  • Contact
  • Linkedin
  • X
  • Facebook
  • Aanmelden nieuwsbrief
  • Naar Lefebvre Sdu Webshop

Taxence is een uitgave van
Lefebvre Sdu
Maanweg 174
2516 AB Den Haag

Powered by Lefebvre Sdu

  • Disclaimer
  • Privacy Statement en Cookiebeleid
lefebvre SDU

Het laatste nieuws van
Taxence in je mail?

Aanmelden

 

×