• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Contact

Taxence

Taxence

  • Nieuws & achtergrond
    • Nieuws
    • Branchenieuws
    • Blogs
    • Verdieping
  • Thema’s
    • AI & Tax Technology
    • Arbeid & Loon
    • Belastingplan
    • BTW & Overdrachtsbelasting
    • BV & DGA
    • Duurzaamheid (ESG & CSRD)
    • Estate planning
    • Alle thema’s
  • Opleidingen
    • AI & Tax Tech
    • ESG & CSRD
    • Estate Planning
    • BTW
    • Vastgoed
    • Internationaal
    • Arbeid & Loon
    • Formeel
    • Familiebedrijven
    • VPB
    • Pensioen
  • Carrière
    • Personalia
    • Vacatures
    • Vacature toevoegen
    • Partners
  • Vakinformatie
    • NDFR
    • Addify
    • JES! Knowledge
    • Fiscaal en meer
    • Tax talks
    • Vakblad Estate Planning
    • Specials
  • Kennisbank

Wanneer is werken met AI op kantoor ‘veilig genoeg’?

18 december 2025 door Koen Aarns

AI veiligheid

Het is dinsdagavond, 21:45 uur. De deadline voor het memo over een voorgenomen overname is morgenochtend om negen uur. De structuur staat, maar de tekst mist scherpte. Een collega laten meekijken? Daarvoor is het nu te laat. Dan maar ChatGPT op de privélaptop. Binnen tien minuten staat er een strakkere versie, inclusief vertrouwelijke informatie over een mogelijk bod op een beursgenoteerde partij. “Moet kunnen, het is toch maar een concept? En morgenochtend moet het af zijn!”

De privélaptop als noodoplossing

Dit scenario is niet hypothetisch. Het gebeurt. Officieel klinkt het: “We moeten goed nadenken over hoe we veilig met AI werken.” Ondertussen experimenteert iedereen erop los. De een gebruikt een publieke chatbot op een privélaptop. De ander weigert iedere vorm van AI. Een derde vraagt eerst toestemming en besluit de volgende keer die vraag maar niet meer te stellen.

Tien professionals, tien definities

Vraag professionals wat ‘veilige AI’ is en je krijgt tien verschillende antwoorden. De een denkt vooral aan geheimhouding: vertrouwelijke cliëntinformatie hoort niet in externe systemen. De ander denkt aan reputatie: voorkomen dat het kantoor in het nieuws komt na een datalek of AI-hallucinatie. Weer een ander legt de nadruk op kwaliteit en aansprakelijkheid. Allemaal valide zorgen. Zonder duidelijke afspraken bepaalt het toeval echter wat het zwaarst weegt.

De geheimhoudingsplicht speelt een cruciale rol. Zodra cliëntinformatie in een AI-tool belandt, is er een keuze gemaakt over wie er potentieel toegang toe kan krijgen. De vraag is dan niet alleen of dit technisch veilig is, maar ook of het nog te verantwoorden is tegenover de cliënt.

De échte veiligheidsvraag

Daarom is de vraag ‘is AI veilig?’ op zichzelf niet voldoende. De echte veiligheidsvraag luidt eerder: wat vinden we als kantoor zó belangrijk dat we het bewust willen beschermen wanneer we AI inzetten? Pas als dat helder is, kun je bepalen wanneer iets veilig genoeg is.

Kantoren die die beschermingsvraag expliciet stellen, zien vaak hetzelfde gebeuren: het schaduwgebruik neemt af, collega’s durven te vragen waar de grenzen liggen en tools die wél zijn toegestaan, worden juist eerder gebruikt.

Op kantoor is AI pas ‘veilig genoeg’ wanneer drie dingen tegelijk kloppen:

  1. Er is expliciet gemaakt wat het kantoor wil beschermen (welke soorten dossiers, welke informatie, welke reputatierisico’s);
  2. Hieruit volgen duidelijke grenzen over welke informatie en taken wél en niet via AI mogen lopen;
  3. Medewerkers voelen zich veilig genoeg om twijfel hardop te uiten, in plaats van op eigen houtje te experimenteren op privélaptops.

Dit niveau van duidelijkheid ook binnen jouw organisatie bereiken? Vul dan dit kader in:

Een praktisch kader voor ‘veilig genoeg’ AI-gebruik op kantoor

• Wat beschermen we?
Welke soorten informatie mogen onder geen beding in een extern AI-systeem belanden (bijvoorbeeld lopende M&A-dossiers, strafzaken, zeer gevoelige fiscale structuren)? Zijn er situaties waarin dat wél mag, en wie beslist daarover?
• Aan welke technische basisvoorwaarden moet een systeem voldoen?
Denk aan gegevensopslag binnen de EU, duidelijke afspraken over datagebruik (geen hergebruik voor training), versleuteling van data in transport en opslag, logging en audit¬mogelijkheden, en koppeling aan de bestaande identity- en toegangsstructuur van het kantoor. Niet om ieder risico uit te sluiten, maar om een minimumniveau af te spreken dat past bij beroepsregels en cliëntvertrouwen.
• Welke AI-tools vallen binnen deze ‘veilige zone’, en waarvoor?
Maak een lijst: welke tools zijn toegestaan, voor welke typen werk (bijvoorbeeld onderzoek, structureren van argumenten, stijlredactie) en onder welke beperkingen (wel of geen cliëntnamen, wel of geen volledige documenten). Alles wat níet op die lijst staat, wordt niet gebruikt voor kantoorgebonden werk.

Zonder beleid beslist de deadline

‘Veiligheid’ is niet alleen een eigenschap van een tool, maar vooral ook de manier hoe een kantoor ermee omgaat. Het wordt pas veilig genoeg als helder is welke waarden je wil beschermen, welke grenzen daaruit volgen en hoe je die consequent toepast. Veilig genoeg betekent niet nul risico, maar weten welk risico je professioneel aanvaardbaar vindt.

De vraag of AI ooit volledig veilig wordt, is niet de juiste. E-mail is dat ook niet, werken in de trein evenmin. De echte vraag is of je accepteert dat deadlines zwaarder wegen dan de waarden die je zegt belangrijk te vinden. Bij kantoren die de beschermingsvraag onbeantwoord laten, beslissen individuele medewerkers.

‘Veilig genoeg’ wordt pas een serieuze norm wanneer je het omdraait: bepaal eerst wat je wil beschermen en beslis pas daarna welke vormen van AI daarbij passen. Wie dat gesprek blijft uitstellen, laat de beslissing uiteindelijk vallen op dinsdagvond, kwart voor tien, op een privélaptop.

Over de auteur
Koen Aarns is AI Product Owner bij Lefebvre Sdu. Hij werkt continu aan het nog slimmer maken van GenIA-L: de gespecialiseerde AI-tool voor juristen en fiscalisten.

Doe mee aan ons onderzoek!
Anonimiseren of pseudonimiseren van documenten, hoe belangrijk is dat voor jou / jouw organisatie? We horen het graag! Laat het ons hier weten.

Filed Under: AI & Tax Tech, Fiscaal nieuws, Nieuws

Reageer
Vorige artikel
Voortgang afbouwen schijnzelfstandigheid binnen Rijksoverheid
Volgende artikel
Uitbreiding rechtsbijstand naar fiscaal adviseurs niet nodig

Reader Interactions

Gerelateerde berichten

EC presenteert Digital Omnibus om digitale regelgeving te versimpelen

De Europese Commissie heeft onlangs een omvangrijk digitaal pakket gepresenteerd dat bedrijven in de EU moet helpen minder tijd kwijt te zijn aan administratieve lasten en naleving, en meer ruimte te geven voor innovatie en groei. Centraal staat de ‘digital omnibus’, die regels rond kunstmatige intelligentie, cyberbeveiliging, data en privacy stroomlijnt. Er komen soepelere verplichtingen... lees verder

AI-geletterdheid

AI-geletterdheid: de nieuwe kerncompetentie voor fiscalisten

AI-startups halen momenteel miljoenen aan investeringen binnen. Ook Nederlandse tax tech bedrijven bouwen aan slimmere tools. De belofte is duidelijk: met AI wordt fiscaal werk sneller en efficiënter. De valkuil: AI gebruiken zonder écht te begrijpen wat er ‘onder de motorkap’ gebeurt.

genial

Waarom 95% van AI-pilots strandt en hoe je herkent of jij bij de 5% hoort

Nieuw onderzoek van MIT (State of AI in Business 2025, juli 2025) laat zien dat de overgrote meerderheid van AI-pilots mislukt. Niet door slechte technologie, maar omdat kantoren keuzes maken die voorspelbaar tot mislukking leiden. De kleine groep die wel resultaat boekt, stelt éérst drie fundamentele vragen.  

Van last naar winst: hoe slimme privacy-compliance je bedrijf versterkt

Privacy en AI-compliance: voor veel bedrijven voelt het als een juridisch moeras, een verplichte kostenpost. Maar wat als deze verplichting in werkelijkheid een commerciële kans is? Wat als een slimme aanpak niet alleen risico’s verkleint, maar ook je imago versterkt? Het komt aan de orde op 2 oktober, bij het event Privacy Inside van Lefebvre... lees verder

AI voor fiscalisten: bulldozeren of precisiewerk?

De beloftes over AI zijn groot, maar de vraagtekens ook. Wat betekent AI nou concreet voor de fiscale praktijk? 

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Primary Sidebar

Opleidingen

Online Basistraining AI voor de fiscale praktijk

Cursus AI-Implementatie – Organiseren van AI-geletterdheid

AI Governance & Compliance: Veilige toepassing van AI in juridische/fiscale praktijk

Fiscale AI-dag

Verdiepende AI training voor de fiscale praktijk

AGENDA

Specialisatieopleiding btw en internationaal zakendoen

Webinar voorjaarsnota & vooruitblik Belastingplan 2026

Online cursus Estate planning voor de AB-houder & inkomstenbelasting

Masterclass verantwoord adviseren: Ethiek als kompas in de fiscaliteit

Online cursus ViDA – btw in het digitale tijdperk

Verdiepingscursus DGA-advisering

Leergang Erfrecht

Stoomcursus Estate planning praktisch ingezet

Online cursus Schenken en lenen in familieverband

Mindful het nieuwe jaar in

Meer opleidingen

Footer

  • Fiscaal nieuws
  • Opleidingen
  • Kennisbank
  • Vacatures
  • Over ons
  • Adverteren op Taxence
  • NDFR
  • JES! (ESG producten)
  • Fiscaal en meer
  • Addify
  • Tax Talks
  • Register Estate Planners (REP)
  • Contact
  • Linkedin
  • X
  • Facebook
  • Aanmelden nieuwsbrief
  • Naar Lefebvre Sdu Webshop

Taxence is een uitgave van
Lefebvre Sdu
Maanweg 174
2516 AB Den Haag

Powered by Lefebvre Sdu

  • Disclaimer
  • Privacy Statement en Cookiebeleid
lefebvre SDU

Het laatste nieuws van
Taxence in je mail?

×