• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Contact

Taxence

Taxence

  • Nieuws & achtergrond
    • Nieuws
    • Branchenieuws
    • Blogs
    • Verdieping
  • Thema’s
    • AI & Tax Technology
    • Arbeid & Loon
    • Belastingplan
    • BTW & Overdrachtsbelasting
    • BV & DGA
    • Duurzaamheid (ESG & CSRD)
    • Estate planning
    • Alle thema’s
  • Opleidingen
    • AI & Tax Tech
    • ESG & CSRD
    • Estate Planning
    • BTW
    • Vastgoed
    • Internationaal
    • Arbeid & Loon
    • Formeel
    • Familiebedrijven
    • VPB
    • Pensioen
  • Carrière
    • Personalia
    • Vacatures
    • Vacature toevoegen
    • Partners
  • Vakinformatie
    • NDFR
    • Addify
    • JES! Knowledge
    • Fiscaal en meer
    • Tax talks
    • Vakblad Estate Planning
    • Specials
  • Kennisbank

Wanneer is werken met AI op kantoor ‘veilig genoeg’?

18 december 2025 door Koen Aarns

AI veiligheid

Het is dinsdagavond, 21:45 uur. De deadline voor het memo over een voorgenomen overname is morgenochtend om negen uur. De structuur staat, maar de tekst mist scherpte. Een collega laten meekijken? Daarvoor is het nu te laat. Dan maar ChatGPT op de privélaptop. Binnen tien minuten staat er een strakkere versie, inclusief vertrouwelijke informatie over een mogelijk bod op een beursgenoteerde partij. “Moet kunnen, het is toch maar een concept? En morgenochtend moet het af zijn!”

De privélaptop als noodoplossing

Dit scenario is niet hypothetisch. Het gebeurt. Officieel klinkt het: “We moeten goed nadenken over hoe we veilig met AI werken.” Ondertussen experimenteert iedereen erop los. De een gebruikt een publieke chatbot op een privélaptop. De ander weigert iedere vorm van AI. Een derde vraagt eerst toestemming en besluit de volgende keer die vraag maar niet meer te stellen.

Tien professionals, tien definities

Vraag professionals wat ‘veilige AI’ is en je krijgt tien verschillende antwoorden. De een denkt vooral aan geheimhouding: vertrouwelijke cliëntinformatie hoort niet in externe systemen. De ander denkt aan reputatie: voorkomen dat het kantoor in het nieuws komt na een datalek of AI-hallucinatie. Weer een ander legt de nadruk op kwaliteit en aansprakelijkheid. Allemaal valide zorgen. Zonder duidelijke afspraken bepaalt het toeval echter wat het zwaarst weegt.

De geheimhoudingsplicht speelt een cruciale rol. Zodra cliëntinformatie in een AI-tool belandt, is er een keuze gemaakt over wie er potentieel toegang toe kan krijgen. De vraag is dan niet alleen of dit technisch veilig is, maar ook of het nog te verantwoorden is tegenover de cliënt.

De échte veiligheidsvraag

Daarom is de vraag ‘is AI veilig?’ op zichzelf niet voldoende. De echte veiligheidsvraag luidt eerder: wat vinden we als kantoor zó belangrijk dat we het bewust willen beschermen wanneer we AI inzetten? Pas als dat helder is, kun je bepalen wanneer iets veilig genoeg is.

Kantoren die die beschermingsvraag expliciet stellen, zien vaak hetzelfde gebeuren: het schaduwgebruik neemt af, collega’s durven te vragen waar de grenzen liggen en tools die wél zijn toegestaan, worden juist eerder gebruikt.

Op kantoor is AI pas ‘veilig genoeg’ wanneer drie dingen tegelijk kloppen:

  1. Er is expliciet gemaakt wat het kantoor wil beschermen (welke soorten dossiers, welke informatie, welke reputatierisico’s);
  2. Hieruit volgen duidelijke grenzen over welke informatie en taken wél en niet via AI mogen lopen;
  3. Medewerkers voelen zich veilig genoeg om twijfel hardop te uiten, in plaats van op eigen houtje te experimenteren op privélaptops.

Dit niveau van duidelijkheid ook binnen jouw organisatie bereiken? Vul dan dit kader in:

Een praktisch kader voor ‘veilig genoeg’ AI-gebruik op kantoor

• Wat beschermen we?
Welke soorten informatie mogen onder geen beding in een extern AI-systeem belanden (bijvoorbeeld lopende M&A-dossiers, strafzaken, zeer gevoelige fiscale structuren)? Zijn er situaties waarin dat wél mag, en wie beslist daarover?
• Aan welke technische basisvoorwaarden moet een systeem voldoen?
Denk aan gegevensopslag binnen de EU, duidelijke afspraken over datagebruik (geen hergebruik voor training), versleuteling van data in transport en opslag, logging en audit¬mogelijkheden, en koppeling aan de bestaande identity- en toegangsstructuur van het kantoor. Niet om ieder risico uit te sluiten, maar om een minimumniveau af te spreken dat past bij beroepsregels en cliëntvertrouwen.
• Welke AI-tools vallen binnen deze ‘veilige zone’, en waarvoor?
Maak een lijst: welke tools zijn toegestaan, voor welke typen werk (bijvoorbeeld onderzoek, structureren van argumenten, stijlredactie) en onder welke beperkingen (wel of geen cliëntnamen, wel of geen volledige documenten). Alles wat níet op die lijst staat, wordt niet gebruikt voor kantoorgebonden werk.

Zonder beleid beslist de deadline

‘Veiligheid’ is niet alleen een eigenschap van een tool, maar vooral ook de manier hoe een kantoor ermee omgaat. Het wordt pas veilig genoeg als helder is welke waarden je wil beschermen, welke grenzen daaruit volgen en hoe je die consequent toepast. Veilig genoeg betekent niet nul risico, maar weten welk risico je professioneel aanvaardbaar vindt.

De vraag of AI ooit volledig veilig wordt, is niet de juiste. E-mail is dat ook niet, werken in de trein evenmin. De echte vraag is of je accepteert dat deadlines zwaarder wegen dan de waarden die je zegt belangrijk te vinden. Bij kantoren die de beschermingsvraag onbeantwoord laten, beslissen individuele medewerkers.

‘Veilig genoeg’ wordt pas een serieuze norm wanneer je het omdraait: bepaal eerst wat je wil beschermen en beslis pas daarna welke vormen van AI daarbij passen. Wie dat gesprek blijft uitstellen, laat de beslissing uiteindelijk vallen op dinsdagvond, kwart voor tien, op een privélaptop.

Over de auteur
Koen Aarns is AI Product Owner bij Lefebvre Sdu. Hij werkt continu aan het nog slimmer maken van GenIA-L: de gespecialiseerde AI-tool voor juristen en fiscalisten.

Doe mee aan ons onderzoek!
Anonimiseren of pseudonimiseren van documenten, hoe belangrijk is dat voor jou / jouw organisatie? We horen het graag! Laat het ons hier weten.

Filed Under: AI & Tax Tech, Fiscaal nieuws, Nieuws

Reageer
Vorige artikel
Voortgang afbouwen schijnzelfstandigheid binnen Rijksoverheid
Volgende artikel
Uitbreiding rechtsbijstand naar fiscaal adviseurs niet nodig

Reader Interactions

Gerelateerde berichten

AI is niet dom – maar radicaal eerlijk

Er was een tijd dat een goed fiscaal advies begon met koffie, een pen en een stapel wetboeken. Die tijd is voorbij. Vandaag open je Copilot of ChatGPT, typt een vraag en wacht af. Wat terugkomt is keurig, beleefd – en volkomen onbruikbaar. Niet omdat de technologie faalt, maar omdat de instructie ontbreekt.

LegalAI

Legal AI heeft genoeg features. Tijd voor integratie

De legal AI-markt explodeert. Elke maand verschijnt er een nieuwe tool. Ook de features, zoals jurisprudentieonderzoek en contractanalyse, zijn indrukwekkend. Maar in de praktijk werkt een jurist en fiscalist dagelijks al snel in zeven, acht applicaties: DSM, zaaksysteem, Word, Outlook, researchtools, interne kennisbanken. Voeg daar twee of drie AI-tools aan toe en je hebt geen tijdswinst meer, maar elf vensters die niet met elkaar praten. En daar gaat de productiviteit weer verloren.

AI veiligheid

Rapport AI-skills 2026: enorme stijging gebruik AI

In 2026 is 72% van alle werknemers een 'regelmatige AI-gebruiker', een cijfer dat twee jaar geleden nog onder de 30% lag.

EC presenteert Digital Omnibus om digitale regelgeving te versimpelen

De Europese Commissie heeft onlangs een omvangrijk digitaal pakket gepresenteerd dat bedrijven in de EU moet helpen minder tijd kwijt te zijn aan administratieve lasten en naleving, en meer ruimte te geven voor innovatie en groei. Centraal staat de ‘digital omnibus’, die regels rond kunstmatige intelligentie, cyberbeveiliging, data en privacy stroomlijnt. Er komen soepelere verplichtingen... lees verder

AI-geletterdheid

AI-geletterdheid: de nieuwe kerncompetentie voor fiscalisten

AI-startups halen momenteel miljoenen aan investeringen binnen. Ook Nederlandse tax tech bedrijven bouwen aan slimmere tools. De belofte is duidelijk: met AI wordt fiscaal werk sneller en efficiënter. De valkuil: AI gebruiken zonder écht te begrijpen wat er ‘onder de motorkap’ gebeurt.

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Primary Sidebar

Opleidingen

Online Basistraining AI voor de fiscale praktijk

Verdiepende AI training voor de fiscale praktijk

Cursus AI-Implementatie – Organiseren van AI-geletterdheid

AI Governance & Compliance: Veilige toepassing van AI in juridische/fiscale praktijk

Fiscale AI-dag

AGENDA

Online cursus Wet Fiscaal Kwalificatiebeleid Rechtsvormen (incl. aanpassing FGR)

Webinar zzp dossier, wanneer is er wel of niet sprake van schijnzelfstandigheid?

Online Basistraining AI voor de fiscale praktijk

Masterclass Inbreng in en terugkeer uit de BV

Masterclass Vastgoedfiscaliteiten

Online cursus Vennootschapsbelastingplicht stichtingen & verenigingen

Masterclass De positie van de samenwoner in de inkomstenbelasting, relatievermogensrecht en vermogensplanning – Civiel en fiscaal

Online cursus De positie van het kind in het erfrecht en estate planning – Civiel en fiscaal

Online cursus introductie participatieregelingen en lucratieve belangen

Online cursus Staken van de onderneming: (turbo)liquidatie, WHOA liquidatie akkoord

Meer opleidingen

Footer

  • Fiscaal nieuws
  • Opleidingen
  • Kennisbank
  • Vacatures
  • Over ons
  • Adverteren op Taxence
  • NDFR
  • JES! (ESG producten)
  • Fiscaal en meer
  • Addify
  • Tax Talks
  • Register Estate Planners (REP)
  • Contact
  • Linkedin
  • X
  • Facebook
  • Aanmelden nieuwsbrief
  • Naar Lefebvre Sdu Webshop

Taxence is een uitgave van
Lefebvre Sdu
Maanweg 174
2516 AB Den Haag

Powered by Lefebvre Sdu

  • Disclaimer
  • Privacy Statement en Cookiebeleid
lefebvre SDU

Het laatste nieuws van
Taxence in je mail?

×