Wie is aansprakelijk als AI fouten maakt in je bedrijf?

Juridische tips

January 20, 2026

AI op de werkvloer: Wie is aansprakelijk als de computer een fout maakt?

Kunstmatige intelligentie is in korte tijd een vast onderdeel geworden van het dagelijks werk binnen ondernemingen. Van het schrijven van offertes en contracten tot klantenservice, HR en marketing: AI-tools zoals chatbots en tekstgeneratoren worden massaal ingezet.
Maar wat als het misgaat? Wie draait er op voor de schade als AI fouten maakt?

Geen aparte AI-aansprakelijkheidsregels (voorlopig)

De Europese Commissie heeft recent besloten haar voorstel voor een aparte richtlijn over civiele aansprakelijkheid voor AI in te trekken. Volgens de Commissie zat het voorstel “muurvast” bij het Europees Parlement en de Raad van lidstaten. Tegelijkertijd was er stevige kritiek dat Brussel met dit soort regelgeving innovatie zou afremmen.

Dat betekent niet dat AI ongereguleerd is. Met de inmiddels aangenomen AI Act probeert de EU risico’s voor gezondheid, veiligheid en fundamentele rechten te beperken. Maar een specifieke regeling die duidelijk maakt wie civielrechtelijk aansprakelijk is bij schade door AI, ontbreekt voorlopig.

Wat betekent dit voor jou als ondernemer?

Het intrekken van het voorstel betekent vooral dit: we vallen voorlopig terug op het bestaande aansprakelijkheidsrecht. En dat recht is niet geschreven met zelflerende systemen in gedachten.

In de praktijk komt het hierop neer:

  • AI is (nog) geen zelfstandig rechtssubject.
  • De AI “heeft geen schuld”, maar de schade moet wel ergens landen.
  • Die schade komt vrijwel altijd terecht bij de ondernemer die AI inzet.

Of het nu gaat om een onjuiste offerte, een verkeerd juridisch document, een discriminerende selectie of een verkeerd antwoord aan een klant: de verantwoordelijkheid blijft bij de onderneming.

AI en datalekken: een groeiend risico

Het aantal datalekmeldingen dat samenhangt met het gebruik van AI-chatbots op de werkvloer neemt toe.

In veel gevallen gaat het mis doordat medewerkers op eigen initiatief gratis AI-tools gebruiken en daar vertrouwelijke of persoonsgegevens invoeren. Die gegevens worden vaak opgeslagen en mogelijk gebruikt om modellen verder te trainen. Wat er vervolgens met die informatie gebeurt is meestal onduidelijk.

Belangrijk om te weten: het is de organisatie die het datalek moet melden en die verantwoordelijk is en niet de individuele werknemer.

Interne regels en contracten worden steeds belangrijker

Juist omdat specifieke AI-aansprakelijkheidsregels ontbreken wordt het steeds belangrijker om risico’s contractueel en organisatorisch te beheersen. Denk aan:

  • duidelijke afspraken over het gebruik van AI binnen je onderneming;
  • vastleggen welke AI-tools wel en niet mogen worden gebruikt;
  • instructies over het omgaan met vertrouwelijke informatie;
  • en contractuele clausules richting klanten en samenwerkingspartners.

AI is een hulpmiddel

Een belangrijk uitgangspunt dat ook binnen de advocatuur steeds nadrukkelijker wordt benadrukt, is dat AI mag ondersteunen, maar niet mag sturen. De eindverantwoordelijkheid blijft altijd bij de mens.

Voor ondernemers geldt hetzelfde. AI kan processen versnellen en verbeteren, maar ontslaat je niet van zorgvuldigheid, controle en verantwoordelijkheid. 

Vooruitkijken: regel het voordat het misgaat

De verwachting is juist niet dat AI minder belangrijk wordt. De technologie ontwikkelt zich razendsnel, terwijl wetgeving en rechtspraak achterlopen. Dat vraagt om een vooruitziende blik van ondernemers.

Twijfel je of jouw huidige contracten, interne regels of werkwijze voldoende zijn ingericht op AI-gebruik? Dan is dit het moment om daar kritisch naar te kijken. Achteraf repareren is bijna altijd duurder dan vooraf goed regelen.

Leave a Comment

Heb je een advocaat nodig voor juridisch advies? Benieuwd wat wij voor jou kunnen betekenen?

Neem contact op