Aansprakelijkheid bij AI-fouten op het werk

Vier scenario's, vier antwoorden — en vijf maatregelen die het risico in praktijk verkleinen.

Het korte antwoord

De wet wijst aansprakelijkheid bij AI-fouten op het werk in vrijwel alle gevallen toe aan de werkgever. Een AI-systeem is geen rechtssubject; het kan niet aangeklaagd worden. De vraag is dus alleen: welke combinatie van werkgever, leverancier en (zelden) werknemer draait ervoor op.

Vier scenario's en wie aansprakelijk is

1. AI-agent stuurt een verkeerde mail namens de organisatie

De werkgever is contractueel en delictueel aansprakelijk voor handelingen verricht door zijn systemen. Net als een mens-fout in dezelfde rol leidt dit tot het normale contractenrecht (BW boek 6) en aansprakelijkheidsrecht. Een uitsluiting in de algemene voorwaarden van "fouten door AI" is meestal onhoudbaar — bewijs het maar dat de wederpartij dat had moeten weten.

2. AI-systeem geeft verkeerd medisch of juridisch advies aan een klant

De werkgever is aansprakelijk. Aanvullend kan in beroepen met een tuchtrechtelijke component (arts, advocaat, accountant) de mens die het advies heeft "geaccepteerd" en doorgegeven óók tuchtrechtelijk worden aangesproken. De wet verwacht dat AI-output door een bevoegd professional wordt gewogen.

3. Sollicitant wordt door AI ten onrechte afgewezen

De werkgever is verantwoordelijk onder de Awgb (Algemene wet gelijke behandeling) en de AVG. Indirecte discriminatie via een biased dataset wordt door het College voor de Rechten van de Mens stevig opgepakt. Vanaf 2 augustus 2026 geldt bovendien de hoog-risico-classificatie van de AI Act voor wervingsystemen — met expliciete documentatie- en menselijk-toezichts-eisen.

4. AI-veiligheidssysteem mist een bijna-ongeluk in een fabriek

De werkgever blijft Arbowet-aansprakelijk voor een veilige werkplek. Een AI-camera is een hulpmiddel, geen vervanging van de zorgplicht. Bij ernstig letsel of overlijden onderzoekt de Arbeidsinspectie of de zorgplicht is geschonden — niet of de AI "het juiste deed".

Wanneer kan de leverancier worden aangesproken

De Productaansprakelijkheidsrichtlijn is in 2024 herzien (Verordening 2024/2853) om uitdrukkelijk software en AI te omvatten. Vanaf december 2026 (omzetting per lidstaat) kunnen schadelijdenden zich direct op de leverancier beroepen voor schade door een gebrekkig AI-systeem, met soepelere bewijsregels.

Daarnaast geldt onverminderd het contractenrecht: SLA, inspanningsverbintenis, exoneratiebeding. Voor zakelijke AI-licenties zijn de aansprakelijkheidsplafonds vaak laag (twaalf maanden vergoeding) — onderhandel waar mogelijk.

De positie van de werknemer

Werknemers zijn op grond van artikel 7:661 BW alleen persoonlijk aansprakelijk bij opzet of bewuste roekeloosheid. Een werknemer die te goeder trouw een AI-suggestie heeft overgenomen valt daar niet onder. Dat verandert wanneer er expliciete instructies zijn ("controleer iedere AI-output op X"), die werknemer dat heeft nagelaten en de fout daardoor ontstond — dan kan de werkgever in uitzonderlijke gevallen verhaal halen.

Vijf maatregelen die het risico verkleinen

  1. Menselijk eindbesluit verplicht stellen bij iedere uitgaande communicatie, klantadvies of personeelsbesluit dat AI heeft voorbereid. Vastleggen in werkinstructies én in het systeem zelf.
  2. Disclaimers waar passend op AI-gegenereerde communicatie naar klanten — vooral bij chatbots. De AI Act verplicht dit voor "beperkt risico"-systemen.
  3. Beroepsaansprakelijkheidsverzekering nakijken: dekken jullie polis fouten waarbij AI een rol speelde? Veel polissen worden in 2025-2026 aangescherpt; lees de voorwaarden.
  4. Logging op output: bij later geschil moet je kunnen reconstrueren wat de AI voorstelde, wat de mens daarvan maakte en op welke data het was gebaseerd.
  5. Klacht- en correctieprocedure publiek toegankelijk maken — dit dwingt menselijke heroverweging af en voldoet aan AVG art. 22.

Bronnen

Verder lezen

Blijf op de hoogte

Eens per maand een mail met nieuwe artikelen en wetswijzigingen. Geen verkooppraat.