Naar een betekenisvolle uitleg van AI-toepassingen in de financiële dienstverlening

DossierRAAK.MKB17.003
StatusLopend
Startdatum1 april 2023
Einddatum31 maart 2025
RegelingRAAK-mkb
Thema's
  • Sleuteltechnologieën
  • Veiligheid
  • Bètatechniek
  • Waardecreatie door verantwoorde toegang tot en gebruik van big data
  • Smart industry
  • High Tech Systemen en Materialen (HTSM)
  • Sleuteltechnologieën en duurzame materialen

Artificiële intelligentie (AI) wordt steeds meer toegepast door financiële dienstverleners in Nederland. Uitlegbaarheid van de uitkomsten en werking van AI-toepassingen wordt daarbij gezien als een belangrijke voorwaarde om vertrouwen van consumenten en maatschappij in AI-toepassingen te borgen. Financiële dienstverleners zien dan ook het belang van uitlegbare AI maar geven aan te worstelen met de implementatie en met name de vraag hoe uitkomsten van complexe AI-toepassingen om te zetten naar een begrijpelijke uitleg voor medewerkers zoals klantacceptanten, schadebehandelaren en hypotheekadviseurs. Dat is van belang omdat deze medewerkers met de klant communiceren en in staat moeten zijn om die een uitleg te geven bijvoorbeeld als de schadeclaim van een klant wordt afgewezen omdat die door een AI-toepassing als frauduleus is bestempeld. Kortom, als medewerkers het niet begrijpen, begrijpt de klant het ook niet. Daarnaast speelt dat de aankomende EU AI Verordening ook eisen gaat stellen aan de uitlegbaarheid van bepaalde risicovolle AI-toepassingen. Dit project heeft tot doel handreikingen te ontwikkelen voor een betekenisvolle uitleg zodat medewerkers binnen de financiële dienstverlening de werking en uitkomsten van de AI-toepassingen die ze gebruiken beter begrijpen. De onderzoeksaanpak is gebaseerd op design science en daarbinnen een mix van methoden. Allereerst worden eisen en behoeften aan betekenisvolle uitleg in kaart gebracht op basis van use cases van financiële dienstverleners, literatuur, markt en wet- en regelgeving. Vervolgens worden voor de use cases prototypes ontwikkeld van betekenisvolle uitleg die paarsgewijs aan medewerkers van zo’n use case worden voorgelegd die daaruit een keuze moeten maken. De opgedane inzichten worden vertaald naar handreikingen in de vorm van tools en instrumenten voor het genereren, communiceren en evalueren van een betekenisvolle uitleg. Tot slot worden deze handreikingen beproefd in een regulatory sandbox voor een bepaalde use case om te toetsen of ze hulp bieden bij het voldoen aan wet- en regelgeving.  

Contactinformatie

Consortiumpartners

bij aanvang project

Netwerkleden

  • Nederlandse AI Coalitie