Designing Responsible AI for Media Applications (DRAMA)

DossierRAAK.PUB08.040
StatusLopend
Startdatum1 oktober 2021
Einddatum31 december 2023
RegelingRAAK-publiek
Thema's
  • Bètatechniek
  • Waardecreatie door verantwoorde toegang tot en gebruik van big data
  • Creatieve industrie
  • Kunst en de creatieve industrie
  • Sleuteltechnologieën en duurzame materialen
  • Veerkrachtige samenleving: in wijk, stad en regio

Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data.
Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan.
Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is.
Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen.
De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.

Eindrapportage

Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de
automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat
gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord
gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes,
over toenemende polarisatie door de verspreiding van radicale content en desinformatie door
algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel
mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten
gaan. Bij aanvang van het project gaven mediaorganisaties aan dat bestaande ethische
instrumenten voor verantwoorde AI vaak onvoldoende houvast bieden voor het ontwerp en de
inzet van verantwoorde AI, mede omdat deze instrumenten niet specifiek zijn toegespitst op het
mediadomein. In dit onderzoeksproject hebben we mediaorganisaties ondersteund en begeleid
bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en
inzetten van verantwoorde AI-toepassingen, door domein-specifieke ethische instrumenten te
ontwikkelen. In het project zijn vier ethische instrumenten ontwikkeld (nieuw of aanpassing
bestaand instrument), en ingezet in de volgende vier casussen van de deelnemende
mediaorganisaties: pluriform aanbevelen (instrument: prototypes), inclusieve spraakherkenning
(instrumenten: maten van bias en model cards), muziekselectie (instrument: AI impact
assessment-versie A) en sprekerslabeling (instrument: AI impact assessment-versie B). De inzet
van deze ethische instrumenten leidden tot meer inzicht in de mogelijke ethische gevolgen van
de betreffende AI-toepassing en kennis over een succesvolle toepassing van het instrument.
Daarnaast leidde het onderzoek tot meer inzicht en bewustzijn over de uitdagingen rondom
verantwoorde AI binnen mediaorganisaties. Naast het voorhanden zijn van goede ethische
instrumenten, is ook het inrichten van een passende organisatiegovernance (bijv. Wanneer in
een ontwikkelproces wordt aandacht besteed aan ethiek? Wie is waar verantwoordelijk voor?
Hoe wordt omgegaan met lastige situaties?) essentieel voor een verantwoorde toepassing van
AI.

Contactinformatie

Hogeschool Rotterdam

Elijane Doebar-Asmoredjo, contactpersoon
Telefoon: 010-7944505

Consortiumpartners

bij aanvang project