Ethisch gebruik van AI
20 april 2023 09:41
De afgelopen tijd is het inzicht van bedrijven in artificial intelligence (AI) en de bijbehorende voordelen enorm toegenomen. Door dat diepgaande inzicht zijn bedrijven is er ook steeds meer aandacht voor het evenwicht tussen die voordelen en de potentiële risico's van AI, ook op het ethische aspect. Verschillende experts gaan in op responsible AI.
Openheid zorgt voor vertrouwen
“Een van de grootste uitdagingen bij het adopteren van AI-oplossingen is het opbouwen van vertrouwen in de technologie”, zegt Cristina Fonseca, Head of AI bij Zendesk. “Uit het CX Trends Report 2023 blijkt dat meer dan een derde zich zorgen maakt over kwaadwillig of negatief gebruik van AI. En bijna de helft geeft aan bezorgd te zijn dat bots en geautomatiseerde systemen vooringenomenheid kunnen tonen tegenover bepaalde groepen mensen. Zakelijke leiders delen een soortgelijke ongerustheid: 73 procent van hen zei dat het een belangrijke prioriteit is om ervoor te zorgen dat AI en bots niet bevooroordeeld zijn tegen specifieke soorten klanten.”
Ze vervolgt: “Om vertrouwen in de technologie op te bouwen is openheid essentieel. Zowel naar klanten als eindklanten. Bijvoorbeeld: niet alle AI-voorspellingen zijn hetzelfde met betrekking tot kwaliteit. Soms hebben modellen veel vertrouwen in het uitvoeren van een bepaalde taak, terwijl in andere scenario's het vertrouwen laag is en AI gewoon zijn best doet (waarschijnlijk een nieuwe of niet erg frequente taak uitvoert). Door open te zijn over de kwaliteit van AI-voorspellingen, kunnen gebruikers daar rekening mee houden en dienovereenkomstig handelen, terwijl ze vertrouwen in de technologie opbouwen.”
“Binnen Zendesk hebben we een reeks ontwerpprincipes opgesteld en gebruikt die niet alleen de norm bepalen voor hoe we ontwerpen, ontwikkelen en bouwen, maar ook een duidelijke basis leggen voor ons gebruik van generatieve AI voor klantervaringen (CX). Met betrekking tot generatieve AI gaat dit bijvoorbeeld om het anonimiseren van de gebruikte trainingsdata, beperking van het gebruik van live chat-gegevens, rekening houden met locatie van data, het bieden van opt-outs voor klanten en het verminderen van het risico op bias door een diverse groep ontwikkelaars aan het project te laten werken en gebruikers en andere deskundigen te betrekken bij het identificeren van mogelijke gebieden voor vooringenomenheid.”
Opstellen van ethisch kompas
“AI en ML gaan niet over het vervangen van menselijke besluitvormers. Integendeel, AI- en ML-aangedreven applicaties doen voorspellingen die, in combinatie met menselijk oordeel, helpen om betere beslissingen te nemen. Maar het succes van AI en ML hangt, net als elke andere opkomende technologie, af van vertrouwen, en dat vertrouwen bestaat alleen als bedrijven zich houden aan verantwoorde, ethische praktijken”, aldus Hette Mollema, VP Benelux bij Workday.
Hij legt uit dat Workday jaren geleden al kernbeginselen voor ethische AI en ML formuleerde, die de basis vormen voor alle activiteiten op dit gebied: “Hierin staan zes hoofdprincipes die bepalen hoe ML op een verantwoorde wijze ontwikkeld kan worden en ingezet om de bredere maatschappelijke impact ervan aan te pakken. Dit draait bijvoorbeeld om het vooropstellen van mensen en respecteren van de fundamentele mensenrechten, geven om de samenleving, het respecteren van de wet, transparant en verantwoordelijk ondernemen, data beschermen en enterprise-ready ML-technologieën leveren.”
“Een concreet voorbeeld is dat klanten inzicht hebben in onze AI-modellen via duidelijke documentatie waarin wordt uitgelegd hoe onze AI-oplossingen worden gebouwd, hoe ze werken, hoe ze worden getraind en getest, en hoe ze voortdurend aan test- en evaluatieprocedures worden onderworpen”, vervolgt Mollema. “Vanzelfsprekend is het niet voldoende om alleen ethische principes te formuleren; ze moeten in de structuur van productontwikkeling opgenomen worden en er moeten processen worden opgesteld die ervoor zorgen dat de ethische principes voortdurend worden nageleefd.”
“Dankzij de integratie van AI en ML zijn mensen productiever en beter geïnformeerd, en kunnen zij problemen oplossen die eerder onoplosbaar leken. Dat is de belofte van AI en ML, en ik ben enorm benieuwd naar de verdere impact op de toekomst van werk. In het licht van zo'n ingrijpende technologische en maatschappelijke verandering is het echter essentieel dat bedrijven zich inzetten voor een ethisch kompas”, sluit Mollema af.
Diversiteit in data-teams zorgt voor eerlijkere AI
Rik van der Wansem is Account Director Public Sector bij Dataiku, en stelt dat de samenstelling van het datateam een belangrijke rol speelt in de ontwikkeling van eerlijke AI-modellen. “Hoe diverser het team dat de algoritmen en pijplijnen ontwerpt, hoe beter oneerlijke vooroordelen zijn te voorkomen bij het nemen van steekproeven, het labelen en het ontwikkelen van de pijplijn. Diversiteit is de basis voor eerlijke AI-modellen en dus voor Responsible AI.”
Als voorbeeld geeft hij de inrichting van steekproeven om modellen te trainen: “Deze steekproeven moeten de behoeften weerspiegelen van de mensen die uiteindelijk door die modellen worden bediend. Een bekend voorbeeld van waar dit niet goed is gegaan zijn de algoritmes voor gezichtsherkenning. Hoewel deze zeer accuraat kunnen zijn voor mensen met een lichte huidskleur, is uit onderzoek gebleken dat zij slecht presteren bij mensen met een donkere huidskleur. Een van de redenen hiervoor is dat de modellen werden getraind op degenen waarvoor het uiteindelijk het beste werkte, waardoor ze voor alle anderen nadelig uitpakten.”
Dit komt ook terug bij het labelen. “Een centraal onderdeel van het trainen van modellen is het labelen. Dit houdt in het observeren van de inputs van het model en het handmatig bewerken van het eerste X aantal daarvan om de labelnauwkeurigheid van het model te helpen verbeteren. Als het team dat het model traint een sterk overeenkomstig wereldbeeld heeft over de categorieën die het gebruikt, kan het zijn dat er belangrijke, uiteenlopende perspectieven gemist worden.” aldus Van der Wansem. “Als eenvoudig voorbeeld: een model trainen of iets wel of geen soep is, lijkt overzichtelijk. Maar een een team met een meer gediversifieerd perspectief, nuanceert dit beeld bijvoorbeeld door stoofschotels en soepen van elkaar te onderscheiden. Hierdoor ontstaat een genuanceerder en kritischer labelsysteem.”
Reacties op dit artikel
Reactie plaatsen? Log in met uw account.