01-08-2019

Capgemini: Ethiek voorwaarde voor verkrijgen vertrouwen bij inzet AI

Deel dit bericht

Het ethisch gebruik van kunstmatige intelligentie is van fundamenteel belang om loyaliteit en vertrouwen van consumenten en burgers in AI te verkrijgen, zo blijkt uit een nieuwe studie van het Capgemini Research Institute.

Naarmate organisaties meer gebruik maken van de voordelen van AI, zijn kritische consumenten, werknemers en burgers bereid om activiteiten op dit gebied positief te waarderen of juist af te keuren. Respondenten gaven aan loyaler te zijn aan, of meer te kopen van, organisaties waarvan de AI-interacties als ethisch worden beschouwd. Het onderzoek Why addressing ethical questions in AI will benefit organizations vond plaats onder 1.580 managers van grote organisaties in 10 landen en meer dan 4.400 consumenten in 6 landen, waaronder Nederland.

De belangrijkste bevindingen zijn:
Bedrijven die AI op een ethische manier gebruiken, worden beloond: Wereldwijd zegt 62 procent van de ondervraagde consumenten (Nederland: 52 procent) meer vertrouwen te hebben in een bedrijf waarvan de AI-interacties door hen als ethisch worden ervaren; 61 procent zegt dat ze positieve ervaringen met vrienden en familie zullen delen (Nederland: 50 procent), 59 procent zegt dat ze meer loyaliteit aan het bedrijf zullen hebben (Nederland: 43 procent) en 55 procent zegt dat ze meer producten zullen kopen en hoge ratings en positieve feedback op sociale media zullen geven (Nederland 44 procent). Wanneer de AI-interacties van consumenten daarentegen leiden tot ethische kwesties, vormt dit een bedreiging voor zowel de reputatie als het resultaat: 41 procent zei dat ze een klacht zullen indienen als een AI-interactie tot ethische kwesties zou leiden (Nederland: 40 procent) , 36 procent zou een verklaring eisen (Nederland: 32 procent) en 34 procent zou stoppen met de interactie met het bedrijf (Nederland: 29 procent).

1-Chart-2.jpg


Ethische kwesties die het gevolg zijn van AI-systemen zijn waargenomen en ervaren: Leidinggevenden in 9 van de 10 organisaties zijn van mening dat ethische kwesties het gevolg zijn van het gebruik van AI-systemen in de afgelopen 2-3 jaar, met voorbeelden zoals het verzamelen van persoonlijke patiëntgegevens zonder toestemming in de zorg en het overdreven vertrouwen op geautomatiseerde beslissingen in het bank- en verzekeringswezen. Leidinggevenden noemen redenen zoals de druk om AI haastig in te voeren, het niet in overweging nemen van ethiek bij het bouwen van AI-systemen, en een gebrek aan middelen gericht op ethische AI-systemen.

Consumenten, werknemers en burgers maken zich zorgen over ethische kwesties die verband houden met AI en willen enige vorm van regelgeving: Bijna de helft van de respondenten (47 procent) gelooft dat ze ten minste twee soorten gebruik van AI hebben ervaren die de afgelopen 2-3 jaar tot ethische problemen hebben geleid. In Nederland ligt dit percentage iets lager op 42 procent.


2-Chart-6.jpg


De meeste respondenten (75 procent) zeggen meer transparantie te willen wanneer een dienst wordt aangedreven door AI, en dat ze willen weten of AI hen eerlijk behandelt (73 procent). Meer dan driekwart (76 procent) van de consumenten vindt dat er verdere regelgeving moet komen over de manier waarop bedrijven AI gebruiken.

Organisaties beginnen het belang van ethische AI te beseffen: 51 procent van de leidinggevenden vindt het belangrijk om ervoor te zorgen dat AI-systemen ethisch en transparant zijn. Organisaties ondernemen ook concrete acties wanneer ethische kwesties aan de orde worden gesteld. Uit het onderzoek blijkt dat 41 procent van de topmanagers aangeeft een AI-systeem volledig te hebben opgegeven toen een ethische kwestie aan de orde werd gesteld.

“Veel organisaties bevinden zich op een kruispunt in het gebruik van AI. Consumenten, werknemers en burgers staan steeds meer open voor interactie met de technologie, maar zijn zich bewust van de mogelijke ethische implicaties. Dit onderzoek toont aan dat organisaties ethische systemen en gebruiken moeten creëren voor AI om het vertrouwen van mensen te winnen. Dit is niet alleen een compliance-probleem, maar ook een probleem dat een belangrijk voordeel kan opleveren wat betreft loyaliteit, steun en betrokkenheid“, zegt Anne-Laure Thieullent, AI en Analytics Group Offer Leader bij Capgemini. “Om dit te bereiken, moeten organisaties zich richten op het opzetten van de juiste governance, moeten ze niet alleen een gedragscode definiëren op basis van hun eigen waarden, maar deze ook implementeren als een ‘ethics-by-design’ -benadering, en zich vooral richten op het informeren van mensen de manier waarop ze met AI-oplossingen omgaan“.

Drieledige aanpak
Organisaties moeten voorrang geven aan een ethische AI-strategie: om tegemoet te komen aan de zorgen van de consument en het vertrouwensdividend van ethisch AI-gebruik te ontsluiten, moeten organisaties een gerichte aanpak hanteren om systemen geschikt te maken voor hun doel. Capgemini beveelt een drieledige aanpak aan om een strategie voor ethiek in AI te ontwikkelen die alle belangrijke stakeholders omvat:

1. Voor CxO’s en bestuurders: een sterke basis leggen met een strategie en gedragscode voor ethische AI; een beleid ontwikkelen dat aanvaardbare praktijken voor het personeel en de AI-applicaties definieert; structuren voor ethisch bestuur creëren en ervoor zorgen dat er verantwoording wordt afgelegd over AI-systemen; en diverse teams samenstellen om ervoor te zorgen dat er rekening wordt gehouden met het volledige spectrum van ethische kwesties;

2. Voor de klant- en medewerkersgerichte teams, zoals HR, marketing, communicatie en klantenservice: zorgen voor een ethisch gebruik van AI-applicaties; gebruikers opleiden en informeren om het vertrouwen in AI-systemen op te bouwen; gebruikers in staat stellen om meer controle te krijgen en de mogelijkheid te geven om verhaal te kunnen halen; en proactief intern en extern te handelen en te communiceren over AI-kwesties om vertrouwen op te bouwen.

3. Voor AI-, data- en IT-managers en hun teams: streef ernaar om AI-systemen zo transparant en begrijpelijk mogelijk te maken om het vertrouwen van gebruikers te winnen; pas goed datamanagement toe en verminder potentiële vooroordelen in gegevens; monitor voortdurend op precisie en accuratesse; en gebruik technologische hulpmiddelen om ethiek in AI op te bouwen.


3-Chart-10.jpg


Onderzoeksmethodologie
Het onderzoek omvatte meer dan 1.580 kaderleden van grote organisaties (met meer dan 1 miljard dollar aan jaarinkomsten) uit 10 landen (China, Frankrijk, Duitsland, India, Italië, Nederland, Spanje, Spanje, Zweden, het Verenigd Koninkrijk en de VS). De leidinggevenden waren afkomstig uit drie groepen – general management/strategie/bedrijf; IT/AI/datawetenschap/analytica; HR en marketing. Daarnaast werd een consumentenonderzoek uitgevoerd onder 4.400 consumenten uit zes landen (VS, China, VK, Frankrijk, Duitsland, Nederland en het Verenigd Koninkrijk), die in het verleden allemaal een of andere vorm van AI-interactie hebben gehad, zodat zij zich konden verhouden tot ethische, vertrouwens- en transparantiegerelateerde kwesties in AI. Het Capgemini Research Institute hield ook diepte-interviews met meer dan 20 academici, industrie-experts en ondernemers.

Een exemplaar van het rapport kan hier worden gedownload.

Partners