Waar Artificial Intelligence voorheen vooral voorkwam in films en science fiction, is het tegenwoordig een tastbaar onderdeel van ons leven geworden door zaken zoals chatbots en aankoopsuggesties. Maar zoals met veel nieuwe, opkomende technologieën gaan wij mensen door een aantal fases. Eerst zijn we sceptisch en wantrouwen we het, gevolgd door gedeeltelijke adoptie, voordat we een meer wijdverbreid niveau van acceptatie bereiken.
Wanneer AI juist wordt uitgevoerd, geïmplementeerd en geïntegreerd, kunnen we een grote sprong voorwaarts maken op het gebied van operationele intelligentie, waardoor bedrijfsactiviteiten winstgevender worden en we een verbeterde klantervaring kunnen bieden. We bereiken een nieuw niveau van ‘user intimacy’, waar bedrijfssystemen opnieuw worden uitgevonden en hele supply chains worden uitgebreid, aangepast en verbeterd. Hoe kunnen we, gezien AI met uitdagingen kampt zoals angst voor ‘rise of the robots’, een nieuw niveau van AI-adoptie bereiken, waarbij AI wordt vertrouwd, getest, versterkt en vooral transparant is?
Een duidelijke weg naar AI-transparantie
De verantwoordelijkheid om dit nieuwe AI-tijdperk mogelijk te maken, ligt niet alleen bij business leaders, maar ook bij alle geïnteresseerde partijen en stakeholders die de vele voordelen van snellere, slimmere systemen willen benutten. Op internationaal niveau probeert men een nieuw niveau van vertrouwen en transparantie te bereiken en ik hoop dat dit effectief en robuust zal zijn.
Op dit moment bevindt de Artificial Intelligence Act van de Europese Unie (EU AI Act) zich nog in de conceptfase, maar het zal waarschijnlijk gevolgen hebben voor bedrijven binnen en buiten de unie, gezien de aard van internationaal zakendoen. De EU AI Act stelt dat de mens centraal blijft bij AI-innovatie en -governance. Nu we de voordelen van AI en Machine Learning (ML) efficiënties gaan toepassen op systemen, diensten en producten, moeten we ervoor zorgen dat menselijke besluitvorming aan de basis staat van de logica en algoritmes die AI gebruikt. Deze mensgerichte AI is essentieel om persoonlijke privacy, menselijke ethiek en zakelijke compliance goed te beheren.
Wat betreft menselijk handelen en toezicht zegt het EU AIA-team: “AI-systemen moeten mensen helpen om weloverwogen beslissingen te nemen en hun grondrechten bevorderen. Tegelijkertijd zijn er goede mechanismen voor toezicht nodig via human-in-the-loop-, human-on-the-loop- en human-in-command-benaderingen.”
Net als met de Algemene Verordening Gegevensbescherming (AVG) van de EU zal het even duren voordat de EU AI Act geïmplementeerd wordt, maar het zal ook net als de AVG gevolgen hebben voor bedrijven. De EU AI Act zal waarschijnlijk streng zijn en bij niet-naleving (aanzienlijke) sancties opleggen.
Transparantie ontstaat wanneer iets controleerbaar is
Om de voordelen die AI te bieden heeft te kunnen benutten, is vertrouwen nodig. De beste AI-systemen zullen daarom de meest transparante en meest controleerbare zijn. Dit zijn systemen die zorgen voor traceerbaarheid en die uitleg kunnen bieden, voor duidelijke communicatiekanalen die de AI-modellen waarop deze systemen zijn gebouwd, kunnen illustreren, verduidelijken en goedkeuren. Als we duidelijk zicht hebben op de algoritmes en ML-processen die nodig zijn om een AI-model te laten functioneren, dan is er transparantie in de processen, tools, data en ‘actoren’ (wiskundige rekenmodellen) die betrokken zijn bij de productie van het totale AI-proces.
De meeste controleerbare (en daarmee de meest transparante) AI-processen worden gebouwd met een niveau van documentatie dat duidelijk en uitgebreid genoeg is voor auditors om toegang te krijgen en het te gebruiken. Een AI-auditor moet die documentatie kunnen gebruiken om met dezelfde AI-methode en een nieuw data science-team tot dezelfde resultaten te komen. In meerdere opzichten kunnen we dit een soort reverse engineering noemen, ontwikkeld om het vereiste transparantieniveau te bewijzen, valideren en bevestigen.
AI-model afstamming
Om echt transparantie te bereiken en vertrouwen in een AI-systeem te krijgen, moeten we de lineage (afstamming) ervan kunnen begrijpen. Dit is de verzameling associaties tussen een bepaald ML-model dat gebruikt wordt door AI, en alle componenten die betrokken zijn bij de creatie ervan. Het volgen van de lineage van een model is moeilijker zonder robuuste, schaalbare model operations – dit komt meestal door het aantal betrokken componenten, dat groot, dynamisch en moeilijk te traceren kan zijn.
Zowel vertrouwen als transparantie kunnen worden verkregen met robuust, schaalbaar model-beheer en model-operations. Model-operations, de ontwikkeling en het beheer van ML-modellen die AI-initiatieven ondersteunen, is essentieel om AI te operationaliseren. Maar het kan moeilijk en problematisch zijn om op te schalen, dus bedrijven moeten goed samenwerken met hun data science- en IT-teams om de individuele operationele uitdagingen te begrijpen.
In de praktijk is robuuste transparantie een mix van de juiste disclosure, documentatie en technologie. In technische termen: de data fabrics- en model operationalisatietools tracken en tonen datatransparantie door changelogs en historie. Toegang tot deze assets zorgt ervoor dat we de acties van AI-modellen kunnen traceren en opnieuw afspelen. En specifiek deze acties zijn de mechanica van transparante AI.
Deze traceerbaarheid van data en model, gecombineerd met de juiste disclosures en documentatie, zorgt ervoor dat de gebruikte data, genomen beslissingen en de implicaties van die beslissingen meer transparant zijn voor het hele bedrijf. Zonder dit niveau van transparantie kunnen we niet verwachten dat klanten en partners (en interne medewerkers in welk bedrijf dan ook) zich bezighouden met – laat staan vertrouwen hebben in – bedrijfssystemen die worden aangedreven door AI-beslissingen.
Een betere (meer transparante) wereld
We hebben nu een enorme kans om AI en ML te omarmen en het te gebruiken om ons leven te verbeteren, op meerdere niveaus. Als reactie op de pandemie moesten er bijvoorbeeld razendsnel vaccins worden ontwikkeld. Deze actie (en vele andere) illustreert hoe we AI en ML kunnen benutten om zoveel meer te doen, om het sneller te doen én met meer nauwkeurigheid dan ooit tevoren.
Als we zulke acties vaker gaan uitvoeren en hierbij de regelgeving en governance naleven die communities, uitvoerders en wetgevers zullen opstellen, dan kunnen we er zeker van zijn dat we AI en de vele voordelen ervan – positieve klantervaringen, medische doorbraken en operationele uitmuntendheid – volledig kunnen benutten.
7 november (online seminar op 1 middag)Praktische tutorial met Alec Sharp Alec Sharp illustreert de vele manieren waarop conceptmodellen (conceptuele datamodellen) procesverandering en business analyse ondersteunen. En hij behandelt wat elke data-pr...
18 t/m 20 november 2024Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare ...
De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot en met hogere niveaus van...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
Alleen als In-house beschikbaarWorkshop met BPM-specialist Christian Gijsels over business analyse, modelleren en simuleren met de nieuwste release van Sparx Systems' Enterprise Architect, versie 16.Intensieve cursus waarin de belangrijkste basisfunc...
Deel dit bericht