22-01-2020

IBM presenteert Policy Lab voor regulatie van AI

Deel dit bericht

IBM bepleit nauwkeurige regulering van AI en ondersteunt gericht beleid dat het verantwoordelijkheidsgevoel bij organisaties moet vergroten. Het IBM Policy Lab is een nieuw forum dat beleidsmakers een visie en bruikbare aanbevelingen biedt om de voordelen van innovatie te benutten en tegelijkertijd te zorgen voor vertrouwen in een wereld die wordt hervormd door data. Terwijl bedrijven en overheden nieuwe wegen inslaan en technologieën inzetten die de wereld positief transformeren, werkt IBM samen met overheden om de uitdagingen van morgen aan te gaan.

IBM is al lang van mening dat AI-systemen transparant en verklaarbaar moeten zijn. Dat is een van de redenen waarom het bedrijf de OESO-beginselen voor AI heeft gesteund, en met name de noodzaak om te streven naar transparantie en verantwoorde openbaarmaking bij gebruik van AI-systemen.

Principes zijn bewonderenswaardig en kunnen helpen bij het communiceren van de verplichtingen van een bedrijf aan burgers en consumenten. Maar het is volgens IBM tijd om van principes naar beleid over te gaan. Vereiste openbaarmaking - in voorkomend geval op basis van use-case en eindgebruiker - zou de standaard moeten zijn voor veel bedrijven die AI-systemen maken, distribueren of benutten. Eerder heeft IBM een openbaarmakingsvereiste geformuleerd voor gebruik door opsporingsinstanties van gezichtsherkenningtechnologie. Iets dergelijks zou meer algemeen van AI moeten worden verlangd om het publiek passende garanties te bieden dat zij eerlijk en billijk worden behandeld door op AI gebaseerde bepalingen in gevoelige gevallen.

AI-governance policy framework
Daarom bepleit IBM nauwkeurige regulering van AI. Het bedrijf ondersteunt gericht beleid dat de verantwoordelijkheden voor bedrijven zou vergroten om betrouwbare AI te ontwikkelen en te gebruiken. Gezien de alomtegenwoordigheid van AI zullen er geen one-size-fits-all regels zijn die toepasbaar zijn de vele unieke kenmerken van elke branche die van deze technologie gebruikmaakt en de impact op individuen. IBM stelt voor een geschikt en op risico gebaseerd AI-governance policy framework te definiëren op basis van drie pijlers:
• Verantwoording evenredig aan het risicoprofiel van de applicatie en de rol van de entiteit die een AI-systeem levert, ontwikkelt of beheert om onbedoelde of schadelijke resultaten voor consumenten te beheersen en te verminderen.
• Transparantie over waar de technologie wordt toegepast, hoe deze wordt gebruikt en waarom deze bepaalde bepalingen biedt.
• Eerlijkheid en veiligheid gevalideerd door te testen op bias voordat AI wordt ingezet en opnieuw getest als passend gedurende het gebruik ervan, vooral in geautomatiseerde bepalingen en toepassingen met een hoog risico.

Vijf beleidsvereisten
IBM stelt een precision regulation framework voor dat vijf beleidsvereisten voor bedrijven omvat, gebaseerd op of zij een aanbieder of eigenaar (of beide) van een AI-systeem zijn. Dit beleid kan variëren in robuustheid volgens het risiconiveau van een bepaald AI-systeem, dat zou worden bepaald door een risicobeoordeling uit te voeren op basis van mogelijke schade in verband met het beoogde gebruik, het automatiseringsniveau (en menselijke betrokkenheid), en of een eindgebruiker substantieel afhankelijk is van het AI-systeem.
- Wijs een leidende functionaris aan die over AI-ethiek gaat
Om ervoor te zorgen dat aan deze verwachtingen wordt voldaan, moeten providers en eigenaren een persoon aanwijzen die verantwoordelijk is voor betrouwbare AI.
- Verschillende regels voor verschillende risico's
Alle entiteiten die een AI-systeem aanbieden of bezitten, moeten een eerste beoordeling op hoog niveau uitvoeren van het potentieel aan schade dat de technologie kan aanrichten.
- Verberg de gebruikte AI niet
Transparantie leidt tot vertrouwen en de beste manier om transparantie te bevorderen is door openbaarmaking.
- Leg de gebruikte AI-systemen uit
Elk AI-systeem op de markt dat bepalingen of aanbevelingen doet met mogelijk belangrijke implicaties voor individuen, moet kunnen uitleggen en contextualiseren hoe en waarom het tot een bepaalde conclusie is gekomen.
- Test de gebruikte AI op bias
Alle organisaties in de AI-ontwikkelingslevenscyclus hebben een zekere mate van gedeelde verantwoordelijkheid om ervoor te zorgen dat de AI-systemen die ze ontwerpen en implementeren eerlijk en veilig zijn.

Meer informatie: IBM

Partners