Een oproep tot verklaarbare AI: Transparantie en verantwoordelijkheid binnen Artificial Intelligence

Nieuwsbericht

Bron: Emerce

Artificial Intelligence (AI) wordt steeds vaker gebruikt voor beslissingen die ons dagelijks leven beïnvloeden – mogelijk zelfs beslissingen over leven en dood. Deloitte roept daarom op tot transparantie en verantwoordelijkheid binnen AI: AI die verklaarbaar is voor medewerkers en klanten en die overeenstemt met de kernbeginselen van een bedrijf.

Berichten in de media over Artificial Intelligence zijn vaak ofwel euforisch, ofwel alarmerend van toon. In het eerste geval wordt AI gepresenteerd als een fantastische technologie die al onze problemen zal oplossen, van kanker tot de opwarming van de aarde. In het tweede geval schetsen op Frankenstein of The Terminator geïnspireerde verhalen een beeld van AI als een technologie die we niet in de hand kunnen houden en die uiteindelijk slimmer zal worden dan de mens zelf. En op manieren die we niet kunnen voorzien: AI bedreigt niet alleen onze banen, maar het voortbestaan van de mensheid.

De afgelopen paar jaar is het aantal negatieve verhalen over AI aanzienlijk toegenomen. Technologie-ondernemer Elon Musk heeft zelfs beweerd dat er in AI meer gevaar schuilt dan in kernwapens. Er zijn talloze voorbeelden van hoe geavanceerde of door AI aangedreven algoritmen werden misbruikt, in de fout gingen of schade veroorzaakten. Inmiddels weten we hoe het Britse politieke adviesbureau Cambridge Analytica zonder toestemming de gegevens van miljoenen Facebook-gebruikers verzamelde en daarmee de Amerikaanse verkiezingen beïnvloedde. Dit roept vragen op over hoe algoritmen kunnen worden misbruikt om het publieke domein op grote schaal te beïnvloeden en te manipuleren.

Het is  duidelijk geworden dat AI-modellen vooroordelen kunnen repliceren en zelfs institutionaliseren. In de VS werd bijvoorbeeld een AI-model genaamd COMPAS gebruikt om recidive te voorspellen. Het bleek dat het model bevooroordeeld was ten opzichte van mensen van kleur. Ook bleek een op AI gebaseerde wervingstool van Amazon vrouwen te benadelen.

Sommige vormen van AI kunnen worden gemanipuleerd door kwaadwillenden en vertonen dan totaal ander gedrag dan bedoeld. Dit was het geval bij een AI-bot die zich in minder dan een dag van een vriendelijke chatbot ontwikkelde tot een complottheorieën-spuiende Twitter-trol. Andere AI-toepassingen brachten onopgeloste ethische vraagstukken aan het oppervlak. Zo besloot Google, na grootschalige protesten van medewerkers die bezorgd waren dat hun technologie zou worden gebruikt voor dodelijke doeleinden, een contract met het Pentagon niet te verlengen. Bij dit contract ging het om de ontwikkeling van AI die potentiële dronedoelen in satellietbeelden zou ontdekken.

Stefan van Duin, partner bij Deloitte op het gebied van data-analyse en cognitieve technologie en deskundige in het ontwikkelen van AI-oplossingen, heeft begrip voor de publieke zorgen over AI. “Hoe meer AI-toepassingen er komen, des te meer invloed het heeft op mensen in hun dagelijks leven – mogelijk zelfs bij beslissingen over leven en dood, zoals het stellen van een diagnose bij ziekte of de keuzen van een zelfrijdende auto in complexe verkeerssituaties”, aldus Van Duin. “Dit vraagt om een hoge mate van transparantie en verantwoordelijkheid.”

Deloitte is daarom een vurig pleitbezorger van transparantie en verantwoordelijkheid binnen AI. Transparante AI is AI die verklaarbaar is voor medewerkers en klanten. Dit is nog niet zo eenvoudig, aangezien AI van nature niet transparant is, aldus Van Duin. “De vraag is daarom: hoe kunnen we AI zo transparant mogelijk maken? Hoe kunnen we uitleggen hoe een op AI gebaseerd besluit is gevormd, waar dat besluit op is gebaseerd en waarom het is genomen op de manier waarop het is genomen?” Naast transparantie is er ook de vraag van verantwoordelijkheid binnen AI.

“Transparante AI maakt de onderliggende waarden expliciet en moedigt bedrijven aan verantwoordelijkheid te nemen voor op AI gebaseerde beslissingen”, aldus Van Duin. “Verantwoorde AI is AI waarbij alle ethische vraagstukken goed zijn afgewogen en die overeenstemt met de kernbeginselen van het bedrijf.”

Deze serie van vijf publicaties gaat nader in op Deloitte’s opvattingen ten aanzien van transparantie en verantwoordelijkheid binnen AI. Daarbij wordt uitgegaan van Deloitte’s eigen ervaringen met de ontwikkeling en toepassing van AI, zowel binnen de eigen onderneming als voor haar klanten. Ook wordt geput uit langdurige ervaring met het valideren en testen van modellen en het adviseren over strategie en innovatie.

Vier voorstellen voor verantwoorde AI

In de publicaties worden vier voorstellen besproken die Deloitte heeft ontwikkeld met betrekking tot transparantie en verantwoordelijkheid binnen AI. ‘GlassBox’ is een technische toolkit waarmee AI-modellen kunnen worden gevalideerd en het besluitvormingsproces kan worden verklaard voor medewerkers en klanten. De ‘FRR Quality Mark for Robotics and AI’ is een keurmerk voor op AI gebaseerde producten, dat klanten de waarborg geeft dat er verantwoordelijk  met AI wordt omgegaan. ‘Digital Ethics’ biedt een raamwerk dat organisaties helpt richtlijnen voor hun gebruik van technologie te ontwikkelen en een bestuursstructuur te creëren om deze richtlijnen in de organisatie in te bouwen. Ten slotte dekt ‘AI-Driven Business Models’ het complete traject: van de definitie van de visie en het ontwikkelen van de capaciteiten tot de daadwerkelijke implementatie en de verzilvering van de waarde.

Transparante AI is verklaarbare AI

Een van de redenen waarom mensen angstig zijn voor AI is dat AI-technologieën moeilijk verklaarbaar zijn, aldus Evert Haasdijk. Evert Haasdijk is Senior Manager Forensic bij Deloitte en een befaamd AI-expert. Haasdijk was in het verleden werkzaam als universitair docent aan de VU Amsterdam en heeft meer dan 25 jaar ervaring in het ontwikkelen van AI-gebaseerde oplossingen. “Sommige AI-technologieën zijn vrij gemakkelijk uit te leggen, zoals semantische redenering, planningsalgoritmen en de meeste optimalisatiemethoden”, aldus Evert Haasdijk. “Maar bij andere AI-technologieën, in het bijzonder datagestuurde technologieën zoals machine learning, is het veel lastiger om de relatie tussen input en output inzichtelijk te maken. Dan wil de fantasie wel eens op hol slaan.”

Maar AI is niet altijd zo ondoorzichtig als het lijkt. De spreekwoordelijke ‘black box’ van AI kan worden geopend, of het is op zijn minst mogelijk om uit te leggen hoe AI-modellen tot een besluit komen. De bedoeling van transparante AI is dat de uitkomst van een AI-model goed kan worden verklaard en gecommuniceerd, zegt Haasdijk. “Transparante AI is verklaarbare AI. Het biedt mensen de mogelijkheid om te controleren of de modellen grondig zijn getest en kloppen. Zo kunnen mensen begrijpen waarom bepaalde beslissingen worden genomen.”

Transparante AI gaat niet om het online publiceren van algoritmen, zegt Haasdijk, al wordt er momenteel gesproken over het verplicht publiceren van algoritmen die door overheidsinstanties in Nederland worden ingezet. “Natuurlijk spelen er problemen met intellectueel eigendom. De meeste bedrijven zijn terughoudend in het publiceren van de algoritmen die ze gebruiken”, aldus Haasdijk. “Belangrijker nog, de meeste mensen hebben geen idee wat AI-modellen inhouden. Het simpelweg publiceren van code heeft weinig nut, vooral als je geen toegang hebt tot de gegevens die zijn gebruikt. Bovendien is het publiceren van de gegevens vaak geen optie vanwege de privacyregelgeving.” Het publiceren van AI-algoritmen leidt volgens Haasdijk in de meeste gevallen niet tot transparantie: “Het probleem is dat je moet kunnen uitleggen hoe een besluit is genomen door een AI-model.”

Transparante AI zorgt dat mensen kunnen begrijpen wat er gebeurt binnen AI-modellen, benadrukt Haasdijk. “AI is slim, maar slechts op één manier. Zodra een AI-model een vergissing begaat, heb je een menselijk oordeel nodig. We hebben mensen nodig om de context te bepalen waarin een algoritme werkt en om de implicaties van de uitkomst te begrijpen.”

Het transparantieniveau hangt af van de impact van de technologie, voegt Haasdijk toe. Hoe groter de impact van AI-technologie is, des te belangrijker het is dat deze verklaarbaar is en dat alle ethische kwesties zijn overwogen. “Een algoritme om gepersonaliseerde commerciële aanbiedingen te verzenden vraagt niet om dezelfde zorgvuldigheid als een algoritme om een lening te verstrekken of een medische behandeling aan te bevelen”, aldus Haasdijk. “Alle AI-modellen moeten uiteraard met zorg worden ontwikkeld en organisaties moeten zich vooraf beraden op de mogelijke implicaties. Maar voor AI-modellen die een grote impact kunnen hebben, moeten de hoogste standaarden voor transparantie en verantwoordelijkheid gelden.”

Verborgen vooroordelen opsporen

Dus hoe creëer je transparante AI? Om te beginnen moeten er volgens Haasdijk een paar technische stappen worden genomen. “De technische juistheid van het model moet worden gecontroleerd, de juiste tests moeten worden uitgevoerd en de documentatie moet correct worden opgesteld”, aldus Haasdijk. “De ontwikkelaar van het model moet kunnen uitleggen hoe een bepaald probleem is benaderd, waarom een bepaalde technologie is gebruikt en welke datasets waar zijn gebruikt. Soms moet het proces ook worden herhaald.”

Vervolgens moet de uitkomst van het model kritisch tegen het licht worden gehouden. “Je moet controleren of bepaalde groepen ondervertegenwoordigd zijn in de uitkomsten en, zo ja, het model aanpassen om dat te corrigeren. Deze stap kan helpen bij het opsporen van verborgen vooroordelen in data, een bekend probleem in de wereld van AI, aldus Haasdijk. “Stel je gebruikt AI om sollicitanten te screenen op potentiële nieuwe leidinggevenden in jouw organisatie. Als het model wordt gevoed met data van voormalige leidinggevenden die over het algemeen blanke mannen waren, dan zal het model dit overnemen en kan de conclusie zijn dat vrouwen of gekleurde mensen niet geschikt zijn voor managementposities.”

Probleem is hier dat de meeste datasets niet specifiek gebouwd zijn om AI-modellen te trainen. Ze zijn voor andere doeleinden verzameld en dit kan leiden tot vertekende uitkomsten. “AI-modellen kunnen vooroordelen in de datasets niet zelf ontdekken”, legt Haasdijk uit. “Alleen mensen die de context begrijpen waarin de data zijn verzameld, kunnen de mogelijke vertekeningen in de uitkomsten van het model herkennen. Het controleren van trainingsdata op mogelijke vooroordelen vereist daarom uiterste zorgvuldigheid en een voortdurend kritische blik.”

Tot slot moeten AI-modellen worden gevalideerd zodat organisaties kunnen begrijpen wat er binnen het model gebeurt en de resultaten verklaarbaar worden gemaakt. De toolkit GlassBox van Deloitte biedt een reeks hulpmiddelen – zowel open source als intern ontwikkeld – die bedrijven helpen geavanceerde of op AI gebaseerde algoritmen te valideren. Met de toolkit kunnen organisaties een kijkje nemen in de ‘black box’ van AI en eventuele vooroordelen in trainingsdata blootleggen. Hierdoor kan het besluitvormingsproces van AI-modellen worden verklaard voor medewerkers en klanten. Lees meer over GlassBox in het komende artikel uit deze serie: Hoe GlassBox de ‘black box’ opent: een toolkit die zorgt voor transparantie binnen Artificial Intelligence.

‘Computer says no’

Er zijn een aantal redenen om te streven naar transparante AI. Een belangrijke reden is dat bedrijven de technologieën die ze gebruiken voor hun besluitvorming ook echt moeten begrijpen. Dit lijkt wellicht vanzelfsprekend, maar is lang niet altijd het geval. “De board room en het hoger management zijn zich vaak te weinig bewust van waar technische ontwikkelaars in het bedrijf mee bezig zijn”, aldus Haasdijk. “Ze hebben de klok horen luiden, maar weten niet waar de klepel hangt. Dit is niet zonder risico’s voor een bedrijf.”

Paradoxaal genoeg kunnen er in de toekomst meer AI-toepassingen worden gebouwd door mensen die de technologie niet volledig begrijpen: open-source AI-modellen worden immers steeds gebruiksvriendelijker. “Er zijn open-source modellen die echt eenvoudig in het gebruik zijn. Deze kunnen met data worden gevoed en vervolgens ook resultaat opleveren, zonder dat men inzicht heeft in wat er in het model gebeurt en de mogelijkheden en beperkingen van de resultaten begrijpt”, aldus Haasdijk. “Dit zou op korte termijn voor problemen kunnen zorgen. Het feit dat AI steeds gebruiksvriendelijker wordt en op steeds grotere schaal beschikbaar is, brengt het risico met zich mee dat iemand op een onverantwoorde wijze gebruikmaakt van AI zonder zich van de gevaren bewust te zijn – laat staan dat de bestuurders van het bedrijf dat zijn.”

Het is voor bedrijven soms lastig om alle AI-modellen bij te houden die binnen de organisatie worden gebruikt, aldus Haasdijk. “Onlangs heeft een bank een inventaris gemaakt van al hun modellen die gebruikmaken van geavanceerde of op AI gebaseerde algoritmen. Ze kwamen tot het verbijsterende totaal van 20.000.” Sommige van deze algoritmen, zoals voor modellen voor kapitaalregulering, staan onder streng toezicht van instanties. Maar in de meeste gevallen vallen geavanceerde of op AI gebaseerde algoritmen onder geen enkele vorm van externe en interne regelgeving – denk aan algoritmen voor marketing, prijsstelling, klantacceptatie, frontoffice en geautomatiseerde verslagen. “Transparante AI kan bedrijven helpen de controle terug te krijgen over de vele verschillende AI-modellen die binnen de organisatie worden ingezet”, licht Haasdijk toe.

Transparante AI kan organisaties meer inzicht bieden in wanneer en waarom AI-algoritmen fouten maken en hoe ze deze modellen dienovereenkomstig kunnen verbeteren. “AI-modellen maken fouten, en ook al maken ze vaak minder fouten dan mensen, toch wil je weten wanneer en waarom deze fouten precies optreden”, zegt Haasdijk. “Neem bijvoorbeeld de zelfrijdende auto die een aanrijding veroorzaakte met een vrouw die met haar fiets aan de hand liep. Het algoritme had de situatie verkeerd beoordeeld. Het is van cruciaal belang dat bedrijven begrijpen wanneer en waarom dit soort fouten zich voordoen, zodat ongelukken als deze in de toekomst kunnen worden voorkomen.”

Tot slot kan transparante AI organisaties helpen om de individuele besluiten van hun AI-modellen aan werknemers en klanten te verklaren. En dat is niet alleen wat klanten verwachten van een organisatie: door de AVG/GDPR die onlangs van kracht is geworden, is het ook verplicht om klanten meer inzicht te geven in het gebruik van hun gegevens. “Stel dat een bank AI gebruikt om te beoordelen of een klant al dan niet een geldbedrag mag lenen”, zegt Haasdijk. “Als de leningaanvraag wordt afgekeurd, wil de klant waarschijnlijk weten wat de redenen zijn achter dat besluit, en of hij of zij iets kan doen waardoor de aanvraag wel wordt goedgekeurd. Dat betekent dat de bank een grondig inzicht moet hebben in hoe hun AI-modellen tot een bepaald besluit komen en dit in heldere taal moeten kunnen uitleggen. Met ‘Computer says no’ nemen de meeste mensen geen genoegen.”

Herstel van het vertrouwen

De mogelijke gevolgen van AI zijn ook op politiek niveau een bron van zorg. Inmiddels werken meer dan 20 landen aan een nationale AI-strategie en zijn er diverse nationale en regionale AI-gerelateerde beleidsmaatregelen aangekondigd. De Europese Commissie heeft een deskundigengroep op hoog niveau inzake AI in het leven geroepen, die zich buigt over ethische richtsnoeren voor betrouwbare AI. Op internationaal niveau hebben de Verenigde Naties een platform opgericht om de mondiale beleidsuitdagingen in verband met AI in kaart te brengen, in het kader van de strategie inzake nieuwe technologieën van de Secretaris-Generaal.

Veel van deze initiatieven gaan in op de publieke angst voor verlies van controle bij een AI-revolutie. Met elk incident waarbij AI de mist in gaat – aan het begin van dit artikel hebben we een paar voorbeelden gegeven – neemt de vraag naar transparante en verantwoorde AI toe. “Mensen willen niet alleen begrijpen hoe op AI gebaseerde besluiten tot stand komen”, aldus Van Duin. “Ze willen zeker weten dat AI wordt gebruikt ten goede van de mens en geen schade veroorzaakt.”

Tot op heden bestaat er nog geen enkel algemeen geaccepteerd raamwerk voor het beoordelen van AI, aldus Van Duin. “Voor privacy-aangelegenheden moeten organisaties zich houden aan de AVG, het Europese wettelijke kader voor hoe we moeten omgaan met persoonsgegevens. Maar er bestaat niet iets vergelijkbaars voor de ethiek van AI. Tot nu toe lijken er alleen richtlijnen op hoog niveau te komen, die een hoop ruimte voor interpretatie laten. Daarom ligt er een grote verantwoordelijkheid bij bedrijven, organisaties en de samenleving om te zorgen dat wij ethisch omgaan met AI.”

Om een industriële norm voor verantwoordelijke AI & Robotics vast te stellen ontwikkelen de non-profitorganisatie Foundation for Responsible Robotics (FRR) en Deloitte momenteel het FRR Quality Mark for Robotics & Artificial Intelligence. Dit is een herkenbaar kwaliteitskeurmerk voor consumenten waarmee gewaarborgd wordt dat robotica en AI op een verantwoordelijke wijze zijn ontworpen, ontwikkeld en ingezet. De norm is vergelijkbaar met het Fairtrade-keurmerk voor producten die zijn geproduceerd overeenkomstig de Fairtrade-normen. Het FRR Quality Mark for Robotics & Artificial Intelligence heeft tot doel het vertrouwen in robotica en AI-technologie onder consumenten te herstellen. Het geeft aan of een robotica- of AI-product voldoet aan de ethische normen die voor het keurmerk zijn vastgelegd. 

Ethische normen in de organisatie inbouwen

Niet alleen de consument vraagt om een heldere visie op AI, ook medewerkers eisen dit van hun eigen bedrijf. Dit maakt het speelveld rond AI nog complexer. Zoals eerder genoemd, besloot Google vorig jaar een contract met het Pentagon niet te verlengen. Hierbij ging het om software voor automatische herkenning van drones. Het besluit van Google was het gevolg van massale protesten van de medewerkers. Ruim 4.000 medewerkers, onder wie een aantal van de belangrijkste AI-onderzoekers van het bedrijf, ondertekenden een petitie met de eis om “een helder beleid waarin wordt bepaald dat noch Google, noch haar aannemers ooit zullen bijdragen aan de ontwikkeling van oorlogstechnologie”. De protesten leidden ertoe dat Google een statement over de waarden inzake AI publiceerde, waarin het bedrijf zich onder meer ertoe verplichtte haar AI-technologie niet in te zetten voor wapens. Een paar maanden later besloot Google niet deel te nemen aan een aanbesteding voor een contract met het Pentagon ter waarde van 10 miljard dollar, met als reden dat het contract in strijd zou zijn met de bedrijfswaarden.

“Een bedrijf dat om ethische redenen een contract ter waarde van 10 miljard dollar laat schieten, is een teken van deze tijd”, aldus Tjeerd Wassenaar, partner bij Deloitte Risk Advisory, met een focus op ethische en bedrijfswaarden. “Door snel ontwikkelende technologieën als AI zijn organisaties gedwongen op een structurele manier na te denken over de ethische gevolgen”, aldus Wassenaar. “Technisch gezien is er veel mogelijk. Nu moeten bedrijven bepalen hoe ver ze willen gaan. Momenteel hebben de meeste bedrijven geen helder beleid. Het feit dat medewerkers van Google protesteerden tegen hun eigen bedrijf, geeft aan dat veel mensen binnen de organisatie niet het gevoel hebben dat de grenzen goed zijn afgebakend.”

De vraag naar transparante en verantwoorde AI maakt deel uit van een breder debat over bedrijfsethiek, aldus Wassenaar. “Wat zijn de kernwaarden, hoe verhouden deze zich tot technologische mogelijkheden en welke kaders en processen zijn er om hun ontwikkeling bij te houden? Dit zijn vragen waar bedrijven zich vandaag de dag over moeten buigen. Doen ze dat niet, dan zetten ze hun naam op het spel, riskeren ze rechtszaken en boetes en verliezen ze – en dat is misschien nog wel het ergste – het vertrouwen van hun klanten en medewerkers.”

Deloitte’s Digital Ethics-propositie helpt bedrijven om digitale ethiek op een structurele manier aan te pakken. Het helpt bedrijven om hun kernbeginselen te definiëren, de kaders vast te stellen om deze beginselen in praktijk te brengen en benchmarks vast te stellen om bij te houden of de beginselen effectief worden uitgevoerd. Lees meer over Digital Ethics in het nog te publiceren artikel Digitale ethiek: ethische overwegingen structureel inbouwen in uw organisatie.

Het positieve potentieel van AI verwezenlijken

Transparantie en verantwoordelijkheid binnen AI dragen ertoe bij dat AI-modellen grondig worden getoetst, verklaarbaar zijn en worden afgestemd op de kernbeginselen van het bedrijf. Kortom, het kan bedrijven helpen de controle terug te krijgen over de AI-modellen die binnen de organisatie worden ingezet. “We moeten het gevoel hebben dat we alles in de hand hebben”, aldus Van Duin. “Veel mensen voelen het tegenovergestelde: dat zaken uit de hand kunnen lopen. Als we zorgen voor transparantie en als we heldere richtlijnen en procedures voor de ontwikkeling van AI-applicaties vaststellen, kunnen we ervoor zorgen dat AI-modellen functioneren zoals bedoeld en kunnen we de potentiële waarde van deze algoritmen ook echt verzilveren.”

Ondanks de op Frankenstein of The Terminator geïnspireerde verhalen die in de media de ronde doen, zijn veel AI-modellen die momenteel worden ontwikkeld relatief onschuldig en gaat het daarbij niet om beslissingen met een grote impact, zegt Van Duin. “Maar we moeten nu wel echt gaan nadenken over transparantie en verantwoordelijkheid binnen AI.” Zelfrijdende auto’s zijn het perfecte voorbeeld, zegt hij. “Die zijn niet op korte termijn algemeen verkrijgbaar, maar bedrijven zijn wel bezig met de ontwikkeling van deze technologie. En bij een zelfrijdende auto zijn per definitie situaties van leven en dood ingeprogrammeerd. Dit is het moment waarop we moeten zorgen dat deze algoritmen op de juiste manier worden gebouwd.”

Bij alle discussies over de potentiële risico’s van het gebruik van AI, zouden we bijna vergeten dat AI ook serieuze zakelijke kansen biedt. Voorlopers in het bedrijfsleven hebben laten zien dat AI aan de basis staat van grote kostenbesparingen, betere service, betere producten of zelfs volledig nieuwe businessmodellen. De propositie ‘AI-Driven Business Models’ van Deloitte helpt bedrijven te beoordelen hoe zij AI op dit moment binnen hun bedrijf kunnen inzetten en aan welke capaciteiten zij moeten werken. Meer over ‘AI-Driven Business Models’ kunt u lezen in het nog te publiceren artikel ‘AI Driven Business Models’: een strategische benadering om het volledige potentieel van AI te verwezenlijken.

Op lange termijn zullen transparantie en verantwoordelijkheid binnen AI niet alleen helpen rampen te voorkomen, maar ook bijdragen aan de verwezenlijking van het positieve potentieel van AI, aldus Van Duin. Hij geeft een paar voorbeelden: “Er is een enorm potentieel in de gezondheidszorg. AI kan medische diagnoses ondersteunen, bijdragen aan behandelingen van ziektes en levens redden. Het kan het energieverbruik terugbrengen door processen te optimaliseren. Het kan de behoefte aan een eigen auto terugbrengen, wat weer een positieve uitwerking op het milieu heeft en geld kan besparen. Het kan het aantal verkeersongelukken terugbrengen. De toegang tot informatie wordt beter en het helpt ons effectiever te werken. Dit kan ertoe leiden dat we meer vrije tijd overhouden: misschien dat op een gegeven moment een 30- of 20-urige werkweek eerder de norm wordt in plaats van 40 uur. Kortom, de levenskwaliteit zou er enorm op vooruit kunnen gaan.”

Het positieve effect van AI kan reusachtig zijn, aldus Van Duin, maar uiteindelijk moet AI wel het vertrouwen hebben van het grote publiek, wil het echt een optimale uitwerking hebben. “Als alle overwegingen ten aanzien van transparantie en verantwoordelijkheid zijn geïmplementeerd, kan AI bijdragen aan een betere wereld.”


Deel deze pagina

Techniek