BEGRIJPEN EN VERTROUWEN

Laten we maar meteen beginnen met een stevige vraagstelling: in hoeverre moeten we begrijpen hoe AI tot zijn conclusie komt, voordat we op die AI gaan vertrouwen? Dit was voor mij één van de belangrijkste thema’s van de summit. Vertrouwen hoeft namelijk niet altijd te komen door iets volledig te begrijpen. Cassie Kozyrkov van Google beschreef het mooi; ‘Stap je liever in een raket die helemaal goed beschreven is maar nog nooit heeft gevlogen, of een raket die al duizenden keren heeft gevlogen onder alle relevante omstandigheden, zonder dat je weet hoe het werkt.’

Dat is geen vraag waar iedereen hetzelfde op zal antwoorden. En ook als je bedrijf bereid is om AI te vertrouwen, dan is er nog wetgeving die vraagt om transparantie. Als je een klant een verzekering of schade uitkering weigert, dan heeft die klant het recht om te weten wat daar de reden van is. Uitlegbaarheid is een eis. Maar dat is lastig, want de huidige neurale netwerken zijn te complex om uitlegbaar te maken. En deze netwerken worden alleen maar groter.

Evert Haasdijk loopt hier bij Deloitte ook tegenaan. Hij heeft er gelukkig allerlei ideeën over. Tijdens zijn presentatie noemde hij een paar dingen waar wij als testers mee verder kunnen. Je kunt bijvoorbeeld een eenvoudig netwerk trainen om het complexere netwerk zo goed mogelijk na te bootsen. Het complexe model gebruik je in de praktijk, het eenvoudige model gebruik je voor audits.

Op die manier mis je wel de details over hoe een AI een beslissing neemt. Maar zoals een latere presentator, een psycholoog, aangaf; als een mens een beslissing neemt, dan weet een ander mens ook niet tot op het diepste detailniveau hoe hij hiertoe komt. Sterker nog, psychologen en neurowetenschappers weten nog niet hoe mensen een besluit nemen. Vertrouwen ontstaat dus al zodra we op hoofdlijnen begrijpen waarom iemand een bepaalde keuze maakt. We willen het op hoofdlijnen kunnen volgen. En dat zou ook moeten gelden voor AI.

de-stockon-app-20-gebouwd-door-te-leren

ETHIEK EN MENSELIJKE WAARDEN ROND AI

Ethiek was op de World Summit een groot thema, en met recht! Om mee te beginnen: de AI bereidt je keuzes voor op basis van data. Mensen nemen dat wat de AI zegt vaak aan voor de waarheid. De vraag is; wat kies je zelf nog? De meeste mensen accepteren de default waarde die de AI voorstelt als hun keuze, omdat dat waarschijnlijk toch het beste is. Pessimistisch verwoord; de mens stopt met kritisch nadenken. Positief verwoord; de AI zorgt ervoor dat wij als mens alleen maar hoeven te kiezen voor de dingen die ons menselijk maakt. IBM noemt dit ‘scaling human expertise’ en een veel vertoond filmpje van Microsoft zit ook langs die lijn.

Dus als we ‘artificial intelligence’ eenmaal onder de knie hebben, is het tijd voor de échte uitdaging voor de mensheid, te weten ‘emotional intelligence’. Ofwel; hoe zorgen we ervoor dat we als mens altijd de keuze maken die goed is voor onszelf, voor anderen en voor onze omgeving? Gaat AI inderdaad helpen om ons meer ‘menselijk’ te maken? In dit kader werd een aantal keer gerefereerd aan de TED talk van Kai-Fu Lee. Een aanrader! Als je na het lezen van dit blog op één link klikt, zorg dan dat het deze is.

Het is belangrijk te beseffen dat de AI niet echt ‘kiest’, alleen maar heel veel rekent. Hoe blij zijn we met de uitkomsten als ‘de AI’ op basis van data en feiten gaat discrimineren, zoals de AI selectietool voor sollicitanten van Amazon die een voorkeur had voor mannen? Op een ander moment werd het zo genoemd: De AI heeft geen aversie tegen ‘injustice’. Laten we even een voorbeeld nemen van hoe dat bij mensen gaat. In het geval van een auto-ongeluk werkt ons brein zo dat we iemand de schuld willen geven. De autobouwer, de bestuurder, wie dan ook. Die schuld willen we ergens beleggen om voor ons gevoel iets terug te krijgen voor het verlies, ook al is dit eigenlijk niet zo. Bij AI is het niet mogelijk om iets terug te krijgen. Zoals een spreker stelde: “The idea of the AI being responsible is horrible.” De AI mag nooit als een rechtspersoon worden gezien. Hoe wetgeving en het plaatsen van het schuld dan wél moet worden opgelost, is nog een grote vraag.

Een andere morele vraag bij een presentatie ging over medicatie: zou je de AI niet willen trainen op het voorschrijven van medicatie waar je zelf meer aan verdient? Dit gebeurt nu ook al zónder AI en daar bovenop hebben we zojuist vastgesteld dat de AI voorkeuren moeilijk te traceren zijn. Ook een vraag waar we nog een antwoord op nodig hebben.

Afrondend over ethiek: we hebben nu een redelijke ‘common language’ rond AI, de stelling is dat het nu tijd is voor ‘common ethics’. Ethiek ziet er door de hele wereld anders uit. Bijvoorbeeld bij een zorgrobot ofwel care-bot: in Europa houdt die rekening met de wensen van het individu, maar in China is zorg een familie-ding en gaat het om de wensen van de hele familie. Dus hoewel het verleidelijk is om alle data in de wereld in één model te stoppen, moeten we blijven opletten of het per regio en per organisatie goed werkt. En dat is stiekem alvast een opstapje naar mijn derde blog.

de-stockon-app-20-gebouwd-door-te-leren 1

IS AI ER VOOR IEDEREEN?

Een veelgebruikte term op de World Summit was het ‘democratiseren’ van AI. Dit is niet het zorgen dat AI eerlijk is tegenover iedereen, maar dat het kan worden toegepast door iedereen. De aanwezige tech-giganten (Microsoft, Google, IBM, Alibaba) noemden dit voortdurend. De praktische uitwerking is het opstellen van cloud applicaties en API’s naar hun eigen AI tools, om vrijwel meteen vanuit de doos te gebruiken. Denk bijvoorbeeld aan AI as a service voor gezicht- of objectherkenning. Ook in de diverse business presentaties werd geroepen: gebruik wat er is, vind niet steeds het wiel uit. Zoek op internet, kijk op GitHub, heel veel is al lang beschikbaar. Maak een toepassing die je nodig hebt, niet het zoveelste framework. Toch vind ik AI-uit-een-doos ook enigszins gevaarlijk; hoe weet je dat je krijgt wat je denkt dat je krijgt?

Naast beschikbaar stellen betekent democratiseren dat er steeds meer AI applicaties worden gebouwd voor wereldwijd gebruik. Dit was ook één van de boodschappen in de presentatie die ik recent namens TestNet mocht geven. Het is mogelijk om componenten te trainen met data die we wereldwijd met elkaar delen. Maar de vraag is opnieuw: werkt dit ook voor mij?

Een laatste aspect van democratiseren is het verspreiden van kennis. Je ziet dat iedereen druk bezig is om het tastbaar en duidelijk te maken, eigenlijk ook het doel van dit Salves blog. Maar bedrijven en communities gaan veel verder dan blogs. Er wordt hard gewerkt aan universitaire programma’s. En ik zou persoonlijk graag zien dat dit al wordt meegenomen op de basisschool. Ik ben er met mijn eigen kinderen (11, 9 en 6 jaar) ook al mee bezig. Ze weten hoe wij jarenlang software gebouwd hebben, staan er open in en vinden het geweldig!

Al dit begrip is belangrijk om de stap naar algeheel gebruik van AI te maken. Toen ik sprak met één van onze klanten die concreet met AI bezig is, zei ze letterlijk: ‘Ik merk dat ik nog vaak terugval in het oude denken’. Logisch, we hebben tientallen jaren niet anders gedaan!

NEXT UP: DE PRAKTIJK EN HET TESTEN VAN AI

Tot zover het eerste blog, gericht op de ideeën over AI voor iedereen. In het tweede blog ga ik in op praktische toepassingen, want ook daar stond de World Summit vol mee. Bovendien komen we steeds meer in gesprek met onze klanten over de praktijk van AI. Enorm leerzaam! Wordt dus vervolgd.