Youngprofs-symposium Artificial Intelligence

17 april 2019 Wilfried Olthof
PDF
In dit artikel:

Op 7 februari 2019 organiseerden de Youngprofs van NOREA/ISACA een bijeenkomst over Artificial Intelligence (AI). De bijeenkomst vond plaats bij NOREA/NBA in Amsterdam. Dwayne Valkenburg, voorzitter van de Youngprofs, toonde zich in zijn opening van de bijeenkomst verheugd met de grote opkomst van de doelgroep. Deze belangstelling laat zien dat (ook) onder de Youngprofs AI leeft als een urgent onderwerp.

Vikas Munshi (ING)

Vikas Munshi, Platform Architect en Cybersecurity Expert van ING trapt af met de introductie van het onderwerp Artificial Intelligence. In essentie gaat het om programmacode die informatie kan verwerken, behouden om er – blijkens een gedragsverandering – van te leren. Via een uitstapje naar de biologie van neurale netwerken gaat hij in op de ‘state of the art’ van AI op dit moment; hij sluit af met de aanbeveling tot zelf ondervinden, ‘do it yourself’, bijvoorbeeld met behulp van het AI-platform van Microsoft Azure.

Mona de Boer (PwC)

Mona de Boer (PwC), trekker van de nieuwe NOREA-werkgroep Algorithm Assurance, gaat vervolgens in op de toepassing van AI in audits. Ze geeft als director bij PwC leiding aan een team van data-scientists. Een van de aandachtsgebieden daarbij is de controle van software via statische software en in toenemende mate ook met AI-based tools. Ze doet dat werk niet alleen in een professionele audit-context maar ook in een wetenschappelijke context als promovenda bij de Universiteit van Amsterdam. Daarbij onderzoekt ze het auditen van ‘algorithm blackboxes’.

‘Het klinkt misschien naïef’, zo begint ze haar presentatie, ‘maar ik wil proberen vast te stellen wat ervoor nodig is om neurale netwerken te controleren. In deze presentatie wil ik het hebben over Algorithm Assurance, en dan doel ik op programmacode die zelflerend is, dus als een product van bepaalde in- en output.’

Tool voor de auditor

Vanuit een audit-context bekeken zijn we in een tijdperk aangeland waarin we twee bewegingen zien’, vervolgt Mona. ‘Ten eerste is er de toepassing van Artificial Intelligence als tool voor de auditor. Onze financial auditors doen bijvoorbeeld onderzoek naar risico’s van management override of (internal) controls. Oftewel: heeft het management gefraudeerd en zijn daarvoor aanwijzingen te vinden in het grootboek? Tot dusver doen zij dat door zelf algoritmes te bedenken. In een team van vijf accountants werk je daardoor met misschien vijf verschillende algoritmes die voor een bepaalde zoekopdracht mogelijk iets kunnen opleveren. Maar wat als je de algoritmes van bijvoorbeeld achtduizend accountants nu eens gaat bundelen tot een ‘super-algoritme’, dat bovendien met héél veel grootboekdata wordt getraind? Zijn we dan niet veel beter in staat om deze controles uit te voeren?’

AI voor data-analyse

‘Ten tweede kijken we niet meer alleen naar gestructureerde data, maar ook naar ongestructureerde data. Tegenwoordig zijn we dankzij AI-technieken veel beter in staat ook ongestructureerde data te analyseren – ook deze data zijn voor de audit mogelijk relevant. Via optical character recognition (OCR) en natural language processing kun je nu ook documenten en andere vormen van ongestructureerde data geschikt maken voor analyse vanuit onze controledoelstellingen.’

Deze ontwikkelingen illustreren dat AI-technieken een belangrijke toevoeging kunnen vormen aan de toolkit die auditors bij hun werkzaamheden gebruiken. Mona benadrukt dat in alle lines of defence van organisaties AI-toepassingen in opkomst zijn. ‘In de eerste lijn van een bank zie je bijvoorbeeld op AI-gebaseerde kredietrisico-modellen ontstaan. Met andere toepassingen in de tweede en derde lijn gebeurt hetzelfde. Als internal auditor kun je geconfronteerd worden met AI-gebaseerde toepassingen of applicaties, waardoor risico’s gemitigeerd kunnen worden. Er ontwikkelt zich zo een hele interessante dynamiek.’

Met enkele tekstvoorbeelden demonstreert Mona tijdens haar presentatie wat er nu al met AI mogelijk is. Bij de voorbeelden die ze laat zien is steeds de vraag aan de zaal: is deze tekst deze gemaakt door een mens of door een taalrobot, een algoritme dus? Dan blijkt dat bij sommige teksten twijfels ontstaan. Mona geeft de aanwezigen mee ‘Kijk maar eens op het internet, want er zijn nog véél meer soortgelijke andere voorbeelden met dezelfde verbluffende resultaten.’ Verrassend vaak blijkt een nieuwsbericht te zijn gemaakt door een algoritme. De Washington Post bijvoorbeeld, heeft een robot geïntroduceerd, de heliograf, die nieuwsartikelen kan samenstellen op basis van data-analyse en toepassing van algoritmes. We zien soortgelijke ontwikkelingen bij alle grote persbureaus en nieuwsagentschappen: zo gebruiken bijvoorbeeld ook BBC, CNN, Reuters en Bloomberg robots om nieuwsberichten te produceren.

Toepassing AI vraagt om assurance

Het meest populaire toepassingsgebied is customer profiling. Neem bijvoorbeeld Lemonate, een Amerikaanse verzekeraar. Op basis van AI-technologie worden daar claims van verzekerden binnen enkele seconden afgewikkeld en direct uitbetaald. Soortgelijke ontwikkelingen met behulp van Artificial Intelligence zien we ook in de rechtspraak, medische toepassingen en/of Smart Cities. De pers benadrukt daarbij vaak de negatieve aspecten en de risico’s. Een opmerkelijke ontwikkeling is dat verzekeringsrisico’s veel beter ingeschat kunnen worden door data-analyse via algoritmes, terwijl de premies van verzekeringen toch omhoog gaan. Ondanks, of dankzij die algoritmes?

‘Veel van de gebruikte algoritmes brengen inderdaad risico’s met zich mee’, vertelt Mona. ‘De ‘uitlegbaarheid’ van de gehanteerde algoritmes schiet ook vaak tekort, waardoor veel algoritmes black boxes zijn. Daarom is er een groeiende behoefte aan assurance over AI-toepassingen. Ook de politiek is er van doordrongen dat er spelregels gemaakt moeten worden. Een voorbeeld is de ‘Moral Machine. Dit is een website die de ethische dilemma’s van Artificial Intelligence aan de hand van concrete situaties duidelijk maakt. We worden zo geconfronteerd met onze eigen veronderstellingen, die we niet altijd zorgvuldig en/of op goede gronden toepassen. Ook zie je belangrijke culturele verschillen tussen bijvoorbeeld Europa, Amerika en China in opvattingen over wat ethisch geoorloofd is.’

Tot besluit van de bijeenkomst geven enkele voorzitters van NOREA-kennisgroepen Pecha Kucha-presentaties: ultra korte pitches van de huidige activiteiten van de kennisgroepen, zodat de Youngprofs zich desgewenst ook kunnen aansluiten bij de kennisgroepen Betalingsverkeer, Privacy en/of Cybersecurity.

Geen categorie

Drs. W. (Wilfried) J.A. Olthof | Directeur bij NOREA

Wilfried Olthof is directeur van NOREA en heeft daarvoor functies vervuld bij de Perscombinatie, het ministerie van VROM en de Vrije Universiteit Amsterdam. Hij heeft Politicologie en Bestuurswetenschappen gestudeerd.