1. Home › 
  2. › 
  3. › 
  4. Wanneer artificiële intelligentie té slim is… of niet slim genoeg?

Wanneer artificiële intelligentie té slim is… of niet slim genoeg?

, Risk, Finance & Treasury

AI is de voorbije jaren in een stroomversnelling terecht gekomen, en de EU is volop bezig met de voorbereiding van wetgeving omtrent de toepassingsgebieden en het ethisch gebruik van artificiële intelligentie. We spraken hierover met prof. David Martens, één van de oprichters van ACRAI, het ‘Antwerp Center on Responsible AI’ en tevens docent bij Febelfin Academy.

Hoog tijd om ons te verdiepen in ‘responsible AI’, nu de eerste Europese 'AI act' in de steigers staat. Omdat het een boeiend onderwerp is, maar zeker ook omdat deze wetgeving heel wat impact zal hebben binnen de financiële sector, niet in het minst op gebied van compliance. Zoals altijd geldt dat een voorbereide werknemer of organisatie er twee waard is.

Kan je het begrip ‘responsible AI’ even toelichten?

David Martens: ‘Responsible AI’ of ‘verantwoordelijke AI’ gaat over het ontwikkelen en toepassen van AI systemen in lijn met ethische principes, waarden en wetgeving. AI kent in de financiële sector heel wat toepassingen. Het is belangrijk dat de uitkomsten van deze toepassingen minstens conform zijn aan de actuele wetgeving, en dat ze daarenboven de toets doorstaan van veiligheid, transparantie, non-discriminatie, privacy en verantwoordelijkheid. Een aantal toepassingen hebben een beperkte impact en vormen dus een laag risico in het geval van ongewenste effecten, denk bijvoorbeeld aan spam filters. Andere toepassingen kunnen we echter als hoog risico toepassingen kwalificeren omwille van de grote directe of indirecte impact die ze hebben op mensen. Denken we daarbij bijvoorbeeld aan het toekennen van kredieten op basis van o.a. data-analyse of het al dan niet aanwerven van medewerkers nadat hun kandidaturen gescand werden door AI toepassingen.

Er is heel wat te doen omtrent ‘AI bias’, AI zou gebaseerd (kunnen?) zijn op vooroordelen. Wat wordt daar precies mee bedoeld?

Technologie an sich is per definitie neutraal. Alles staat of valt natuurlijk bij de manier waarop we ze gebruiken. De trainingsdata of de steekproeven die we het algoritme ter beschikking stellen tijdens het leerproces bijvoorbeeld, moeten we zorgvuldig selecteren want zij kunnen mee de uitkomst van het algoritme bepalen. AI kan enerzijds een hulp zijn bij het identificeren en verminderen van de impact van menselijke vooroordelen door het effectief buiten beschouwing laten van irrelevante variabelen. Anderzijds kan AI dit probleem verergeren door vooroordelen op grote schaal structureel in te bouwen en verder toe te passen.

Kan je een voorbeeld geven van een concrete situatie waarin het mis is gegaan?

David Martens: ‘Jammer genoeg zijn er ondertussen voldoende voorbeelden beschikbaar. Denken we maar aan AppleCard die in een mediastorm terecht kwam toen een bekende tech-ondernemer op Twitter kloeg dat zijn vrouw een 20 keer lagere kredietlimiet kreeg dan hijzelf, ook al deelden ze alle assets en waren ze al lang getrouwd. Een vertegenwoordiger van Apple Card zou daarop gezegd hebben dat het niet aan hen lag, ‘maar aan het algoritme’, hetgeen -terecht- aanleiding gaf tot heel wat commotie.

Is ‘responsible AI’ een zaak van technologie en kan AI dus evolueren naar een meer ethische vorm van zichzelf of gaat het altijd over interpretatie door mensen?

David Martens: ‘Het antwoord daarop is complex. Enerzijds is er heel interessante technologie aan het opkomen, bijvoorbeeld op gebied van privacy, fairness en het uitleggen van zogenaamde 'black-box AI'. Daar kunnen we AI dus van binnenuit zeker nog veel verbeteren. Anderzijds blijven er ook gebieden waarop AI belangrijke beperkingen heeft, bijvoorbeeld logisch redeneren. De recente evoluties in generatieve AI, zoals ChatGPT, wijzen ons daarbij nog eens op de enorme mogelijkheden en opportuniteiten van AI. Het gaat ontzettend snel… Tegelijk brengt dit risico’s met zich mee en is het essentieel en noodzakelijk dat bedrijven zich goed informeren en hun medewerkers duidelijke richtlijnen geven over wat wel en niet verantwoord is.

     " Wanneer er problemen ontstaan met AI komt dat doorgaans niet omdat data scientists of managers onethisch handelen of AI bewust misbruiken. Vaak zijn ze zich simpelweg niet bewust van de risico’s."

Prof. David Martens is de lesgever voor de opleiding ‘Responsible Artificial Intelligence (AI) in Banking and Insurance’. Deze gaat door op 27 november 2023 van 9u tot 12u30.

Tijdens de opleiding zullen we de risico’s en opportuniteiten van de toepassing van AI in de financiële sector analyseren en het wettelijk kader toelichten via tal van praktijkvoorbeelden en cases. We willen financiële professionals niet alleen meer inzicht geven maar ook concrete tools om een verantwoorde AI-toekomst mee vorm te geven. We citeren tot besluit immers graag nog eens Scott Galloway ‘Het is niet AI die je job zal overnemen, het is die persoon die met AI kan werken die dat zal doen’

Contacteer Martin.haegheman@febelfin-academy.be voor meer informatie over deze opleiding, of ingrid.goris@febelfin-academy.be voor een offerte op maat van je organisatie.

Info en inschrijving

Delen

Opleiding & Finance: what's new?

CVE-20210113-Febelfin academy-468

Efficiënte en veilige gegevensuitwisseling : KBC maakt nu ook gebruik van de Febelfin Academy API

Om hun opleidingsverantwoordelijken toe te laten de administratie rond bijscholing sneller, flexibel...

Lees meer

people

Soft skills: essentieel voor succes op de werkvloer

Binnen het opleidingsaanbod van Febelfin Academy hebben soft skills een belangrijke plaats verworven...

Lees meer

Levenslang leren: 6 tips van ervaringsdeskundigen

‘Leren is leuk’ wordt al eens gezegd in L&D kringen. Maar leren kan ook knap lastig zijn, we hebben ...

Lees meer