1. Accueil › 
  2. › 
  3. › 
  4. Quand l'intelligence artificielle est trop intelligente... ou le contraire ?

Quand l'intelligence artificielle est trop intelligente... ou le contraire ?

, Risk, Finance & Treasury

La technologie de l'intelligence artificielle a pris de l'ampleur ces dernières années, et au sein de l'UE, on est en train de préparer la législation relative aux domaines d'application et à l'utilisation éthique de l'intelligence artificielle. Nous en avons parlé avec le Professeur David Martens, l'un des fondateurs de l'ACRAI, l'"Antwerp Center on Responsible AI", et également conférencier à l'Académie Febelfin.

Il est temps de nous pencher sur le thème 'responsible AI', maintenant que la première 'AI act' européenne est en cours de préparation. Parce que c'est un sujet intéressant, mais aussi parce que cette législation aura un impact considérable sur le secteur financier, notamment en termes de compliance. Comme toujours, collaborateurs ou organisations préparés en valent deux.

Pouvez-vous expliquer le terme "responsible AI" ?

David Martens : 'Responsible AI' signifie que le développement et l'application de systèmes AI se font dans le respect des principes éthiques, des valeurs et de la législation. L'AI connaît de nombreuses applications dans le secteur financier. Il est important que les résultats de ces applications soient au moins conformes à la législation en vigueur et qu'ils passent le test de la sécurité, de la transparence, de la non-discrimination, de la protection de la vie privée et de la responsabilité. Certaines applications ont un impact limité et présentent donc un faible risque en cas d'effets indésirables, pensons aux spam filters. D'autres applications, en par contre, peuvent être qualifiées comme applications à haut risque en raison de l'impact majeur, direct ou indirect, qu'elles ont sur des personnes. Pensons, par exemple, à l'octroi de crédits sur la base de d'analyse de données, entre autres, ou à la décision d'embaucher ou non des employés après que leurs candidatures ont été scannées par des applications d'intelligence artificielle.

Qu'entend-on exactement par "AI bias' ? Est-il possible que l'IA soit basée sur des biais ?

La technologie est neutre par définition. Bien sûr, tout dépend de la manière dont nous l'utilisons. Les données d'entraînement ou les échantillons que nous mettons à la disposition de l'algorithme au cours du processus d'apprentissage, par exemple, doivent être soigneusement sélectionnés car ils peuvent influencer le résultat de l'algorithme. D'une part, l'IA peut aider à identifier et à réduire l'impact des biais humains en excluant efficacement les variables non pertinentes. D'autre part, l'IA peut aggraver ce problème en incorporant structurellement des biais et en les appliquant à grande échelle.

Pouvez-vous donner un exemple concret où cela a posé des problèmes ?

David Martens : "Malheureusement, les exemples ne manquent pas. Il suffit de penser à AppleCard, qui a déclenché une tempête médiatique lorsqu'un célèbre entrepreneur technologique s'est plaint sur Twitter que sa femme bénéficiait d'une limite de crédit 20 fois inférieure à la sienne, alors qu'ils partagent tous leurs biens et qu'ils sont mariés depuis longtemps. Un représentant d'Apple Card aurait alors déclaré que ce n'était pas lui qui était en cause, "mais l'algorithme", ce qui, à juste titre, a suscité une vive émotion.

'Responsible AI', est-ce une question de technologie et est-ce que l'IA peut évoluer vers une forme plus éthique d'elle-même ou est-ce que cela reste une question d'interprétation par l'homme ?

David Martens : "La réponse à cette question est complexe. D'une part, des technologies très intéressantes émergent, par exemple dans les domaines de la vie privée, du GDPR et de l'équité. C'est donc là que nous pouvons certainement améliorer l'IA de l'intérieur. D'autre part, il reste des domaines où l'IA a des limites importantes, par exemple le raisonnement logique. À cet égard, les évolutions récentes de l'IA générative, telles que ChatGPT, nous rappellent encore une fois les énormes possibilités et opportunités de l'IA. En même temps, cela entraîne des risques Il est donc essentiel et nécessaire que les entreprises se tiennent bien informées et donnent à leurs employés des directives claires sur ce qui est responsable et ce qui ne l'est pas.

   " Lorsque des problèmes surviennent avec l'IA, ce n'est généralement pas parce que les data scientists ou les managers agissent de manière non éthique ou abusent délibérément de l'IA. Souvent, ils ne sont tout simplement pas conscients des risques."

Prof. David Martens donne la formation ‘Responsible Artificial Intelligence (AI) in Banking and Insurance’ qui aura lieu le 27 novembre 2023 de 9h à 12h30.

Pendant cette formation, nous analyserons les risques et les opportunités de l'application de l'IA dans le secteur financier et nous expliquerons le cadre juridique à travers de nombreux exemples et cas pratiques. Nous voulons donner aux professionnels de la finance non seulement une meilleure compréhension, mais aussi des outils concrets pour aider à façonner un avenir responsable en matière d'IA. En conclusion, nous aimerions citer Scott Galloway : "Ce n'est pas l'IA qui va prendre votre travail, c'est la personne qui peut travailler avec l'IA qui va le faire".

Contactez Martin.haegheman@febelfin-academy.be pour des informations plus amples ou ingrid.goris@febelfin-academy.be pour une offre sur mesure de votre organisation.

Info et inscription

Partager

Formation & Finance: quoi de neuf?

Apprentissage efficace et accessible grâce à E-learning

E-learning est une forme d'apprentissage efficace qui offre de nombreux avantages par rapport à une ...

En savoir plus

L’autogestion de la formation décharge toutes les parties concernées

Grâce à l’autogestion, les participants gagnent en contrôle et peuvent programmer de manière flexibl...

En savoir plus

3 formations sur l’IA pour travailler plus efficacement

L’intelligence artificielle est le prochain facteur de changement pour le secteur de la finance. « L...

En savoir plus