Les entreprises sont de plus en plus conscientes des risques que l'intelligence artificielle (IA) peut représenter pour la société, mais il reste encore beaucoup à faire. C'est la conclusion à laquelle est parvenue l'équipe Actionnariat actif de Robeco après trois années de dialogue actionnarial avec dix entreprises à la pointe de la technologie.
Points clés :
-
Les entreprises travaillent à la rédaction de principes d'IA responsable et à la réduction des risques
-
Le dialogue actionnarial a été couronné de succès auprès de quatre entreprises sur cinq
-
Le dialogue actionnarial se poursuivra avec cinq autres entreprises au sujet de leur impact sociétal
L'IA peut offrir des avantages considérables, qu'il s'agisse du simple machine learning qui semble savoir ce qu'on veut taper sur son clavier, ou d'algorithmes plus complexes capables de prédire les besoins en matière de santé et de détecter des schémas récurrents dans le changement climatique. Aujourd'hui, elle est couramment utilisée dans tout le secteur de la technologie et elle s'invite souvent sans même que l'utilisateur le sache.
Mais elle fait également peser de lourdes menaces sur la vie privée et la gestion des données, ou encore en matière de dérive du machine learning (surveillance non désirée, profilage racial ou discrimination). Et il est difficile de savoir où les choses en sont parce que les entreprises ne communiquent guère d'informations au sujet de leurs activités IA.
Ce manque d'informations est l'une des raisons pour lesquelles les efforts de l'équipe Actionnariat actif ont abouti uniquement pour quatre des cinq entreprises figurant à son programme de dialogue actionnarial 2019-2022. Cinq autres cas ont été transférés au pôle ODD de l'équipe afin qu'elle poursuive le dialogue actionnarial avec ces entreprises concernant leur impact sociétal.
Harmonisation des pratiques
« Grâce à notre dialogue actionnarial, nous avons appris que les entreprises sont en train d'harmoniser progressivement leurs pratiques internes sur les principes de l'IA responsable », fait observer Danielle Essink, spécialiste du dialogue actionnarial. « De nombreuses entreprises ont formalisé des principes d'IA qui abordent des sujets comme l'inclusion, l'équité et la transparence.
Par ailleurs, les entreprises adoptent de plus en plus une approche collaborative en contribuant activement aux initiatives qui visent à faire valoir la gouvernance responsable et les bonnes pratiques. Les initiatives de ce genre jouent un rôle déterminant pour garantir une IA digne de confiance dans l'ensemble du secteur.
Cela étant, les principes éthiques ne constituent pas à eux seuls une garantie que l'IA sera développée et déployée de façon responsable. Les entreprises doivent se doter de mécanismes de gouvernance solides pour mettre en œuvre efficacement leurs principes ».
Pour consulter le commentaire dans son intégralité, cliquez ICI.
Pour accéder au site, cliquez ICI.