Une ère passionnante s’ouvre pour la technologie (encore une fois !), portée par la démocratisation de l'intelligence artificielle (IA) et du machine learning. L'IA générative, sous-ensemble de l'intelligence artificielle, est un type d’algorithmes entrainés sur un grand nombre de données qui fait des prédictions pour générer du contenu. ChatGPT est une interface de conversation en ligne développée par Open AI, qui s’appuie sur un algorithme de modélisation du langage qui interprète et génère des textes à partir de sources extérieures fiables. Avec le lancement récent de GPT-4, nous sommes à l’aube d'une nouvelle vague d'innovations dans le domaine de la technologie pour les entreprises et le grand public.
Soutenir le développement éthique des algorithmes
OpenAI a le potentiel de révolutionner plusieurs industries. Nous pensons d’ailleurs que cette technologie pourrait démocratiser de nombreux emplois « hautement qualifiés ». Davantage de personnes pourraient alors coder sans être spécialisées dans ce domaine, modernisant ainsi de nombreuses industries.
Toutefois, certains investisseurs pourraient être déçus par le faible impact financier sur les entreprises à court terme. C’est à plus long terme, au fur et à mesure que la technologie progresse, que des applications d'IA plus pratiques et transformatrices devraient émerger. Cela pourrait bénéficier aux sociétés exposées à cette thématique dans notre portefeuille. Nous nous méfions toujours des investissements fondés uniquement sur le « story-telling », dont les attentes sont souvent surestimées par le marché.
Comme le souligne la tribune du 29 mars, qui demande aux Big Tech d’interrompre pendant 6 mois le développement de systèmes d’IA plus puissants que GPT-4, nous avons conscience des risques inhérents à ChatGPT - et aux algorithmes de génération de langage en général, en termes de droits digitaux.
En tant qu’investisseurs, nous nous appuyons sur notre charte codéveloppée avec Revaia afin de soutenir l’émergence d’une Tech responsable, pour s’assurer d’un développement éthique des algorithmes :
-
L’algorithme est-il interprétable et explicable ? Comment le texte et/ou l’image ont-ils été générés ? Pourquoi telle réponse à telle question ?
-
L’algorithme bénéficie-t-il d’une fonction « modération » ? L’algorithme ne doit pas exprimer une opinion ou expliquer comment fabriquer une bombe, par exemple.
-
Avec quelles données l’algorithme a-t-il été entraîné ? Qu’en est-il des droits d'auteur (sources du texte généré) ? Qu’en est-il des droits d’images associés aux visuels utilisés pour la génération d’images par l’algorithme DALL-E d’Open AI ?
-
L’algorithme est-il fiable ? L’entreprise doit être en mesure de publier des indicateurs de performance et de précision de la technologie, de démontrer que celle-ci fait l’objet d’un suivi constant pour détecter et ainsi corriger d’éventuels biais algorithmiques : s’assurer, par exemple, que l’algorithme n’est pas entraîné et ne génère pas de contenus racistes, misogynes ou haineux.
-
L’entreprise est-elle à même d’identifier les risques et dérives potentiels des technologies développées avant de les mettre à disposition de ses clients ? Des mécanismes d’alertes et de remédiation efficaces en cas de matérialisation de ces risques sont-ils en place ?
L’IA générative dans Sycomore Sustainable Tech
En ce qui concerne le portefeuille Sycomore Sustainable Tech, nous avons augmenté notre exposition aux entreprises qui, selon nous, bénéficieront de l'IA à court et à long termes :
Microsoft
L'investissement de Microsoft dans OpenAI, ainsi que l’intégration de sa technologie dans des produits phares comme Office, Cybersecurity et GitHub, aura un impact significatif sur le long terme. Nous pensons que l'offre « CoPilot » (assistant personnel dédié aux applications Microsoft) renforcera considérablement la position concurrentielle de l’entreprise, menant à une montée en gamme permettant d’afficher des prix unitaires plus élevés. Azure (cloud Microsoft) devrait également profiter de cette technologie à plus court terme.
Par ailleurs, Microsoft répond également à nos attentes en termes d'IA éthique. En effet, dès 2018, Microsoft a défini six principes sur l’Intelligence Artificielle -équité, fiabilité, confidentialité & sécurité, inclusion, transparence et responsabilité-, qui se matérialisent par des pratiques de gouvernance, avec des normes internes et des formations obligatoires à l’échelle de l’entreprise. Microsoft a ainsi nommé un comité indépendant qui examine les cas sensibles d’applications d’IA. La société propose également des outils d’IA responsables en open source et intégrés à sa plateforme de développement Azure ML (Machine Learning).
Enfin, nous menons un dialogue actionnarial actif avec Microsoft en vue de l’adoption et de la publication d’un cadre de référence pour le développement et l’utilisation d’algorithmes ainsi que l’évaluation de leur impact sur les Droits de l’Homme. Nous leur avons également demandé de publier davantage d’informations quant aux options proposées aux utilisateurs pour accéder à leurs données et contrôler la manière dont celles-ci sont collectées et utilisées.
Retrouvez l'étude complète de David RAINVILLE, Gérant, en cliquant ICI.
Pour accéder au site, cliquez ICI.