L’IA, avec son analyse de données et son pouvoir prédictif, peut révolutionner l’investissement. Toutefois, l’homme reste un élément essentiel du processus. Franklin Templeton Investment Solutions fournit des cas d’utilisation sur la manière dont différents investisseurs peuvent exploiter l’IA pour obtenir les résultats et les flux de travail souhaités.
L’intelligence artificielle (IA) est communément définie comme des machines qui imitent les fonctions cognitives du cerveau humain. Dans certains cas, comme le jeu de dames, où les règles sont simples, la barre est relativement basse. C’est d’ailleurs l’un des premiers cas d’utilisation de l’IA qui a été présenté par Arthur Lee Samuel en 1952.1 Cependant, la barre s’élève de manière exponentielle à chaque niveau de complexité. Ce n’est qu’en 1997 que Gary Kasparov a perdu un match complet contre Deep Blue.2 Il a fallu près de deux décennies de plus, malgré les progrès exponentiels de la puissance informatique au cours de cette période, pour qu’AlphaGo batte le grand maître du go Lee Sedol en 2016.3 Ainsi, bien que les progrès de l’IA, y compris ceux dont nous parlerons dans cet article, augmentent la capacité cognitive collective de la Terre, il est prématuré de se mettre à l’abri de robots intelligents ou même de craindre qu’ils ne remplacent totalement de nombreux travailleurs du savoir, tels que les professionnels de l’investissement.
En revanche, avec l’avènement des grands modèles de langage (large language models ou LLM), qui sont des algorithmes d’apprentissage profond entraînés sur des ensembles de données gigantesques, les résultats de l’IA peuvent aller de résumés concis à des aperçus détaillés. La première chose qui vient à l’esprit est le GPT-3 d’OpenAI, dont ChatGPT est le résultat.4 Le GPT-3 a été formé sur la quasi-totalité de l’internet et sur la plupart des livres.5 Son réseau neuronal a ainsi été doté de 175 milliards de paramètres,6 qu’il utilise pour émettre des avis sur des sujets allant du banal au sublime. Avec des téraoctets de données d’entraînement, une grande puissance amplifiée par l’informatique distribuée et une certaine ingéniosité humaine de la vieille école, les applications de l’IA dans de nombreux domaines, y compris l’investissement, continueront à progresser rapidement. Bien que nombre d’entre elles dépassent le cadre de cet article introductif, nous présentons des cas d’utilisation de l’IA par différents investisseurs afin d’améliorer potentiellement les résultats et les flux de travail souhaités.
Capacités en matière d’IA : Analyse des données et pouvoir prédictif
En poussant l’investissement à l’extrême, nous pourrions dire qu’il s’agit de déterminer la juste valeur des actifs en analysant le maximum d’informations publiques disponibles, puis, si les prix du marché diffèrent des résultats, d’acheter ou de vendre ces actifs. La quantité de données pertinentes est énorme - documents financiers, transcriptions de résultats, dépôts réglementaires, articles de presse, témoignages d’une journée entière devant le Congrès et, aujourd’hui, même les conversations Reddit et les tweets. Ces données sont bruyantes, non normales et de plus en plus non structurées (c’est-à-dire difficiles à analyser). Les LLM peuvent à la fois consommer et, surtout, comprendre ces données à des taux supérieurs à ceux de n’importe quelle équipe d’analystes.
L’un des résultats de base de cette tâche est la capacité à résumer des informations pour la consommation humaine, qu’il s’agisse de milliers de fils de discussion sur les médias sociaux rédigés dans la langue vernaculaire des zoomers (« no cap »7) ou du jargon juridique dense d’une déposition d’entreprise (véritablement8). En outre, l’IA peut combiner différents ensembles de données pour en extraire des informations qui ne sont pas immédiatement visibles, même pour un investisseur humain chevronné.
Alors, devrions-nous tous prendre notre retraite et laisser les machines prendre le relais? Pas si vite. Lorsqu’ils sont correctement sollicités, les diplômés en droit sont prompts à donner des réponses avec l’assurance d’un économiste qui débite des points de vue à la télévision. Cela s’explique par le fait que les LLM sont formés, à un niveau pavlovien, à offrir des réponses auxquelles les humains font confiance. La plupart des algorithmes prévoient une fonction de récompense pour les réponses acceptables. Mais leur confiance est-elle justifiée? Cela dépend de nombreux facteurs, et même s’ils sont alimentés par des données de haute qualité, les algorithmes d’apprentissage profond sont faillibles. Par exemple, les modèles transformateurs (qui interprètent la plupart des LLM) peuvent facilement dévier de leur trajectoire, ou halluciner, parce qu’ils fonctionnent en prédisant séquentiellement le mot suivant le plus probable dans une phrase. Il s’agit d’un processus autorégressif, dans lequel les mots générés par le LLM lui-même sont utilisés pour prédire les suivants. À première vue, cela ressemble à la façon dont les humains pensent (après tout, les mots que nous prononçons ensuite sont basés sur ceux qui viennent de sortir de notre bouche) mais les LLM ont beaucoup plus de mal à se rendre compte qu’ils disent n’importe quoi. Reconnaître quand une IA confiante se trompe lourdement, lui poser des questions avec précision, affiner sa formation et l’alimenter avec les données les plus nutritionnelles sont autant de raisons pour lesquelles l’homme reste un élément crucial du processus. Nous proposons ci-dessous des exemples pratiques dans le monde de l’investissement.
Pour lire l'article dans son intégralité, cliquez ICI.
Pour accéder au site, cliquez ICI.