Une chanson de Drake entièrement générée par l’Intelligence Artificielle (IA) qui pourrait gagner les Grammy Awards, une image fabriquée de toutes pièces par l’IA lauréate du Sony World Photography Award, le Pape vêtu d’une doudoune blanche de marque, les effets visibles de l’intelligence artificielle posent de nombreuses questions sociales, environnementales et éthiques.
Impact social
Les avancées des technologies de l'IA comme ChatGPT pourraient avoir des effets significatifs sur le futur marché de l'emploi et la répartition du travail. À mesure que l'IA devient plus performante et fiable, il est possible que de nombreuses tâches actuellement effectuées par les humains soient automatisées. Cela pourrait potentiellement entraîner des pertes d'emploi dans certaines industries, notamment celles impliquant des tâches routinières ou répétitives. Selon McKinsey, l'IA pourrait améliorer l'efficacité des entreprises de plus de 40% et réduire les coûts d'exploitation jusqu'à 30%. L'IA pourrait également créer de nouveaux emplois dans le développement, la maintenance et la supervision des systèmes d'IA eux-mêmes. Les entreprises devront s'adapter en transformant et en améliorant les compétences de leurs employés face à ces technologies. Une nouvelle étude de l'Organisation internationale du Travail (OIT) confirme cette idée tout en prévenant que les effets potentiels de l'IA générative sont susceptibles d’être sensiblement différents pour les hommes et les femmes. Ainsi, la part de l'emploi féminin peut être affectée par l'automatisation dans une proportion deux fois supérieure.
Impact environnemental
Impact sociétal
Les problèmes de sécurité, de protection de la vie privée, de la lutte contre les cyberattaques vont devenir croissants. Mais les questions les plus essentielles se posent sur les protections à mettre en place pour éviter toute dérive éthique ou législative suite à un usage non maîtrisé de l’IA. Qu’en est-il de l’utilisation des sources associées à des droits d’auteur ? Comment garantir de ne pas propager de désinformation ? Comment lutter contre la discrimination d’une IA biaisée ?
Les réglementations vont donc se multiplier. Les dirigeants du G7 ont annoncé en mai dernier la constitution d'un futur « groupe de travail » sur l'intelligence artificielle pour mener des discussions sur une « utilisation responsable » de ces outils et sur les risques qu'ils présentent, dont la « désinformation ». La loi européenne sur l’IA devrait encadrer les risques actuellement identifiés, via une liste de pratiques interdites, une liste à haut risques et des obligations, notamment par exemple en contraignant les entreprises à publier les sources utilisées.
Les auteurs de l’étude précitée notent que « les résultats de la transition technologique ne sont pas prédéterminés. Ce sont les êtres humains qui sont à l'origine de la décision d'incorporer ces technologies et ce sont eux qui doivent guider le processus de transition ».
Pour accéder au site, cliquez ICI.