Des prémices d'Alan Turing et de la machine "Enigma" pendant la Seconde Guerre mondiale aux avancées spectaculaires du Deep Learning, notamment incarné par ChatGPT d'OpenAI, l'IA a connu des décennies d'évolution. Elle a façonné des secteurs allant de la médecine à la reconnaissance faciale, en passant par la traduction automatique. C'est une révolution silencieuse, à la fois fascinante et porteuse de défis éthiques et environnementaux.
Dans cet article, nous explorerons l'IA sous toutes ses facettes, des mécanismes du Machine Learning (ML) au Natural Language Processing (NLP) en passant par la Computer Vision et la Robotique Autonome. Vous découvrirez également la chaîne de valeur de l'IA, de la conception des algorithmes aux applications concrètes, et les enjeux cruciaux qui accompagnent cette révolution.
Avant de comprendre les impacts de l'Intelligence Artificielle (IA) sur notre métier de Product Manager, sur l'évolution de nos produits numériques et tous les enjeux associés, commençons tout d'abord par comprendre cette technologie. En termes simples :
« Le terme Intelligence Artificielle (IA) est utilisée pour classer les machines qui imitent l'intelligence humaine et les fonctions cognitives humaines telles que la résolution de problèmes et l'apprentissage. L'IA utilise des prédictions et l'automatisation pour optimiser et résoudre des tâches complexes que les humains ont historiquement accomplies, telles que la reconnaissance faciale et vocale, la prise de décision et la traduction. » IBM
L'histoire de l'IA commence dans les années 1930 lorsqu’ Alan Turing pose les premiers jalons avec sa machine "Enigma", une avancée qui a permis de révolutionner le domaine de la cryptanalyse pendant la Seconde Guerre mondiale. C’est en 1956 que le terme d’« Intelligence Artificielle » est utilisé pour la première fois lors de la conférence de Dartmouth (UK). Après une période prometteuse dans les années 1960, avec la naissance du premier robot à usage industriel Unimate ou le programme ELIZA qui a posé les bases pour le développement ultérieur de chatbots et d'assistants virtuels, le domaine traverse un « hiver » jusqu’à la fin des années 1970. Pendant les deux décennies suivantes, les "Expert Systems" ont émergé, reproduisant la prise de décision d'experts humains dans des domaines spécifiques (médecine, l'ingénierie, la finance, etc). C’est ainsi que DeepBlue d'IBM a marqué l'histoire en battant le champion du monde d'échecs Garry Kasparov.
C’est à partir des années 2000 que l’intégration de l’IA arrive dans notre quotidien via les GAFAM (Google (Alphabet), Apple, Facebook (Meta), Amazon et Microsoft) en Occident et les BATX (Baidu, Alibaba, Tencent, Xiaomi) en Chine. La décennie 2010 a connu l’arrivée du Deep Learning porté notamment par Yann Le Cun et des avancées majeures telles que l’AlphaGo de DeepMind (désormais propriété de Google) & ChatGPT d’OpenAI (désormais partiellement propriété de Microsoft). Après l’arrivée des évolutions GPT 3.5 en novembre 2022 puis GPT 4.0 en mars 2023, cette technologie a été mise en avant dans de nombreux médias internationaux. Cela a conduit à l'accélération des investissements, des opportunités associées et de l'intérêt du grand public pour cette technologie, ainsi qu'à l'intensification du débat éthique qui en découle.
L’ensemble des Intelligences Artificielles présentées ci-dessous sont basées sur des algorithmes. On peut définir ces derniers comme une série d'instructions ordonnées et finies permettant de résoudre un problème ou d'accomplir une tâche. Ces algorithmes peuvent être exécutés par une machine ou un humain. L’exécution de ces calculs complexes nécessite de très grandes puissances de calcul donc des ressources associées dans des datacenters. C’est la combinaison entre une architecture efficiente et efficace, des ressources de calcul élevées et d’immenses bases de données ordonnées et qualifiées, pour entrainer ces algorithmes, qui permet à une IA de performer en 2023.
Le Machine Learning (ML) se définit comme un ensemble d’algorithmes permettant aux machines d'apprendre à partir de données sans être explicitement programmées. Ces apprentissages peuvent s’exécuter de plusieurs manières :
Le Deep Learning (DL) se définit comme un sous-ensemble du Machine Learning qui utilise des réseaux de neurones profonds (des structures algorithmiques inspirées du fonctionnement des neurones dans le cerveau) pour apprendre et prendre des décisions à partir de grandes quantités de données. Des cas d’usage concrets se font aujourd’hui sur la traduction automatique (Google Translate) ou la conduite autonome (Tesla).
Le Natural Language Processing (NLP) est une technique permettant aux machines de comprendre et générer le langage humain, l’une des formes les plus avancées sont les LLM (Large Language Models). C’est l’utilisation de cette technologie par ChatGPT (Generative Pre-trained Transformer) d’OpenAI qui est à l’origine de la forte médiatisation de l’IA en 2022-2023. Comme LLM connu, nous pouvons également citer BERT (Bidirectional Encoder Representations from Transformers) de Google. Ceux-ci étant basés sur l’architecture « Transformer » qui forme l’IA sur des quantités massives de données. Dans notre quotidien depuis quelques années, les assistants virtuels Siri (Apple) & Alexa (Amazon) utilisent également les NLP.
Celle-ci permet aux machines de « voir » et interpréter du contenu visuel, tel que la détection d’objets, la reconnaissance faciale. Les filtres Instagram par exemple sont tirés de cette technologie.
Grâce à la Robotique Autonome, les robots sont capables d’exécuter des tâches sans intervention humaine. On peut citer comme usage de cette technologie, les livraisons par drones ou encore la chirurgie robotisée. Les robots de Boston Dynamics utilisent notamment ces IA.
Ces systèmes sont conçus pour émuler les capacités de décision d'un expert humain dans un domaine spécifique. Des cas d’usages connus sont le diagnostic médical assisté, le conseil financier et la gestion de patrimoine.
Ces technologies immersives s’appuient sur l’IA pour améliorer l’interaction utilisateur. Cela permet d’améliorer certains jeux vidéo, de former à certains métiers en réalité virtuelle ou encore de créer des filtres Snapchat. Pour ce dernier, l’IA détecte et suit les traits du visage en temps réel, permettant aux lentilles AR de s'adapter et de se superposer de manière dynamique sur le visage de l'utilisateur.
Cette partie fait référence à l’illustration en début d’article*
Ces entreprises conçoivent et fabriquent les composants matériels nécessaires pour faire fonctionner les systèmes d'IA, en particulier les puces spécialisées pour le traitement à haute performance. Les plus connues sont les GPU (Graphics Processing Unit) ou les TPU (Tensor Processing Unit) dont les constructeurs sont NVIDIA (leader dans la fabrication de GPU), Intel, AMD, ASML.
Ils proposent des infrastructures sous forme de service, notamment des capacités de calcul (CPU), de stockage afin d’exécuter les algorithmes à grande échelle et ainsi faire fonctionner l’IA. On parle souvent d’Infrastructure-As-A-Service (IaaS) ou Platform-As-A-Service (PaaS).
Les acteurs majeurs de ce marché sont :
Ces sociétés développent des algorithmes d’Intelligence Artificielle, des modèles pré-entraînés et des logiciels spécialisés. Les plus connus sont :
Ces entreprises prennent les outils et les modèles d’IA et les intègrent dans des solutions concrètes pour résoudre des problèmes réels et spécifiques pour les consommateurs finaux (BtoC) et les entreprises (BtoB). On peut notamment citer :
En conclusion, l’Intelligence Artificielle se développe, se structure et, ainsi, transforme pas à pas l’économie du numérique et notre quotidien. De nombreux enjeux sont à venir : l’éthique et la transparence dans le déploiement de ces technologies, la régulation et la gouvernance, l’importance de créer des modèles non biaisés, justes et inclusifs, la sécurité et les cybermenaces dont l’IA peut être, à la fois la réponse, comme la menace. On peut également citer les enjeux énergétiques associés à la consommation des data centers, l’impact sur les emplois et la formation nécessaire des travailleurs. Aujourd’hui par exemple, l’apprentissage et l’utilisation des LLM actuels comme ChatGPT demandent une quantité massive de ressources en datacenter avec l’impact écologique associé.
Pour illustrer les débats actuels autour de cette technologie, les 3 pères du Deep Learning (prix de Turing en 2018) Yann Le Cun, Yoshua Bengio et Geoffrey Hinton ont exprimé des avis très divergents sur la nécessité d’accélérer ou de geler la recherche en IA afin de réguler les résultats et les usages associés à celle-ci. Les modèles d’IA développés vont devoir répondre à des enjeux de performance, mais également d’efficience.
En tant que Product Manager nous devons apprendre à utiliser ces nouveaux outils dans notre quotidien ainsi que dans l’amélioration continue de nos produits numériques. Découvrez comment dans le prochain article de notre série :
Vers un Product Management 3.0 : L'IA au Service du PM
Ce qu’il faut retenir :