Qu’est-ce que l’intelligence artificielle (IA) ? Comment fonctionne l’IA ?

L’intelligence artificielle (IA) est une vaste branche de l’informatique qui s’intéresse à la construction de machines intelligentes capables d’effectuer des tâches qui requièrent généralement l’intelligence humaine. Bien que l’IA soit une science interdisciplinaire aux approches multiples, les progrès de l’apprentissage automatique et de l’apprentissage profond, en particulier, entraînent un changement de paradigme dans pratiquement tous les secteurs de l’industrie technologique.

L’intelligence artificielle permet aux machines de modéliser, voire d’améliorer, les capacités de l’esprit humain. Du développement des voitures autonomes à la prolifération des assistants intelligents tels que Siri et Alexa, l’IA fait de plus en plus partie de la vie quotidienne – et c’est un domaine dans lequel les entreprises de tous les secteurs d’activité investissent.

Définition de l’intelligence artificielle : Les bases

Comprendre l’IA

D’une manière générale, les systèmes artificiellement intelligents peuvent effectuer des tâches généralement associées aux fonctions cognitives humaines, telles que l’interprétation de la parole, les jeux et l’identification de modèles. Ils apprennent généralement à le faire en traitant des quantités massives de données, à la recherche de modèles à modéliser dans leur propre prise de décision. Dans de nombreux cas, les humains supervisent le processus d’apprentissage de l’IA, renforçant les bonnes décisions et décourageant les mauvaises. Mais certains systèmes d’IA sont conçus pour apprendre sans supervision – par exemple, en jouant à un jeu vidéo encore et encore jusqu’à ce qu’ils finissent par comprendre les règles et la manière de gagner.

IA forte et IA faible

L’intelligence est difficile à définir, c’est pourquoi les experts en IA font généralement la distinction entre l’IA forte et l’IA faible.

L’IA forte

L’IA forte, également connue sous le nom d’intelligence artificielle générale, est une machine capable de résoudre des problèmes pour lesquels elle n’a jamais été entraînée, à l’instar d’un être humain. C’est le type d’IA que l’on voit dans les films, comme les robots de Westworld ou le personnage de Data dans Star Trek : The Next Generation. Ce type d’IA n’existe pas encore.

La création d’une machine dotée d’une intelligence de niveau humain et pouvant être appliquée à n’importe quelle tâche est le Saint Graal de nombreux chercheurs en IA, mais la quête de l’intelligence artificielle générale a été semée d’embûches. Certains pensent que la recherche sur l’IA forte devrait être limitée, en raison des risques potentiels liés à la création d’une IA puissante sans garde-fous appropriés.

Contrairement à l’IA faible, l’IA forte représente une machine dotée d’un ensemble complet de capacités cognitives – et d’un éventail tout aussi large de cas d’utilisation – mais le temps n’a pas encore réduit la difficulté de réaliser un tel exploit.

L’IA faible

L’IA faible, parfois appelée IA étroite ou IA spécialisée, fonctionne dans un contexte limité et est une simulation de l’intelligence humaine appliquée à un problème étroitement défini (comme la conduite d’une voiture, la transcription d’un discours humain ou la curation de contenu sur un site web).

L’IA faible est souvent axée sur l’exécution d’une seule tâche de manière extrêmement efficace. Bien que ces machines puissent sembler intelligentes, elles sont soumises à beaucoup plus de contraintes et de limitations que l’intelligence humaine la plus élémentaire.

Parmi les exemples d’IA faible, on peut citer :

  • Siri, Alexa et autres assistants intelligents
  • Les voitures autopilotées
  • La recherche Google
  • Les robots conversationnels (chatbots)
  • Les filtres anti-spam pour les courriels
  • Les recommandations de Netflix

Apprentissage automatique vs. Apprentissage profond

Bien que les termes “apprentissage automatique” et “apprentissage profond” reviennent souvent dans les discussions autour de l’IA, ils ne doivent pas être utilisés de manière interchangeable. L’apprentissage profond est une forme d’apprentissage automatique, et l’apprentissage automatique est un sous-domaine de l’intelligence artificielle.

L’apprentissage automatique (machine learning)

Un algorithme d’apprentissage automatique est alimenté en données par un ordinateur et utilise des techniques statistiques pour l’aider à “apprendre” comment s’améliorer progressivement dans une tâche, sans nécessairement avoir été spécifiquement programmé pour cette tâche. Les algorithmes d’apprentissage automatique utilisent plutôt des données historiques pour prédire de nouvelles valeurs de sortie. À cette fin, le ML (machine learning) consiste à la fois en un apprentissage supervisé (où la sortie attendue pour l’entrée est connue grâce à des ensembles de données étiquetées) et en un apprentissage non supervisé (où les sorties attendues sont inconnues en raison de l’utilisation d’ensembles de données non étiquetées).

Apprentissage en profond (deep learning)

L’apprentissage profond est un type d’apprentissage automatique qui fait passer les données d’entrée par une architecture de réseau neuronal d’inspiration biologique. Les réseaux neuronaux contiennent un certain nombre de couches cachées à travers lesquelles les données sont traitées, ce qui permet à la machine d’aller “en profondeur” dans son apprentissage, en établissant des connexions et en pondérant les données pour obtenir les meilleurs résultats.

Exemples d’intelligence artificielle

Les quatre types d’IA

L’IA peut être divisée en quatre catégories, en fonction du type et de la complexité des tâches qu’un système est capable d’accomplir :

  • Machines réactives
  • Mémoire limitée
  • Théorie de l’esprit
  • Conscience de soi

Machines réactives

Une machine réactive suit les principes les plus élémentaires de l’IA et, comme son nom l’indique, est capable d’utiliser son intelligence uniquement pour percevoir le monde qui s’offre à elle et y réagir. Une machine réactive ne peut pas stocker de mémoire et, par conséquent, ne peut pas s’appuyer sur des expériences passées pour prendre des décisions en temps réel.

Percevoir le monde directement signifie que les machines réactives sont conçues pour accomplir uniquement un nombre limité de tâches spécialisées. Le fait de restreindre intentionnellement la vision du monde d’une machine réactive présente toutefois des avantages : Ce type d’IA sera plus digne de confiance et plus fiable, et elle réagira toujours de la même manière aux mêmes stimuli.

Exemples de machines réactives
  • Deep Blue a été conçu par IBM dans les années 1990 comme un superordinateur jouant aux échecs et a battu le grand maître international Gary Kasparov lors d’une partie. Deep Blue était uniquement capable d’identifier les pièces d’un échiquier et de savoir comment chacune d’entre elles se déplace en fonction des règles du jeu d’échecs, en reconnaissant la position actuelle de chaque pièce et en déterminant quel serait le mouvement le plus logique à ce moment-là. L’ordinateur ne cherchait pas à connaître les futurs mouvements potentiels de son adversaire ou à placer ses propres pièces dans une meilleure position. Chaque tour était considéré comme une réalité propre, distincte de tout autre mouvement effectué auparavant.
  • AlphaGo de Google est également incapable d’évaluer les mouvements futurs, mais s’appuie sur son propre réseau neuronal pour évaluer l’évolution de la partie en cours, ce qui lui a donné un avantage sur Deep Blue dans un jeu plus complexe. AlphaGo a également battu des concurrents de classe mondiale dans ce jeu, en battant le champion de Go Lee Sedol en 2016.

Mémoire limitée

L’IA à mémoire limitée a la capacité de stocker des données et des prédictions antérieures lorsqu’elle recueille des informations et pèse des décisions potentielles – essentiellement en regardant dans le passé pour trouver des indices sur ce qui pourrait arriver ensuite. L’IA à mémoire limitée est plus complexe et offre de plus grandes possibilités que les machines réactives.

L’IA à mémoire limitée est créée lorsqu’une équipe forme continuellement un modèle à l’analyse et à l’utilisation de nouvelles données ou lorsqu’un environnement d’IA est construit pour que les modèles puissent être formés et renouvelés automatiquement.

Lors de l’utilisation de l’IA à mémoire limitée dans le ML, six étapes doivent être suivies :

  1. Établir des données d’entraînement
  2. Créer le modèle d’apprentissage automatique
  3. S’assurer que le modèle peut faire des prédictions
  4. S’assurer que le modèle peut recevoir un retour d’information humain ou environnemental
  5. Stocker les commentaires humains et environnementaux sous forme de données
  6. Répéter les étapes ci-dessus sous forme de cycle

La théorie de l’esprit

La théorie de l’esprit n’est rien d’autre que de la théorie. Nous n’avons pas encore atteint les capacités technologiques et scientifiques nécessaires pour atteindre ce niveau supérieur de l’IA.

Le concept repose sur le principe psychologique selon lequel d’autres êtres vivants ont des pensées et des émotions qui influencent le comportement de chacun. En ce qui concerne les machines d’IA, cela signifierait que l’IA pourrait comprendre comment les humains, les animaux et les autres machines se sentent et prennent des décisions grâce à l’autoréflexion et à la détermination, puis utiliser ces informations pour prendre leurs propres décisions. En fait, les machines devraient être capables de saisir et de traiter le concept d'”esprit”, les fluctuations des émotions dans la prise de décision et toute une série d’autres concepts psychologiques en temps réel, créant ainsi une relation à double sens entre l’homme et l’IA.

Conscience de soi

Une fois que la théorie de l’esprit pourra être établie, dans un prochain avenir de l’IA, l’étape finale consistera pour l’IA à devenir consciente d’elle-même. Ce type d’IA possède une conscience de niveau humain et comprend sa propre existence dans le monde, ainsi que la présence et l’état émotionnel des autres. Elle serait capable de comprendre ce dont les autres ont besoin en se basant non seulement sur ce qu’ils leur communiquent, mais aussi sur la manière dont ils le font.

La conscience de soi dans l’IA repose à la fois sur la compréhension par les chercheurs humains des prémisses de la conscience et sur l’apprentissage de la reproduction de cette conscience pour qu’elle puisse être intégrée dans les machines.

Exemples d’intelligence artificielle

La technologie de l’intelligence artificielle prend de nombreuses formes, des chatbots aux applications de navigation en passant par les trackers de fitness. Les exemples ci-dessous illustrent l’étendue des applications potentielles de l’IA.

ChatGPT

ChatGPT est un chatbot d’intelligence artificielle capable de produire du contenu écrit sous différents formats, des essais au code de programmation en passant par des réponses à des questions simples. Lancé en novembre 2022 par OpenAI, ChatGPT s’appuie sur un vaste modèle de langage qui lui permet d’imiter au plus près l’écriture humaine.

Google Maps

Google Maps utilise les données de localisation des smartphones, ainsi que les données rapportées par les utilisateurs sur les travaux et les accidents de voiture, pour surveiller le flux et le reflux du trafic et évaluer l’itinéraire le plus rapide.

Assistants intelligents

Les assistants personnels tels que Siri, Alexa et Cortana utilisent le traitement du langage naturel (NLP) pour recevoir les instructions des utilisateurs afin de programmer des rappels, de rechercher des informations en ligne et de contrôler les lumières dans les maisons. Dans de nombreux cas, ces assistants sont conçus pour apprendre les préférences de l’utilisateur et améliorer son expérience au fil du temps grâce à de meilleures suggestions et à des réponses plus personnalisées.

Filtres Snapchat

Les filtres Snapchat utilisent des algorithmes de ML pour distinguer le sujet d’une image de l’arrière-plan, suivre les mouvements du visage et ajuster l’image à l’écran en fonction de ce que fait l’utilisateur.

Voitures autonomes

Les voitures autonomes sont un exemple reconnaissable d’apprentissage profond, puisqu’elles utilisent des réseaux neuronaux profonds pour détecter les objets autour d’elles, déterminer leur distance par rapport aux autres voitures, identifier les feux de circulation et bien plus encore.

Produits mobiles

Les capteurs et dispositifs portables utilisés dans l’industrie de la santé appliquent également l’apprentissage profond pour évaluer l’état de santé du patient, notamment sa glycémie, sa tension artérielle et son rythme cardiaque. Ils peuvent également dériver des modèles à partir des données médicales antérieures d’un patient et les utiliser pour anticiper tout problème de santé futur.

MuZero

MuZero, un programme informatique créé par DeepMind, est un précurseur prometteur dans la quête d’une véritable intelligence artificielle générale. Il est parvenu à maîtriser des jeux auxquels on ne lui avait même pas appris à jouer, notamment les échecs et toute une série de jeux Atari, par le “brute force”, en jouant des millions de fois.

Avantages, défis et avenir de l’IA

Avantages de l’intelligence artificielle

L’IA a de nombreuses utilisations, qu’il s’agisse de stimuler le développement de vaccins ou d’automatiser la détection de fraudes potentielles. Selon une étude de CB Insights, les entreprises spécialisées dans l’IA ont levé 66,8 milliards de dollars de fonds en 2022, soit plus du double du montant levé en 2020. En raison de son adoption rapide, l’IA fait des vagues dans un grand nombre de secteurs.

Des services bancaires plus sûrs

Le rapport 2022 de Business Insider Intelligence sur l’IA dans le secteur bancaire a révélé que plus de la moitié des sociétés de services financiers utilisent déjà des solutions d’IA pour la gestion des risques et la génération de revenus. L’application de l’IA dans le secteur bancaire pourrait permettre de réaliser plus de 400 milliards de dollars d’économies.

Une meilleure médecine

En ce qui concerne la médecine, un rapport de l’Organisation Mondiale de la Santé de 2021 indique que si l’intégration de l’IA dans le domaine des soins de santé comporte des défis, la technologie “est très prometteuse”, car elle pourrait conduire à des avantages tels qu’une politique de santé mieux informée et des améliorations dans la précision des diagnostics des patients.

Des médias innovants

L’IA s’est également imposée dans le domaine du divertissement. Selon Grand View Research, le marché mondial de l’IA dans les médias et le divertissement devrait atteindre 99,48 milliards de dollars d’ici à 2030, contre 10,87 milliards de dollars en 2021. Cette expansion comprend des utilisations de l’IA telles que la reconnaissance du plagiat et le développement de graphiques haute définition.

Défis et limites de l’IA

Bien que l’IA soit certainement considérée comme un atout important et en évolution rapide, ce domaine émergent comporte sa part d’inconvénients.

Le Pew Research Center a interrogé 10 260 Américains en 2021 sur leur attitude à l’égard de l’IA. Les résultats ont montré que 45 % des personnes interrogées sont à la fois enthousiastes et inquiètes, et que 37 % sont plus inquiètes qu’enthousiastes. En outre, plus de 40 % des personnes interrogées ont déclaré qu’elles considéraient les voitures sans conducteur comme néfastes pour la société. En revanche, l’idée d’utiliser l’IA pour identifier la diffusion de fausses informations sur les médias sociaux a été mieux accueillie, puisque près de 40 % des personnes interrogées l’ont qualifiée de bonne.

L’IA est une aubaine pour améliorer la productivité et l’efficacité tout en réduisant le risque d’erreur humaine. Mais elle présente aussi des inconvénients, comme les coûts de développement et la possibilité que des machines automatisées remplacent des emplois humains. Il convient toutefois de noter que l’industrie de l’intelligence artificielle devrait également créer des emplois, dont certains n’ont même pas encore été inventés.

L’avenir de l’intelligence artificielle

Si l’on considère les coûts de calcul et l’infrastructure technique des données qui sous-tendent l’intelligence artificielle, l’exécution de l’IA est une entreprise complexe et coûteuse. Heureusement, la technologie informatique a connu des avancées massives, comme l’indique la loi de Moore, selon laquelle le nombre de transistors sur une puce électronique double tous les deux ans environ, tandis que le coût des ordinateurs est divisé par deux.

Bien que de nombreux experts estiment que la loi de Moore prendra probablement fin dans les années 2020, elle a eu un impact majeur sur les techniques modernes d’IA – sans elle, l’apprentissage profond serait hors de question, d’un point de vue financier. Des recherches récentes ont montré que l’innovation en matière d’IA a en fait dépassé la loi de Moore, doublant tous les six mois environ au lieu de deux ans.

Dans cette logique, les progrès réalisés par l’intelligence artificielle dans divers secteurs d’activité ont été considérables au cours des dernières années. Et le potentiel d’un impact encore plus important au cours des prochaines décennies semble tout à fait inévitable.

Chronologie de l’histoire de l’IA

Histoire de l’IA

Les robots intelligents et les êtres artificiels sont apparus pour la première fois dans les mythes de la Grèce antique. Le développement par Aristote du syllogisme et de son utilisation du raisonnement déductif a été un moment clé dans la quête de l’humanité pour comprendre sa propre intelligence. Bien que les racines soient longues et profondes, l’histoire de l’IA telle que nous la concevons aujourd’hui s’étend sur moins d’un siècle. Voici un bref aperçu de quelques-uns des événements les plus importants de l’IA.

Les années 40

  • (1942) Isaac Asimov publie les Trois lois de la robotique, une idée que l’on retrouve couramment dans les médias de science-fiction et selon laquelle l’intelligence artificielle ne devrait pas nuire à l’homme.
  • (1943) Warren McCullough et Walter Pitts publient l’article “A Logical Calculus of Ideas Immanent in Nervous Activity”, qui propose le premier modèle mathématique pour la construction d’un réseau neuronal.
  • (1949) Dans son livre The Organization of Behavior : A Neuropsychological Theory, Donald Hebb propose la théorie selon laquelle les voies neuronales sont créées à partir des expériences et que les connexions entre les neurones deviennent plus fortes à mesure qu’elles sont utilisées. L’apprentissage hebbien reste un modèle important en IA.

Les années 50

  • (1950) Alan Turing publie l’article “Computing Machinery and Intelligence”, dans lequel il propose ce que l’on appelle aujourd’hui le test de Turing, une méthode permettant de déterminer si une machine est intelligente.
  • (1950) Marvin Minsky et Dean Edmonds, étudiants à Harvard, construisent le SNARC, le premier ordinateur à réseau neuronal.
  • (1950) Claude Shannon publie l’article “Programming a Computer for Playing Chess” (Programmer un ordinateur pour jouer aux échecs).
  • (1952) Arthur Samuel développe un programme d’auto-apprentissage pour jouer aux dames.
  • (1954) L’expérience de traduction automatique Georgetown-IBM traduit automatiquement en anglais 60 phrases russes soigneusement sélectionnées.
  • (1956) L’expression “intelligence artificielle” est inventée lors du projet de recherche estival de Dartmouth sur l’intelligence artificielle. Dirigée par John McCarthy, cette conférence est largement considérée comme le berceau de l’IA.
  • (1956) Allen Newell et Herbert Simon présentent Logic Theorist (LT), le premier programme de raisonnement.
  • (1958) John McCarthy développe le langage de programmation d’IA Lisp et publie “Programs with Common Sense”, un article proposant l’hypothétique Advice Taker, un système d’IA complet capable d’apprendre par l’expérience aussi efficacement que les humains.
  • (1959) Allen Newell, Herbert Simon et J.C. Shaw développent le General Problem Solver (GPS), un programme conçu pour imiter la résolution de problèmes par l’homme.
  • (1959) Herbert Gelernter développe le programme Geometry Theorem Prover.
  • (1959) Arthur Samuel invente le terme “apprentissage automatique” alors qu’il travaille chez IBM. (1959) John McCarthy et Marvin Minsky fondent le projet d’intelligence artificielle du MIT.

Les années 60

  • (1963) John McCarthy crée le laboratoire d’intelligence artificielle à Stanford.
  • (1966) Le rapport du Comité consultatif sur le traitement automatique des langues (ALPAC) du gouvernement américain détaille l’absence de progrès dans la recherche sur les traductions automatiques, une initiative majeure de la guerre froide qui promettait une traduction automatique et instantanée du russe. Le rapport ALPAC conduit à l’annulation de tous les projets de traduction automatique financés par le gouvernement.
  • (1969) Les premiers systèmes experts performants, DENDRAL et MYCIN, sont créés à Stanford.

Les années 70

  • (1972) Création du langage de programmation logique PROLOG.
  • (1973) Le gouvernement britannique publie le rapport Lighthill, qui détaille les déceptions de la recherche sur l’IA et entraîne des réductions importantes du financement des projets d’IA.
  • (1974-1980) La frustration suscitée par les progrès du développement de l’IA conduit la DARPA à réduire considérablement ses subventions universitaires. Combiné au rapport ALPAC et au rapport Lighthill de l’année précédente, le financement de l’IA se tarit et la recherche s’enlise. Cette période est connue sous le nom de “premier hiver de l’IA”.

Les années 80

  • (1980) Digital Equipment Corporations développe R1 (également connu sous le nom de XCON), le premier système expert commercial réussi. Conçu pour configurer les commandes de nouveaux systèmes informatiques, R1 donne le coup d’envoi d’un boom des investissements dans les systèmes experts qui durera une bonne partie de la décennie, mettant ainsi fin au premier hiver de l’IA.
  • (1982) Le ministère japonais du commerce international et de l’industrie lance l’ambitieux projet Fifth Generation Computer Systems (systèmes informatiques de cinquième génération). L’objectif du FGCS est de développer des performances comparables à celles d’un superordinateur et une plate-forme pour le développement de l’IA.
  • (1983) En réponse au projet japonais FGCS, le gouvernement américain lance l’initiative informatique stratégique (Strategic Computing Initiative) afin de fournir des recherches financées par la DARPA dans les domaines de l’informatique avancée et de l’intelligence artificielle.
  • (1985) Les entreprises dépensent plus d’un milliard de dollars par an pour les systèmes experts et un secteur entier, connu sous le nom de marché des machines Lisp, se met en place pour les soutenir. Des sociétés comme Symbolics et Lisp Machines Inc. construisent des ordinateurs spécialisés dans le langage de programmation de l’intelligence artificielle Lisp.
  • (1987-1993) Au fur et à mesure que la technologie informatique s’améliore, des solutions moins coûteuses apparaissent et le marché des machines Lisp s’effondre en 1987, marquant le début du “deuxième hiver de l’IA”. Au cours de cette période, les systèmes experts se sont avérés trop coûteux à entretenir et à mettre à jour, et ont fini par tomber en désuétude.

Les années 90

  • (1991) Les forces américaines déploient DART, un outil automatisé de planification logistique, pendant la guerre du Golfe.
  • (1992) Le Japon met fin au projet FGCS en 1992, invoquant l’incapacité à atteindre les objectifs ambitieux définis dix ans plus tôt.
  • (1993) La DARPA met fin à l’initiative informatique stratégique en 1993, après avoir dépensé près d’un milliard de dollars et n’avoir pas atteint les objectifs fixés.
  • (1997) Deep Blue d’IBM bat le champion du monde d’échecs Gary Kasparov.

Les années 2000

  • (2005) STANLEY, une voiture autonome, remporte le Grand Challenge de la DARPA.
  • (2005) L’armée américaine commence à investir dans des robots autonomes tels que le “Big Dog” de Boston Dynamics et le “PackBot” d’iRobot.
  • (2008) Google fait des percées dans le domaine de la reconnaissance vocale et introduit cette fonction dans son application iPhone.

Les années 2010

  • (2011) Watson d’IBM bat à plate couture ses concurrents dans l’émission Jeopardy !
  • (2011) Apple lance Siri, un assistant virtuel doté d’une intelligence artificielle, par l’intermédiaire de son système d’exploitation iOS.
  • (2012) Andrew Ng, fondateur du projet Google Brain Deep Learning, alimente un réseau neuronal utilisant des algorithmes d’apprentissage profond avec 10 millions de vidéos YouTube comme ensemble d’entraînement. Le réseau neuronal a appris à reconnaître un chat sans qu’on lui dise ce qu’est un chat, ouvrant ainsi l’ère des percées pour les réseaux neuronaux et le financement de l’apprentissage profond.
  • (2014) Google fabrique la première voiture autonome qui réussit un test de conduite dans un état américain.
  • (2014) L’Alexa d’Amazon, un appareil intelligent pour la maison virtuelle, est commercialisé.
  • (2016) AlphaGo de Google DeepMind bat le champion du monde de jeu de Go, Lee Sedol. La complexité de ce jeu chinois ancestral était considérée comme un obstacle majeur à franchir dans le domaine de l’IA.
  • (2016) Le premier “robot citoyen”, un robot humanoïde nommé Sophia, est créé par Hanson Robotics et est capable de reconnaissance faciale, de communication verbale et d’expression faciale.
  • (2018) Google lance le moteur de traitement du langage naturel BERT, qui réduit les obstacles à la traduction et à la compréhension par les applications de ML.
  • (2018) Waymo lance son service Waymo One, permettant aux utilisateurs de la région métropolitaine de Phoenix de demander à être pris en charge par l’un des véhicules autopilotés de l’entreprise.

Les années 2020

  • (2020) Baidu met son algorithme d’IA LinearFold à la disposition des équipes scientifiques et médicales qui travaillent à la mise au point d’un vaccin pendant les premiers stades de la pandémie de SRAS-CoV-2. L’algorithme est capable de prédire la séquence d’ARN du virus en seulement 27 secondes, soit 120 fois plus vite que les autres méthodes.
  • (2020) OpenAI publie le modèle de traitement du langage naturel GPT-3, qui est capable de produire des textes modelés sur la façon dont les gens parlent et écrivent.
  • (2021) OpenAI s’appuie sur le modèle GPT-3 pour développer DALL-E, qui est capable de créer des images à partir de texte.
  • (2022) Le National Institute of Standards and Technology publie la première version de son cadre de gestion des risques liés à l’IA, une orientation volontaire des États-Unis “pour mieux gérer les risques pour les individus, les organisations et la société associés à l’intelligence artificielle”.
  • (2022) DeepMind dévoile Gato, un système d’IA entraîné à effectuer des centaines de tâches, notamment jouer à Atari, légender des images et utiliser un bras robotique pour empiler des blocs.
  • (2022) OpenAI lance ChatGPT, un chatbot alimenté par un grand modèle de langage qui gagne plus de 100 millions d’utilisateurs en quelques mois.
  • (2023) Microsoft lance une version de Bing, son moteur de recherche, alimentée par l’IA et basée sur la même technologie que ChatGPT.
  • (2023) Google annonce Bard, une IA conversationnelle concurrente.