5 risques liés à l’IA auxquels les entreprises doivent faire face et comment y remédier

Certains risques liés à la mise en œuvre de systèmes d'IA sont familiers aux chefs d'entreprise ; ces cinq-là sont propres à l'IA. Voici comment les aborder.

Les entreprises ont toujours dû gérer les risques liés aux technologies qu’elles adoptent pour développer leurs activités. Elles doivent faire de même lorsqu’il s’agit de mettre en œuvre l’intelligence artificielle.

Les risques associés à l’IA ressemblent à ceux liés à l’adoption de n’importe quelle nouvelle technologie : il y a des risques liés à un mauvais alignement stratégique sur les objectifs commerciaux, un manque de compétences pour soutenir les initiatives et l’échec d’obtenir un engagement à tous les niveaux de l’organisation.

En conséquence, les dirigeants doivent continuer à se fier aux meilleures pratiques qui ont guidé l’adoption efficace d’autres technologies, avec les consultants en gestion et les experts en IA qui conseillent les DSI et leurs collègues de la direction générale de déterminer les domaines où l’IA peut les aider à atteindre les objectifs organisationnels, de développer des stratégies pour s’assurer qu’ils disposent de l’expertise pour soutenir les programmes d’IA et de créer des politiques de gestion du changement solides pour faciliter et accélérer l’adoption de l’IA dans l’entreprise.

Cependant, les dirigeants constatent que l’IA dans l’entreprise comporte également des risques uniques qui doivent être reconnus et pris en compte.

Voici cinq domaines de risques qui peuvent survenir lorsque les organisations mettent en œuvre et utilisent des technologies d’IA dans l’entreprise :

Le manque de confiance des employés freine l’adoption de l’IA.

En dépit de son nom et des nombreux films de science-fiction construits sur des versions évoluées de l’intelligence artificielle, l’IA ne fonctionne pas indépendamment de l’interaction humaine ; à un moment donné du processus opérationnel, les humains doivent intervenir pour prendre des mesures basées sur les conseils des systèmes d’IA.

Cependant, tout le monde n’est pas prêt à adopter leurs collègues numériques. Selon le rapport “AI and Empathy” de juillet 2019 du fabricant de logiciels Pegasystems, 35 % des 6 000 personnes interrogées ont déclaré qu’elles craignaient que les machines ne prennent leurs emplois et 27 % qu’elles s’inquiétaient de “la montée en puissance des robots et de l’asservissement de l’humanité.”

Les dirigeants d’entreprise ont clairement du travail à faire lorsqu’il s’agit d’établir la confiance des employés dans l’IA. Sans cette confiance, la mise en œuvre de l’IA sera improductive.

Imaginez une situation dans laquelle les employés ne font pas confiance à une solution d’IA qui détermine la nécessité de maintenance pour une machine dans une usine. Même si la solution d’IA est extrêmement précise avec un taux de réussite de 99,998%, elle reste un échec si les utilisateurs finaux ne font pas confiance en elle. Cela montre l’importance de la confiance dans l’adoption réussie des technologies d’IA.

Fournir la bonne formation pour s’assurer que vos utilisateurs sont ouverts à l’utilisation de l’IA, en se concentrant vraiment sur l’adoption, est un facteur important.

Les biais et les erreurs sont amplifiés par le volume des transactions d’IA

L’IA est une technologie puissante qui peut accomplir de grandes choses pour les entreprises. Cependant, pour obtenir les meilleurs résultats, il est important de veiller à la qualité des données sur lesquelles elle s’appuie.

L’IA utilise des algorithmes pour analyser des grands volumes de données et apprendre à partir des modèles qu’elle détecte. Cependant, si les données sont biaisées ou incorrectes, les résultats peuvent en être affectés. De même, des erreurs dans les algorithmes peuvent également causer des problèmes.

L’IA n’a pas une connaissance innée des produits, des processus et des clients d’une entreprise. C’est pourquoi il est important de former l’IA en lui fournissant les informations nécessaires pour bien fonctionner.

Les erreurs humaines sont inévitables, mais les conséquences de ces erreurs sont généralement limitées. En revanche, les erreurs dans les systèmes opérationnels d’IA peuvent avoir des conséquences exponentielles, car un robot peut traiter des millions de transactions en un jour.

Des données de qualité sont donc essentielles pour minimiser les risques associés à l’IA. En fin de compte, c’est la qualité des données qui est la clé de la réussite de l’IA, et aucun algorithme ne peut transformer de mauvaises données en bonnes données.

L’IA peut avoir des conséquences inattendues, automatiser des pratiques contraires à l’éthique

L’IA peut avoir des conséquences involontaires et automatiser des pratiques peu éthiques. Une chaîne de supermarchés utilisant l’IA pour déterminer les prix pourrait constater que le système, après avoir analysé des données démographiques, génère des prix significativement plus élevés pour les produits alimentaires dans les quartiers défavorisés où il n’y a pas de concurrence. Sur la base des données, la stratégie peut être logique, mais est-ce le résultat souhaité par la chaîne de supermarchés ?

Des experts ont soulevé des préoccupations éthiques similaires quant à l’utilisation de l’IA dans de nombreuses autres fonctions d’entreprise, en soulignant, par exemple, que les systèmes d’IA utilisés pour trier les curriculums vitæ ont appris à privilégier certains types de candidats à d’autres de manières que beaucoup considèrent interrogeables et peu éthiques.

L’IA doit être responsable et éthique.

Bien que les leaders organisationnels ne puissent pas prévoir toutes les considérations éthiques, Khodabandeh et d’autres ont déclaré que les entreprises doivent avoir des cadres pour garantir que leurs systèmes d’IA contiennent les politiques et les garde-fous pour créer des résultats éthiques, transparents, équitables et impartiaux. Il est également important d’avoir des employés humains surveillant les systèmes pour confirmer que les résultats répondent aux normes établies par l’organisation.

Les compétences clés risquent d’être perdues par l’IA

Après deux accidents d’avion impliquant des avions Boeing 737 Max, l’un en fin 2018 et l’autre en début 2019, certains experts ont exprimé leur inquiétude quant à la perte des compétences de base des pilotes à mesure qu’ils se reposaient de plus en plus sur l’augmentation de l’automatisation dans le cockpit.

Bien que ces incidents soient des cas extrêmes, Brahm (associé et directeur, Bain & Co.Chris Brahm) a déclaré que l’IA pourrait éroder d’autres compétences clés que les entreprises souhaitent préserver chez leur personnel humain.

“En mettant en œuvre l’IA, perdez-vous des compétences ? Les individus et les fonctions de travail deviennent-ils déqualifiés ? Nous avons déjà vu la déqualification de la navigation. Nous sommes tous devenus plus dépendants de Google Maps que nous ne voulons l’admettre”, a-t-il déclaré.

Il a déclaré que les dirigeants de tous les secteurs devraient réfléchir à quelles compétences quotidiennes existent actuellement et pourraient être perdues, et s’il est nécessaire de les préserver d’une certaine manière.

Un entraînement insuffisant et un manque de surveillance peuvent saboter les systèmes d’IA

Microsoft a lancé un chatbot nommé Tay sur Twitter en 2016. Les ingénieurs avaient conçu le bot pour interagir en ligne et apprendre les modèles de langage pour qu’elle – oui, Tay était conçue pour imiter le discours d’une adolescente féminine – sonne naturelle sur internet.

Au lieu de cela, les trolls ont appris à Tay un langage raciste, misogyne et antisémite, son langage devenant si hostile et offensant en quelques heures que Microsoft a suspendu le compte.

L’expérience de Microsoft met en évidence un autre grand risque lié à la construction et à l’utilisation de l’IA : elle doit être bien formée pour fonctionner correctement.

Pour éviter que les bots apprennent de mauvais comportements, Ammanath a déclaré que les ingénieurs doivent incorporer des garde-fous dans la conception pour empêcher les bots de mimer certains mots et phrases.

En avançant avec les programmes d’IA, les organisations sont invitées à non seulement créer de tels garde-fous dès le départ, mais également à surveiller ce que leur IA apprend au fil du temps pour s’assurer qu’elle a des informations appropriées et complètes pour atteindre les bonnes conclusions et prendre les bonnes actions.

Prenez, par exemple, la façon dont la pandémie de COVID-19 a entraîné une pénurie de papier toilette en magasin. La demande agrégée de papier toilette était probablement à peu près la même qu’avant la pandémie, mais la pandémie a déplacé l’emplacement de la demande – avec les acheteurs institutionnels tels que les écoles baissant les ventes, tandis que les consommateurs augmentaient leurs achats.

Les fournisseurs qui utilisaient des systèmes basés sur l’IA pour prévoir la demande devaient ajuster ces systèmes pour prendre en compte les circonstances très inhabituelles – des circonstances qui ne pouvaient faire partie d’aucune donnée d’entraînement existante – s’ils voulaient avoir des prévisions précises sur l’endroit où leurs prochains envois de papier toilette devaient aller.