Innover sur l'éthique de l’IA, une source de compétitivité pour les entreprises
Trois ans après une première étude sur l’intelligence artificielle en entreprise, Advancing AI ethics beyond compliance, IBM Institute for Business Value est revenu au contact des entreprises. En 2021, et en partenariat avec Oxford Economics, l’institut a mené une nouvelle étude sur la mise en place d’une IA responsable en entreprise. L’étude se base sur 1 200 interviews de cadres supérieurs issus de 16 postes différents dans le monde des affaires et de la tech et venant de 22 pays. 14 000 consommateurs, employés et citoyens ont également été questionnés pour les besoins de l’étude.
L’importance d’une intelligence artificielle responsable en progression
Le développement d’une intelligence artificielle responsable est une préoccupation majeure pour une majorité des interviewés. Une tendance particulièrement importante chez les cadres supérieurs qui sont 25% de plus qu’en 2018 à juger l’IA responsable “importante”.
Deux choix s’offrent alors aux entreprises:
- Ils peuvent se reposer sur de nouvelles réglementations extérieures, et attendre que l’intérêt envers l’IA responsable s’estompe. Un choix risqué selon l’étude.
ou
- se distinguer en abordant la responsabilité de leur IA volontairement, et de manière stratégique et réfléchie.
L’IA responsable, plus qu’une bonne conscience pour l’entreprise
Selon les résultats de l’étude, adopter une IA responsable va au-delà de rassurer les investisseurs et éviter les risques de communication négative. C’est aussi un moyen pour l’entreprise de se différencier. Ceux qui ont pris les devants en la matière et on mis l’intelligence artificielle fiable au centre de leur stratégie ont pu atteindre un ROI deux fois plus important que les entreprises qui n’ont pas donné autant de place à l’IA. De plus, les entreprises qui se sont concentrées sur l’aspect responsable de l’IA affirment que cela leur a permis d’évoluer dans de nombreux autres domaines comme la compétitivité, mais aussi l’innovation durable. Elles ont même pu mieux remplir leurs objectifs d’égalité sociale, en utilisant leurs technologies de manière plus responsable.
Evolution de la prise de décision et spécialisation des collaborateurs
De 2018 à 2021, on ne se tourne plus vers les mêmes personnes pour mettre en place un IA responsable. Si lors de la première étude d’IBM Institute for Business Value, les leaders techniques (CIO, CTO, RSSI) étaient les principaux mandataires en matière d’IA responsable. Trois ans plus tard, les choses ont évolué, et les décisions relatives à l’intelligence artificielle et à son éthique sont davantage prises par les équipes dirigeants non-techniques (+24 points chez les CEO, +9 points pour les directeurs juridiques, +5 points pour le board, et les directeurs de conformité). En effet, selon le rapport 2021, quatre fois plus de CEO se disent prêts à agir sur les thématiques de l’intelligence artificielle responsable qu’en 2018. Du côté des ressources humaines, les services sont également enclins à recruter des profils spécialisés dans l’IA. Le nombre de directeurs des ressources humaines prêts à former les collaborateurs en interne a également augmenté, de 37% à 55% en trois ans.
3 étapes pour mettre en place une IA responsable
Les entreprises ont aujourd’hui toutes les ressources nécessaires pour mettre en place leurs initiatives d’IA responsable. La manière dont elles choisissent ces outils dependra de leur avancement dans ce processus. IBM Institute for Business Value présente trois étapes qui peuvent être déployées au niveau global par les entreprises.
Premièrement, elles peuvent mettre en place des pratiques d’IA responsables dans cadre stratégique. Il s’agit principalement de définir quelles seront les pratiques d’IA qui permettront de créer de la valeur et engendrer de la croissance.
Deuxième étape, établir une approche de gouvernance pour mettre en œuvre cette IA responsable. Quelles sont les perspectives des différentes parties prenantes de l’entreprise? Comment mesurer les risques relevant de l'IA et de la perte de données? Quelle est la structure organisationnelle à mettre en place pour optimiser la progression vers les objectifs.
Enfin, la troisième étape consiste à intégrer l’éthique ou les valeurs de responsabilité de les pratiques de l’intelligence artificielle. Ces valeurs peuvent être communiquées directement en discutant avec les différents acteurs de l’entreprise, mais aussi en mettant en place des structures et process et en monitorant leurs résultats. Pour diffuser ces valeurs on peut enfin mettre en place des méthodes et des boîtes à outils qui deviendront des ressources utiles pour les équipes.
Télécharger l'étude : AI Ethics in Action