Qu’est-ce que l’intelligence artificielle éthique?

Qu’est-ce que l’intelligence artificielle éthique?

hand click on AI digital button hand click on AI digital button
L’intelligence artificielle (IA) éthique porte sur le développement et le déploiement de cette technologie d’une manière qui respecte les valeurs sociétales et les droits de la personne, en plus de minimiser les préjudices. Cet équilibre ne s’atteint pas sans difficulté. Les systèmes d’IA sont censés interpréter les données et agir en conséquence afin de faire la distinction entre les résultats souhaitables et indésirables. Toutefois, ils sont entraînés à partir de décisions antérieures qui peuvent être influencées par des préjugés involontaires et des décisions humaines. Les organisations commerciales, les gouvernements et les organismes sans but lucratif, qui souhaitent adopter l’IA pour son potentiel d’amélioration de leurs activités, doivent comprendre et gérer les risques liés aux décisions inadéquates et non éthiques involontaires, qui sont parfois importantes.
L’IA éthique correspond aux valeurs, aux droits et à la sécurité de l’humain et trouve un équilibre dans la prise de décision axée sur les données, en plus d’atténuer les préjudices et d’appuyer les résultats équitables.

Ce qui est en jeu en matière d’éthique de l’IA

Préjugés dans les systèmes d’IA

Les modèles d’IA apprennent à l’aide de données. Toutefois, si les données sont incomplètes ou influencées par des préjugés, les prédictions et les décisions du système pourraient, involontairement, renforcer des comportements discriminatoires. Par exemple, utiliser l’IA pour gérer les candidatures pour un poste pourrait favoriser des groupes démographiques au moment de faire le tri des CV si le système apprend de données démontrant un préjugé humain qui a tendance à privilégier un âge, une race ou un genre précis. Cette tendance apprise pourrait alors entraîner des répercussions juridiques, une atteinte à la réputation et un effectif moins qualifié.

 L’IA, bien qu’elle se base sur les mathématiques, est ultimement influencée par les données et les décisions des humains. Cette influence peut révéler des préjugés cachés qui produisent des résultats que nous jugeons inacceptables lorsqu’ils sont découverts. »
Sarah Dods, responsable régionale de l’hémisphère Sud pour l’analytique avancée et l’intelligence artificielle chez GHD

Vie privée et sécurité des données

La collecte et l’utilisation de données personnelles par l’IA pour la prise de décisions exigent des mesures rigoureuses de protection pour éviter l’utilisation malveillante et les infractions. La cueillette non réglementée de données sensibles entraîne parfois de graves infractions éthiques et juridiques. De plus, les données servant à entraîner les modèles, comme ChatGPT, apparaissent parfois dans leurs prédictions, ce qui soulève des préoccupations quant à la protection de la vie privée et l’exposition involontaire potentielle de données.

Transparence dans la prise de décisions

Puisque de nombreux systèmes d’IA sont traités comme des « boîtes noires », les utilisateurs et utilisatrices ont peu de visibilité sur leur manière de prendre des décisions importantes, comme l’autorisation d’un prêt ou une recommandation d’embauche. Il est injuste d’être l’objet d’une telle décision qui n’est pas en votre faveur sans avoir la possibilité de la remettre en question. Sans pouvoir expliquer les facteurs qui appuient une décision, les organisations pourraient faire preuve d’une discrimination illégale. L’ensemble des personnes qui utilisent ces systèmes d’IA ou qui sont affectées par ses décisions perdent alors confiance en ces derniers.

Imperfections automatisées avec des conséquences graves

Certaines tâches réalisées par l’IA peuvent avoir des conséquences sur la sécurité des gens. Par exemple, un préjugé dans un système de vision artificielle pour les voitures autonomes comportera peut-être des lacunes dangereuses, comme ne pas être en mesure de reconnaître les piétons et piétonnes dans la rue.

Durabilité et efficacité énergétique

À plus grande échelle, nous habitons sur une planète avec un nombre déterminé de ressources. L’exploitation de l’IA est un processus énergivore. L’impact environnemental du développement et de l’exploitation de modèles d’IA représente donc un autre enjeu éthique.

La demande en électricité des centres de données partout dans le monde devrait doubler d’ici 2030, pour atteindre environ 945 térawattheures (TWh), ce qui dépasse la consommation totale d’électricité du Japon. L’IA sera la principale responsable de cette augmentation, car les centres de données optimisés pour l’IA devraient quadrupler leur demande en électricité d’ici 2030 (article en anglais).

D’ici 2027, on prévoit que la demande mondiale en IA consommera 4,2 à 6,6 milliards de mètres cubes d’eau, ce qui dépasse la consommation annuelle en eau du Danemark.

Selon un rapport de Google, les émissions de gaz à effet de serre de l’entreprise ont augmenté de 48 % depuis 2019 (rapport en anglais). L’entreprise cite la consommation d’énergie des centres de données et les émissions de la chaîne d’approvisionnement pour une meilleure intégration de l’IA comme principaux facteurs. Selon un autre article, les émissions de Microsoft ont augmenté de 29 % depuis 2020 (article en anglais), et l’entreprise attribue cette augmentation à la construction de centres de données supplémentaires pour appuyer l’IA.

Efforts mondiaux pour créer des normes éthiques

Sachant qu’il faut trouver une solution à ces défis, les gouvernements et les organisations mondiales redoublent d’efforts pour créer des cadres robustes et éthiques au sujet de l’utilisation de l’IA. Voici certains des principaux efforts en cours :

Loi sur l’intelligence artificielle de l’Union européenne
Cette loi révolutionnaire intègre 25 principes pour protéger les droits de la personne et réglementer les applications à haut risque de l’IA en Europe.
Mesures de sécurité concernant l’IA de l’Australie
L’Australie a récemment publié ses lignes directrices concernant les systèmes d’IA (en anglais), qui respectent ses principes éthiques en matière d’IA (en anglais), accordant ainsi la priorité à la transparence, à l’imputabilité et à la confiance du public.
Organisations internationales de normes
Les institutions, comme ISO et IEEE (page en anglais), jouent un rôle de premier plan dans l’établissement des normes sur l’IA en déterminant les pratiques exemplaires en matière de gestion des risques, d’atténuation des préjugés et de transparence du système.

La norme ISO/IEC 42001, la première norme mondiale sur les systèmes de management de l’intelligence artificielle (SMIA), présente les exigences pour la mise en œuvre, le maintien et l’amélioration d’une utilisation responsable de l’IA. Elle aborde l’éthique, la transparence et l’apprentissage continu dans le but de gérer les risques et les possibilités lors du développement et de l’exploitation de l’IA.

Les organismes peuvent consulter la norme ISO/IEC TR 24368 pour apprendre comment évaluer, de manière éthique, un système d’IA. Cette norme présente un cadre pour harmoniser le développement de l’IA aux normes mondiales en matière d’équité et d’imputabilité.

Bien que ces cadres soient des mesures prises dans la bonne direction, ils représentent des travaux qui se poursuivent. L’IA éthique évoluera au fil des avancées technologiques et exigera un effort collaboratif mondial qui jumelle innovation et responsabilité.

Importance de l’IA éthique pour les entreprises

L’IA a dépassé l’étape d’utilisation expérimentale par les géants de la technologie et est maintenant rapidement intégrée par des entreprises chefs de file de tous les secteurs. Ces entreprises qui adoptent et déploient l’IA de manière responsable obtiennent un avantage stratégique et gagnent la confiance du public.

Pour les clients de GHD, l’IA éthique est particulièrement pertinente alors que l’adoption de cette technologie se répand à des secteurs comme ceux de l’ingénierie, de la construction, des infrastructures, de la fabrication et de la gestion des ressources. Voici pourquoi les entreprises doivent accorder la priorité aux pratiques éthiques en matière d’IA :

Renforcement de la résilience face à une évolution rapide

L’IA évolue à un rythme effréné. Les entreprises qui n’adoptent pas cette technologie pourraient avoir de la difficulté à rattraper les chefs de file de leur secteur. Toutefois, le déploiement de l’IA sans comprendre les risques inhérents peut causer de graves problèmes juridiques et des atteintes à la réputation. Les entreprises ont besoin d’une structure de gouvernance robuste pour superviser les stratégies en matière d’IA.

“Un des plus grands risques liés à l’IA est de ne pas suivre la tendance avant qu’elle soit trop répandue pour le faire. Il est déraisonnable de s’attendre à ce que toutes les organisations soient en mesure d’adopter l’IA facilement et de l’appliquer dès leurs premiers efforts. Des apprentissages doivent se faire et il faut mettre en place des mesures de gestion du changement pour pouvoir l’utiliser de manière efficace. ”

- Sarah Dods, responsable régionale de l’hémisphère Sud pour l’analytique avancée et l’intelligence artificielle chez GHD

Possibilités en matière d’innovation et de croissance

Les organisations qui traitent l’éthique comme étant un catalyseur, au lieu d’une restriction, ouvrent la porte à des possibilités révolutionnaires. Avec des priorités accordées à l’équité, à l’imputabilité et à la justice dans leurs systèmes, les entreprises sont en mesure de livrer des solutions qui reflètent les intérêts à long terme de la société, ce qui améliore la satisfaction et la loyauté des clients.

L’IA présente à la fois d’immenses possibilités et de grandes difficultés. En adoptant des pratiques éthiques, les organisations peuvent exploiter le potentiel de cette technologie révolutionnaire sans perdre de vue leurs responsabilités générales.

Transform podcast series cover_icon.png

Vous souhaitez approfondir le sujet?

Découvrez-en plus sur l’IA éthique et l’importance des normes mondiales et de la gouvernance. Plongez dans le paysage éthique actuel, les principaux enjeux et les stratégies qui assurent une intégration responsable de l’IA dans cet épisode (en anglais) de la baladodiffusion « Transform – Tomorrow’s thinking, today ».
En savoir plus

Services connexes

Perspectives liées

Projets connexes