Services numériques
Adopter les nouvelles technologies numériques.
Préjugés dans les systèmes d’IA
Les modèles d’IA apprennent à l’aide de données. Toutefois, si les données sont incomplètes ou influencées par des préjugés, les prédictions et les décisions du système pourraient, involontairement, renforcer des comportements discriminatoires. Par exemple, utiliser l’IA pour gérer les candidatures pour un poste pourrait favoriser des groupes démographiques au moment de faire le tri des CV si le système apprend de données démontrant un préjugé humain qui a tendance à privilégier un âge, une race ou un genre précis. Cette tendance apprise pourrait alors entraîner des répercussions juridiques, une atteinte à la réputation et un effectif moins qualifié.
L’IA, bien qu’elle se base sur les mathématiques, est ultimement influencée par les données et les décisions des humains. Cette influence peut révéler des préjugés cachés qui produisent des résultats que nous jugeons inacceptables lorsqu’ils sont découverts. »
Vie privée et sécurité des données
La collecte et l’utilisation de données personnelles par l’IA pour la prise de décisions exigent des mesures rigoureuses de protection pour éviter l’utilisation malveillante et les infractions. La cueillette non réglementée de données sensibles entraîne parfois de graves infractions éthiques et juridiques. De plus, les données servant à entraîner les modèles, comme ChatGPT, apparaissent parfois dans leurs prédictions, ce qui soulève des préoccupations quant à la protection de la vie privée et l’exposition involontaire potentielle de données.
Transparence dans la prise de décisions
Puisque de nombreux systèmes d’IA sont traités comme des « boîtes noires », les utilisateurs et utilisatrices ont peu de visibilité sur leur manière de prendre des décisions importantes, comme l’autorisation d’un prêt ou une recommandation d’embauche. Il est injuste d’être l’objet d’une telle décision qui n’est pas en votre faveur sans avoir la possibilité de la remettre en question. Sans pouvoir expliquer les facteurs qui appuient une décision, les organisations pourraient faire preuve d’une discrimination illégale. L’ensemble des personnes qui utilisent ces systèmes d’IA ou qui sont affectées par ses décisions perdent alors confiance en ces derniers.
Imperfections automatisées avec des conséquences graves
Certaines tâches réalisées par l’IA peuvent avoir des conséquences sur la sécurité des gens. Par exemple, un préjugé dans un système de vision artificielle pour les voitures autonomes comportera peut-être des lacunes dangereuses, comme ne pas être en mesure de reconnaître les piétons et piétonnes dans la rue.
Durabilité et efficacité énergétique
À plus grande échelle, nous habitons sur une planète avec un nombre déterminé de ressources. L’exploitation de l’IA est un processus énergivore. L’impact environnemental du développement et de l’exploitation de modèles d’IA représente donc un autre enjeu éthique.
La demande en électricité des centres de données partout dans le monde devrait doubler d’ici 2030, pour atteindre environ 945 térawattheures (TWh), ce qui dépasse la consommation totale d’électricité du Japon. L’IA sera la principale responsable de cette augmentation, car les centres de données optimisés pour l’IA devraient quadrupler leur demande en électricité d’ici 2030 (article en anglais).
D’ici 2027, on prévoit que la demande mondiale en IA consommera 4,2 à 6,6 milliards de mètres cubes d’eau, ce qui dépasse la consommation annuelle en eau du Danemark.
Selon un rapport de Google, les émissions de gaz à effet de serre de l’entreprise ont augmenté de 48 % depuis 2019 (rapport en anglais). L’entreprise cite la consommation d’énergie des centres de données et les émissions de la chaîne d’approvisionnement pour une meilleure intégration de l’IA comme principaux facteurs. Selon un autre article, les émissions de Microsoft ont augmenté de 29 % depuis 2020 (article en anglais), et l’entreprise attribue cette augmentation à la construction de centres de données supplémentaires pour appuyer l’IA.
Sachant qu’il faut trouver une solution à ces défis, les gouvernements et les organisations mondiales redoublent d’efforts pour créer des cadres robustes et éthiques au sujet de l’utilisation de l’IA. Voici certains des principaux efforts en cours :
L’IA a dépassé l’étape d’utilisation expérimentale par les géants de la technologie et est maintenant rapidement intégrée par des entreprises chefs de file de tous les secteurs. Ces entreprises qui adoptent et déploient l’IA de manière responsable obtiennent un avantage stratégique et gagnent la confiance du public.
Pour les clients de GHD, l’IA éthique est particulièrement pertinente alors que l’adoption de cette technologie se répand à des secteurs comme ceux de l’ingénierie, de la construction, des infrastructures, de la fabrication et de la gestion des ressources. Voici pourquoi les entreprises doivent accorder la priorité aux pratiques éthiques en matière d’IA :
L’IA évolue à un rythme effréné. Les entreprises qui n’adoptent pas cette technologie pourraient avoir de la difficulté à rattraper les chefs de file de leur secteur. Toutefois, le déploiement de l’IA sans comprendre les risques inhérents peut causer de graves problèmes juridiques et des atteintes à la réputation. Les entreprises ont besoin d’une structure de gouvernance robuste pour superviser les stratégies en matière d’IA.
“Un des plus grands risques liés à l’IA est de ne pas suivre la tendance avant qu’elle soit trop répandue pour le faire. Il est déraisonnable de s’attendre à ce que toutes les organisations soient en mesure d’adopter l’IA facilement et de l’appliquer dès leurs premiers efforts. Des apprentissages doivent se faire et il faut mettre en place des mesures de gestion du changement pour pouvoir l’utiliser de manière efficace. ”
- Sarah Dods, responsable régionale de l’hémisphère Sud pour l’analytique avancée et l’intelligence artificielle chez GHD
Les organisations qui traitent l’éthique comme étant un catalyseur, au lieu d’une restriction, ouvrent la porte à des possibilités révolutionnaires. Avec des priorités accordées à l’équité, à l’imputabilité et à la justice dans leurs systèmes, les entreprises sont en mesure de livrer des solutions qui reflètent les intérêts à long terme de la société, ce qui améliore la satisfaction et la loyauté des clients.
L’IA présente à la fois d’immenses possibilités et de grandes difficultés. En adoptant des pratiques éthiques, les organisations peuvent exploiter le potentiel de cette technologie révolutionnaire sans perdre de vue leurs responsabilités générales.
Adopter les nouvelles technologies numériques.
Libérer le potentiel.
Services numériques réinventés pour l’excellence.