40

De nouvelles considérations éthiques

L’arrivée et la démocratisation d’outils tel que ChatGPT amène son lot de questionnements éthiques. Parmi ceux-ci, les enjeux de désinformation, de protections des données et d’équité.

Le risque de désinformation

Si l’utilisation des agents conversationnels peut vous appuyer dans plusieurs tâches reliées à vos études, il importe toutefois d’utiliser votre jugement critique par rapport à l’information présentée. Les modèles de langage génératifs peuvent en effet produire des réponses incomplètes, imprécises et même construire des contenus et des références qui ne sont vrais qu’en apparence (aussi appelés « hallucinations »). Même si la puissance des outils évolue rapidement, il importe de toujours valider l’information qu’ils transmettent.

De plus, la démocratisation de l’IA  vient encore renforcer les risques que vous soyez exposé ou exposée à des contenus inexacts, voire discutables, et ce, de façon intentionnelle, par des personnes mal intentionnées. L’hypertrucage ou deep fake constitue l’une des principales sources de désinformation dont vous devez vous méfier. Il s’agit d’une technique de synthèse multimédia qui utilise les ressources de l’intelligence artificielle pour manipuler une vidéo ou un son dans le but de créer des canulars et de fausses informations. Elle peut par exemple servir à superposer des fichiers vidéos pour changer le visage d’une personne ou des fichiers audios pour reproduire sa voix et ainsi lui faire poser des fausses actions et dire des choses inventées.

Comme l’ensemble des techniques gagneront encore en efficacité et en précision suivant le développement fulgurant de la puissance des outils, vous devez vérifier l’exactitude des contenus auxquels vous êtes exposée ou exposé, et ce, peu importe l’outil utilisé.

Référence 

Deepfake. (2023, 29 août). Dans Wikipédia.

La protection des données

Pour faire fonctionner un système d’intelligence artificielle, il faut l’alimenter d’une somme considérable de données qui lui permettront d’améliorer sa performance à résoudre certaines tâches. Les données peuvent provenir de textes, de sons ou d’images librement accessibles sur le web, mais elles peuvent aussi provenir de renseignements personnels, c’est-à-dire de données permettant d’identifier une personne consommatrice, cliente ou utilisatrice. C’est dans ce cas que des enjeux de sécurité et de confidentialité et des enjeux éthiques peuvent se poser.

En acceptant les conditions d’utilisation de certains sites ou applications, on accepte souvent sans trop le considérer la collecte de nos données personnelles. Même pour une personne avertie, il est souvent difficile d’identifier à qui les informations transmises profitent réellement et de savoir si ces données seront bien protégées. En effet, les bases de données avec lesquelles s’entrainent les outils d’IA constituent une nouvelle porte d’entrée pour les pirates informatiques. Les pirates pourraient profiter d’une faille afin d’usurper l’identité des gens qui ont contribué à la collecte d’informations ou d’altérer les données (les empoisonner) dans le but de manipuler les décisions qui seront formulées par les systèmes d’IA. Il est de la responsabilité des entreprises exploitant ces données de les protéger, mais il est aussi de la responsabilité de la consommatrice et du consommateur de se renseigner lorsque vient le temps d’accepter le partage de ses renseignements personnels.

En tant qu’étudiante ou étudiant de l’Université Laval, mais aussi en tant que travailleuse ou travailleur, vous devez savoir exercer votre jugement dans l’utilisation que vous faites vous-mêmes des outils d’IA et de connaître les usages des informations parfois sensibles dont vous pourriez les nourrir. Encore ici, il importe de savoir se comporter de façon éthique et responsable!

Références 

Gauthier, S. (2023, 25 avril). L’intelligence artificielle, le partage des données et les droits humains : trois questions à Anne-Sophie Hulin. Université de Sherbrooke.

Foltz, H. (2022, 7 novembre). IA et gestion des données : gare aux infractions! Les affaires.

Les enjeux d’équité, de diversité et d’inclusion

Puisque plusieurs de ces outils sont disponibles en version gratuite, l’IA peut contribuer à la démocratisation des savoirs et offrir une réponse à certains des objectifs de développement durable de l’ONU dont l’accès à une éducation de qualité et la réduction des inégalités. Cependant, l’IA peut aussi représenter certains risques reliés à l’équité, à la diversité et à l’inclusion. Les différents biais que les algorithmes peuvent reproduire constituent de tels risques puisqu’ils peuvent renforcer diverses formes de discrimination. En effet, l’échantillon de données sur lesquelles s’entrainent les systèmes d’IA peuvent sous ou sur-représenter certaines catégories de la population et biaiser les réponses fournies par la suite. Ces biais peuvent être de nature socio-économique, culturelle, ethnique, liée au sexe, etc.

Plusieurs efforts doivent être déployés dans le développement des systèmes d’IA afin de limiter le risque de propagation de biais discriminatoires. Les efforts conjugués des parties prenantes, personnes utilisatrices, gouvernements, entreprises, institutions, etc., feront en sorte que l’évolution de l’IA contribuera à rendre les sociétés plus justes et équitables.

Référence 

Gouvernement du Québec. (2023, 23 février). Enjeux éthiques de l’intelligence artificielle dans l’administration.

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

Construire ma réussite : une boîte à outils pour développer les compétences numériques Copyright © 2024 by Bibliothèque de l'Université Laval is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre