42

De nouvelles considérations éthiques

L’arrivée et la démocratisation d’outils tel que ChatGPT amène son lot de questionnements éthiques. Parmi ceux-ci, les enjeux de désinformation, de protection des données, d’équité et de protection de l’environnement.

Le risque de désinformation

Si l’utilisation des agents conversationnels peut vous appuyer dans plusieurs tâches reliées à vos études, il importe toutefois d’utiliser votre jugement critique par rapport à l’information présentée. Les modèles de langage génératifs peuvent en effet produire des réponses incomplètes, imprécises et même construire des contenus et des références qui ne sont vrais qu’en apparence (aussi appelés « hallucinations »). Même si la puissance des outils évolue rapidement, il importe de toujours valider l’information qu’ils transmettent.

De plus, la démocratisation de l’IA  vient encore renforcer les risques que vous soyez exposé ou exposée à des contenus inexacts, voire discutables, et ce, de façon intentionnelle, par des personnes mal intentionnées. L’hypertrucage ou deep fake constitue l’une des principales sources de désinformation dont vous devez vous méfier. Il s’agit d’une technique de synthèse multimédia qui utilise les ressources de l’intelligence artificielle pour manipuler une vidéo ou un son dans le but de créer des canulars et de fausses informations. Elle peut par exemple servir à superposer des fichiers vidéos pour changer le visage d’une personne ou des fichiers audios pour reproduire sa voix et ainsi lui faire poser des fausses actions et dire des choses inventées.

Comme l’ensemble des techniques gagneront encore en efficacité et en précision suivant le développement fulgurant de la puissance des outils, vous devez vérifier l’exactitude des contenus auxquels vous êtes exposée ou exposé, et ce, peu importe l’outil utilisé.

Référence :

Deepfake. (2023, 29 août). Dans Wikipédia.

La protection des données

Pour faire fonctionner un système d’intelligence artificielle, il faut l’alimenter d’une somme considérable de données qui lui permettront d’améliorer sa performance à résoudre certaines tâches. Les données peuvent provenir de textes, de sons ou d’images librement accessibles sur le web, mais elles peuvent aussi provenir de renseignements personnels, c’est-à-dire de données permettant d’identifier une personne consommatrice, cliente ou utilisatrice. C’est dans ce cas que des enjeux de sécurité et de confidentialité et des enjeux éthiques peuvent se poser.

En acceptant les conditions d’utilisation de certains sites ou applications, on accepte souvent sans trop le considérer la collecte de nos données personnelles. Même pour une personne avertie, il est souvent difficile d’identifier à qui les informations transmises profitent réellement et de savoir si ces données seront bien protégées. En effet, les bases de données avec lesquelles s’entrainent les outils d’IA constituent une nouvelle porte d’entrée pour les pirates informatiques. Les pirates pourraient profiter d’une faille afin d’usurper l’identité des gens qui ont contribué à la collecte d’informations ou d’altérer les données (les empoisonner) dans le but de manipuler les décisions qui seront formulées par les systèmes d’IA. Il est de la responsabilité des entreprises exploitant ces données de les protéger, mais il est aussi de la responsabilité de la consommatrice et du consommateur de se renseigner lorsque vient le temps d’accepter le partage de ses renseignements personnels.

En tant qu’étudiante ou étudiant de l’Université Laval, mais aussi en tant que travailleuse ou travailleur, vous devez savoir exercer votre jugement dans l’utilisation que vous faites des outils d’IA et être consciente ou conscient des informations parfois sensibles que vous leur fournissez. Encore ici, il importe de savoir se comporter de façon éthique et responsable!

Références :

Gauthier, S. (2023, 25 avril). L’intelligence artificielle, le partage des données et les droits humains : trois questions à Anne-Sophie Hulin. Université de Sherbrooke.

Foltz, H. (2022, 7 novembre). IA et gestion des données : gare aux infractions! Les affaires.

Les enjeux d’équité, de diversité et d’inclusion

Puisque plusieurs de ces outils sont disponibles en version gratuite, l’IA peut contribuer à la démocratisation des savoirs et offrir une réponse à certains des objectifs de développement durable de l’ONU dont l’accès à une éducation de qualité et la réduction des inégalités. Cependant, l’IA peut aussi représenter certains risques reliés à l’équité, à la diversité et à l’inclusion. Les données d’entrainement de l’IA générative étant non représentatives de la complexité des réalités sociales et culturelles, les réponses offertes par les agents conversationnels peuvent être biaisées ou inappropriées, tout en étant présentées comme des certitudes. Ces biais peuvent être de nature socio-économique, culturelle, ethnique, liée au sexe, etc.

Plusieurs efforts doivent être déployés dans le développement des systèmes d’IA afin de limiter le risque de propagation de biais discriminatoires. Les efforts conjugués des parties prenantes, personnes utilisatrices, gouvernements, entreprises, institutions, etc., feront en sorte que l’évolution de l’IA contribuera à rendre les sociétés plus justes et équitables.

Référence :

Gouvernement du Québec. (2023, 23 février). Enjeux éthiques de l’intelligence artificielle dans l’administration.

L’impact sur l’environnement

L’utilisation massive des données, notamment grâce à l’apprentissage automatique et à l’IA, continue de croître à l’échelle mondiale. Beaucoup en reconnaissent l’utilité : de grandes quantités de données peuvent être utilisées pour aborder une série de problèmes et en extraire des tendances, notamment pour les soins de santé et les changements climatiques. Cependant,  la croissance rapide de l’utilisation de ces données amène des inquiétudes par rapport à son impact sur l’environnement. La quantité de données créées et stockées à l’échelle mondiale exerce une pression accrue sur les centres de données, qui nécessitent d’énormes quantités d’énergie et d’eau.

Dans un futur rapproché, afin de minimiser leur impact sur l’environnement et le climat, les institutions et entreprises collectant massivement les données et celles s’appuyant  sur des technologies basées sur l’IA devront élaborer des stratégies d’utilisation durables et respectueuses de l’environnement. Il en est de même pour les consommatrices et consommateurs, qui devront développer leurs connaissances à propos de l’utilisation responsable de ces technologies.

Référence :

K. Pelletier, M. McCormack, N. Muscanell et al. (2024). EDUCAUSE Horizon Report, Teaching and Learning Edition.

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

Construire ma réussite : une boîte à outils pour développer les compétences numériques Droit d'auteur © 2024 par Bibliothèque de l'Université Laval est sous licence Licence Creative Commons Attribution 4.0 International, sauf indication contraire.

Partagez ce livre