Tomas Folens est spécialisé dans les questions éthiques liées à l’intelligence artificielle. En tant qu’enseignant et chercheur, il est affilié à la KU Leuven et à Hogeschool VIVES.
L’IA fonctionne sur base de données existantes et peut ainsi répercuter des préjugés dans du contenu et créer un effet discriminatoire amplifié. Dans quelle mesure est-ce un problème et comment s’y attaquer ?
Tomas Folens : « Il existe absolument un tas de cases historiques qui révèlent un biais dans les données. Ainsi, il y a eu un distributeur de savon qui ne réagissait pas aux gens à la peau noire, justement parce que les données d’entraînement ne comprenaient que des hommes et des femmes à la peau blanche. Et lorsqu’Amazon s’est mis à la recherche de nouveaux ingénieurs et a utilisé un algorithme pour sélectionner les meilleurs candidats à partir des lettres de candidature, aucune femme n’est sortie du lot. Ce qui n’est pas illogique, puisque la base de données d’ingénieurs était majoritairement masculine.
J’ai toutefois le sentiment que la prise de conscience autour de cette question a progressé et qu’aujourd’hui la situation est meilleure qu’il y a quelques années. Il convient cependant de rester attentif aux préjugés et à la discrimination lorsqu’on se sert de données historiques, voire de faire preuve de vigilance quand on collecte de nouvelles données.
Le défi réside surtout dans la composition de la base de données d’entraînement. Bien qu’il soit possible de procéder à certaines corrections par après, il est essentiel, de prime abord, d’inclure la diversité nécessaire dans le jeu de données. Heureusement, c’est de plus en plus le cas aujourd’hui, aussi grâce à des initiatives émanant de la politique. Ainsi, dans les directives européennes concernant l’IA les préjugés constituent un élément très important. »
Qui est responsable quand de tels problèmes surviennent lors de l’utilisation de l’IA : les développeurs ou les utilisateurs ?
Tomas Folens : « On a longtemps eu tendance à toujours imputer la responsabilité à l’utilisateur final. Je ne suis pas du tout d’accord, car la technologie n’est pas nécessairement éthiquement neutre. Il est important que les développeurs, aussi, réfléchissent aux technologies qu’ils lancent et à la façon dont celles-ci peuvent impacter le monde, car parfois les gens sont poussés dans une certaine direction.
Cependant, l’utilisateur porte également une responsabilité, car il n’est pas réaliste de penser que les développeurs puissent tout prévoir et anticiper sur chaque situation ou application imaginable. Quand le conducteur d’une voiture autonome conçue de manière très éthique renverse volontairement quelqu’un, la responsabilité ne peut évidemment pas incomber au développeur.
La question de la responsabilité est toutefois complexe, aussi parce qu’on dénombre, en fait, encore un troisième acteur : le législateur. À mes yeux, certaines restrictions de la part des pouvoirs publics sont en effet indispensables dans le cadre de l’IA si l’on veut réduire une série de risques éthiques. Il s’agit donc d’une responsabilité partagée et d’une interaction entre utilisateurs, développeurs et le monde politique. »
Quid des droits d’auteur et de l’absence d’une citation des sources : ne faut-il pas voir ChatGPT et ses pairs comme du copier-coller pour utilisateurs expérimentés ?
Tomas Folens : « Il existe des outils d’IA, comme Perplexity, qui, en regard des informations collectées, citent bel et bien les sources. Cependant, le programme plus avancé qu’est ChatGPT ne le fait en effet pas. Quand on réclame les sources, on se voit généralement présenter une liste fictive. C’est problématique, car savoir d’où vient l’information est évidemment une mesure essentielle pour en déterminer la fiabilité.
Je pense toutefois que ChatGPT s’inscrit quelque part dans une évolution : nous devons apprendre à gérer de nouvelles informations et, dans cette société de l’information, nous efforcer d’exercer notre esprit critique. Sur ce point, l’enseignement a selon moi un rôle essentiel à jouer, notamment parce que des outils comme ChatGPT se contentent d’établir des liens et ne sont pas du tout des experts de contenu incollables.
Pour les créateurs de contenu, qui face à ce type d’outils disposent idéalement du savoir-faire nécessaire, il me semble surtout intéressant de faire appel à l’IA lors de la phase de préparation, pour ensuite créer le contenu par eux-mêmes tout en maintenant un regard critique. Une telle approche sera certainement beaucoup plus précise et précieuse.
Ces questions de responsabilité et de droits d’auteur ne favorisent-elles pas l’introduction d’un label, pour indiquer de façon transparente comment et à quelles fins l’IA est utilisée dans un contenu ?
Tomas Folens : « C’est un problématique intéressante. Un label est assurément une option valable, mais on peut franchement pousser les choses un peu plus loin, au-delà du simple fait de signaler que l’intelligence artificielle a été utilisée dans le processus de production. J’aimerais donc voir un petit mot d’explication accompagnant ce label, pour que les gens sachent exactement comment juger à leur juste valeur le contenu et l’output des outils utilisés. Qui cherche à être totalement transparent, doit privilégier une totale clarté pour le public.
Aujourd’hui, le Conseil de déontologie journalistique réfléchit d’ailleurs lui aussi à la manière dont les médias et les journalistes doivent aborder l’IA, ce qu’il en est de leurs responsabilités et s’il est nécessaire ou non de citer l’utilisation de l’IA. »
Voit-on aussi surgir certains problèmes de confidentialité, par exemple lorsque des marques se servent de l’IA pour collecter et analyser de grosses quantités d’informations personnelles ?
Tomas Folens : « À ce niveau, la législation RGPD, qui sera encore un peu affinée à l’aide de l’AI Act, est évidemment un élément crucial. Le but ultime est toutefois surtout que l’on travaille sur la base du consentement. Opt-in et non opt-out, en d’autres termes, ce qui n’est manifestement pas sans conséquences pour la pratique du marketing.
Dans le domaine du marketing j’entrevois encore un problème ou défi éthique des plus intéressants. Quand Yuval Noah Harari est venu parler sur le campus de la Kulak, il a dit qu’il est possible que le système nous connaît mieux que nous nous connaissons nous-mêmes. En tant que marketeur, on collecte toutes sortes d’informations pour définir au mieux les besoins de chacun. L’IA étant encore bien meilleure dans ce domaine, la question se pose de savoir comment il faut informer les gens du fait qu’on influe sur des désirs inconscients. »
L’utilisation de l’IA dans le content marketing engendre-t-elle encore d’autres problèmes éthiques de premier plan ?
Tomas Folens : « Comme je l’ai déjà dit, la transparence est une notion essentielle. En fait, elle comprend toutefois différents sous-aspects. Là où la protection de la vie privée est surtout une question de gouvernance des données, la transparence concerne par exemple aussi ce que le système est capable de faire. Et donc : est-il bien possible d’acquérir une compréhension suffisante de ce que fait exactement l’intelligence artificielle ? Ou alors, cela reste-t-il un système qui a encore un tas de secrets même pour le marketeur ? »