Sachant qu’outre une flopée d’opportunités l’IA présente également une série de défis et de risques pour le secteur de la communication, l’organisation mère de Custo, l’ACC (Association of Communication Companies), et l’UBA (United Brands Association) ont décidé de développer dix lignes directrices pratiques. Celles-ci fournissent aux marketeurs (de contenu) une roadmap concrète qui leur permet de faire les bons choix tant sur le plan juridique qu’éthique.
AI Policy : littératie en IA
Ligne directrice ACC-UBA : « Les marques et les agences de marketing s’engagent à former régulièrement leurs équipes à l’utilisation appropriée de l’IA dans leurs activités, en accordant une attention particulière aux aspects éthiques, à la diversité et à l’impact sociétal de l’IA. »
L’IA requiert beaucoup d’expertise ; pour pouvoir utiliser les nombreux outils de contenu disponibles, mais certainement aussi pour le faire d’une manière éthique et socialement responsable. En particulier dans le domaine du content marketing, où l’impact du contenu est logiquement le plus important, l’investissement dans la connaissance, les formations et le coaching est la devise.
AI Policy : transparence entre marques et agences
Ligne directrice ACC-UBA : « Les marques et les agences s’engagent à établir un dialogue clair et transparent sur l’utilisation des technologies d’IA dans leur communication, visant à une compréhension mutuelle et une application éthique. »
Compte tenu de la grande importance de l’éthique, de la prudence et de la transparence, les agences de content marketing doivent communiquer clairement sur l’utilisation de l’IA avec les marques qu’elles accompagnent. Quels sont les outils déployés, et dans quel but ? Quels sont les contenus générés artificiellement, et de quelle manière les communiquer au public ? La transparence interne est un préalable à la transparence externe, cruciale en vue de l’établissement du lien de confiance entre une marque et son public, et tous les acteurs doivent donc savoir exactement de quoi il retourne.
AI Policy : informations personnelles
Ligne directrice ACC-UBA : « Les marques et les agences sont conscientes que les systèmes d’IA basés sur l’utilisation de données personnelles doivent toujours être développés, formés, utilisés et déployés en conformité avec le RGPD et la législation belge sur la confidentialité, y compris le respect de la vie privée, de la qualité et de l’intégrité des données, et l’accès aux données. »
À l’heure, surtout, où les données first-party gagnent fortement en importance dans le content marketing et où ces données peuvent également être utilisées pour former les outils d’IA, il est essentiel de respecter les réglementations en matière de protection de la vie privée sur toute la ligne. Notamment parce que certaines données personnelles ou confidentielles prennent rapidement une vie propre à cause d’outils d’IA, il ne suffit pas de vérifier après coup qu’il s’agit de contenu responsable : pour les content marketers, l’IA nécessite une attention à chaque étape de la production de contenu.
AI Policy : propriété intellectuelle et droits de la personnalité
Ligne directrice ACC-UBA : « Tout contenu généré par les systèmes d’IA doit être soigneusement vérifié pour s’assurer qu’il ne porte pas atteinte aux droits de propriété intellectuelle de tiers sur la musique, les images, les textes, etc. ou aux droits de la personnalité, dont le droit à l’image, et que ce contenu ne porte pas atteinte à la réputation de la marque et/ou de l’agence. »
Une autre question épineuse, voire un problème de taille dans le paysage de l’IA concerne les droits d’auteur et, par extension, les droits de la personnalité : à qui appartiennent ces contenus artificiels et qu’en est-il des droits de tous les intéressés ? Dans l’attente d’une législation claire et en vue de préserver l’image d’une marque (et d’une agence de content marketing), il peut être approprié, en cas de doute, de n’utiliser l’IA qu’en préparation de la production de contenu.
Jef De Busser
Freelance Content Director
« L’existence de ces lignes directrices est une excellente chose. En les approuvant et en indiquant que vous souhaitez travailler avec l’IA de manière responsable, vous envoyez le bon signal. En même temps, je compare les outils d’IA à un marteau : on peut s’en servir pour poser un toit ou rendre la justice, mais aussi pour attenter à la vie de quelqu’un. La ‘policy’ s’efforce de guider vers un bon comportement ceux qui tiennent le marteau, mais elle touche sans doute surtout les couvreurs et les juges – les membres de l’ACC et de l’UBA. Il me semble peu probable que les parties moins bien intentionnées s’en remettent à elle. Si l’on pense à des choses comme l’influence d’élections, la question se pose en outre de savoir dans quelle mesure nous avons besoin d’une véritable réglementation européenne ou universelle. Car si l’IA sera fantastique à long terme, nous devons veiller à ne pas faire de dégâts irréparables dans l’intervalle. »
Jonas Vandroemme
Content Strategist & Partner chez com&co
« Je ne suis en désaccord avec aucun des dix points. Il est très important que nous nous focalisions sur la protection des informations personnelles, que nous nous préoccupions de l’inclusion, que nous nous attardions sur la propriété intellectuelle. Cependant, il existe parfois un fossé entre la théorie et la pratique. Par exemple, pour la plupart des outils d’IA générative, on ne sait toujours pas sur la base de quelles données d’apprentissage les réponses générées sont composées. Il n’est pas évident de s’attarder sur le fait que l’on est peut-être en train d’utiliser le travail d’autrui. Approuver la ‘policy’ est une chose, mais il reste indispensable de soulever régulièrement des questions critiques, telles que ‘Sommes-nous censés utiliser ceci ?’. Bien qu’il s’agisse d’un document solide et d’un excellent point de départ, il faudra encore faire tout un travail de réflexion critique et beaucoup d’exercices pour correctement mettre en pratique les bonnes intentions et les respecter.
Littératie en IA et transparence
Les experts en content marketing Jef De Busser et Jonas Vandroemme qualifient les guidelines de signal fort et indispensable, mais en même temps ils entrevoient encore un rôle majeur pour les agences. Les lignes directrices autour d’une utilisation responsable de l’IA constituent un bon point de départ, mais il appartient aux praticiens de continuer à s’en inspirer.
« En matière de littératie en IA, l’accent est mis aujourd’hui sur tout ce que l’on peut faire avec les outils et comment ils fonctionnent exactement », soulève Jonas. « C’est la première phase, bien sûr, mais c’est à nous d’étudier à quelles fins il est judicieux de faire appel à eux ou non. Ce n’est pas parce qu’un outil peut faire quelque chose que c’est effectivement un bon plan de l’utiliser à cette fin. » De Busser est tout à fait d’accord et partage un constat frappant. « L’impact à court terme de l’IA est largement surestimé, tandis qu’on sous-estime l’impact à long terme. On ne s’attarde pas assez sur les inconvénients des outils actuels, qui sont pourtant réels. Les outils nécessitent une réelle expertise, par exemple pour diriger ChatGPT dans la bonne direction et générer du contenu de qualité. »
« Les agences et les entreprises doivent aussi continuer à croire en leur propre créativité, empathie et capacité à comprendre les publics cibles », affirme Jonas. « Si l’on constate que les clients veulent utiliser l’IA pour un contenu de leadership intellectuel ou d’opinion, il faut endosser un rôle de conseiller et oser contester cette idée. » Un dialogue ouvert entre les marques et les agences est crucial. « La transparence est indispensable, qui plus est dans les deux directions. Car l’on doit aussi être capable d’avouer à propos de brèves actualités ou de contenus instructifs très factuels que ceux-ci peuvent être créés avec l’aide de l’IA. »