In de wetenschap dat AI naast heel wat opportuniteiten ook een aantal uitdagingen en risico’s omvat voor de communicatiesector, besloten Custo’s moederorganisatie ACC (Association of Communication Companies) en UBA (United Brands Association) tien praktische richtlijnen op een rijtje te zetten. Die bieden (content)marketeers een concrete roadmap om zowel op wettelijk als op ethisch vlak de juiste keuzes te maken.
AI Policy: AI-geletterdheid
ACC-UBA Richtlijn: “Merken en marketingbureaus streven ernaar hun teams regelmatig bij te spijkeren over het gebruik van AI in hun job, met bijzonder veel aandacht voor ethiek, diversiteit en de maatschappelijke impact van AI.”
AI vraagt heel wat expertise. Om de vele beschikbare contenttools te kunnen gebruiken, maar zeker ook om dat op een ethische en maatschappelijk verantwoorde manier te doen. Bij uitstek in content marketing, waar de impact van content logischerwijze het grootst is, is investeren in kennis, trainingen en coaching het devies.
AI Policy: Transparantie tussen merken en agencies
ACC-UBA Richtlijn: “Merken en bureaus verplichten zich tot een duidelijke en transparante dialoog over het gebruik van AI-technologieën in hun communicatie, met als doel een onderling begrip en een ethische toepassing.”
Gezien het grote belang van ethiek, voorzichtigheid en transparantie moeten contentmarketingbureaus helder communiceren over het gebruik van AI met de merken die ze assisteren. Welke tools worden ingezet, en met welk doel? Welke content is kunstmatig gegenereerd, en op welke manier delen we dat mee aan het publiek? Interne transparantie is een voorwaarde voor externe transparantie, die cruciaal is met het oog op de vertrouwensband tussen een merk en zijn publiek, en dus moeten alle betrokkenen precies moeten weten hoe de vork in de steel zit.
AI Policy: Persoonlijke data
ACC-UBA Richtlijn: “Merken en bureaus beseffen dat AI-systemen die zijn gebaseerd op het gebruik van persoonlijke gegevens altijd moeten worden ontwikkeld, getraind, gebruikt en ingezet in overeenstemming met de GDPR en de Belgische privacywetgeving, inclusief respect voor kwaliteit en integriteit van gegevens en toegang tot gegevens.”
Zeker nu first-party data sterk aan belang winnen in content marketing en die gegevens ook gebruikt kunnen worden bij het trainen van AI-tools, is het essentieel om de privacyregelgeving over de hele lijn te respecteren. Niet in het minst omdat bepaalde persoonlijke of vertrouwelijke gegevens snel een eigen leven gaan leiden door toedoen van AI-tools, is het onvoldoende om achteraf te controleren of het om verantwoorde content gaat: voor contentmarketeers vergt AI aandacht in élk stadium van de contentproductie.
AI Policy: Intellectuele eigendom en persoonlijkheidsrechten
ACC-UBA Richtlijn: “Door AI-systemen gegenereerde content moet zorgvuldig worden gecontroleerd om te waarborgen dat deze geen inbreuk vormt op intellectuele eigendomsrechten van derden op muziek, afbeeldingen, teksten, … of persoonlijkheidsrechten, waaronder het portretrecht, en dat deze content de reputatie van het merk en/of het bureau niet in het gedrang brengt”.
Nog zo’n heikel punt en groot vraagstuk in het AI-landschap heeft te maken met auteursrechten en bij uitbreiding persoonlijkheidsrechten: van wie is die artificiële content, en hoe zit het met de rechten van alle betrokkenen? In afwachting van duidelijke wetgeving en met het oog op het imago van een merk (en een contentmarketingbureau), kan het aangewezen zijn om AI in geval van twijfel enkel in te zetten ter voorbereiding van de contentproductie.
Freelance content director
“Het is een heel goede zaak dat deze richtlijnen er zijn. Door ze te onderschrijven en aan te geven dat je op een verantwoorde manier met AI aan de slag wil, geef je het juiste signaal. Tegelijk vergelijk ik AI-tools met een hamer: je kan er een dak mee leggen of recht spreken, maar ook iemand naar het leven staan. De policy probeert zij die de hamer vasthebben te gidsen naar goed gedrag, maar allicht bereik je er vooral de dakwerkers en de rechters mee – de ACC- en UBA-leden. Het lijkt me sterk dat partijen met minder goede bedoelingen zich erdoor zullen laten leiden. Denkend aan zaken als het beïnvloeden van verkiezingen, rijst daarnaast de vraag in hoeverre we nood hebben aan echte Europese of universele regelgeving. Want hoewel AI op de lange termijn fantastisch zal zijn, moeten we erover waken dat er in de tussentijd geen onherstelbare brokken worden gemaakt.”
Content strategist & partner bij com&co
“Ik ben het met geen enkel van de tien punten oneens. Het is erg belangrijk dat we ons toeleggen op het beschermen van persoonlijke data, dat we bezig zijn met inclusie, dat we stilstaan bij intellectual property. Wel gaapt er soms een kloof tussen theorie en praktijk. Zo is het bij de meeste generatieve AI-tools nog onduidelijk op basis van welke trainingsdata de gegenereerde antwoorden samengesteld zijn. Het is dan ook niet evident om stil te staan bij het feit dat je mogelijk het werk van anderen aan het gebruiken bent. De policy onderschrijven is één ding, maar het blijft noodzakelijk om regelmatig kritische vragen op te werpen, zoals ‘Horen we dit wel te gebruiken?’. Hoewel het een sterk document en een prima startpunt is, zal nog er kritisch denkwerk en heel wat oefening aan te pas komen om de goede intenties op een correcte manier in de praktijk te brengen en te eerbiedigen.”
AI literacy en transparantie
Contentmarketingexperts Jef De Busser en Jonas Vandroemme omschrijven de guidelines als een sterk en broodnodig signaal, maar zien tegelijk nog een grote rol weggelegd voor agencies. De richtlijnen rond een verantwoord AI-gebruik vormen een goed startpunt, maar het is aan de mensen in de praktijk om erop verder te bouwen.
“Op vlak van AI-geletterdheid ligt de focus vandaag op wat je allemaal met de tools kan aanvangen en hoe ze precies werken”, merkt Jonas op. “Dat is natuurlijk fase één, maar het is aan ons om te na gaan waarvoor je ze beter wel of beter niet inzet. Dat een tool iets kan, betekent nog niet dat het een goed plan is om hem daar effectief voor te gebruiken.” De Busser gaat volmondig akkoord en deelt een opvallende vaststelling. “De impact van AI op korte termijn wordt sterk overschat, die op lange termijn onderschat. We staan te weinig stil bij de nadelen van de huidige tools, die nochtans reëel zijn. De tools vragen echte vakkennis, bijvoorbeeld om ChatGPT in de juiste richting te sturen en kwalitatieve content te genereren.”
“Ook moeten agencies en bedrijven blijven geloven in hun eigen creativiteit, empathie en vermogen om doelgroepen te begrijpen”, stelt Jonas. “Als we zien dat klanten AI willen inzetten voor thought leadership-content of opiniërende content, moeten we een adviserende rol spelen en dat idee durven tegenspreken.” Een open dialoog tussen merken en agencies is cruciaal. “Transparantie is noodzakelijk, in twee richtingen bovendien. Want van de korte nieuwsberichtjes of zeer feitelijke instructieve content die we creëren, moeten we ook kunnen toegeven dat we die met behulp van AI kunnen maken.”