Tomas Folens is gespecialiseerd in de ethische kwesties die gepaard gaan met artificiële intelligentie. Als lesgever en onderzoeker is hij verbonden aan de KU Leuven en Hogeschool VIVES.
AI functioneert op basis van bestaande data en kan zo onbewust vooroordelen doorvertalen in content en een versterkt discriminerend effect creëren: in welke mate is dat een probleem, en hoe kan het aangepakt worden?
Tomas Folens: “Er zijn absoluut heel wat historische cases die wijzen op bias in data. Zo was er een zeepautomaat die niet reageerde bij zwarte mensen, precies omdat de trainingsdata louter witte mannen en vrouwen bevatte. En toen Amazon op zoek was naar nieuwe ingenieurs en een algoritme gebruikte om topkandidaten te selecteren uit de sollicitatiebrieven, kwam geen enkele vrouw uit de bus. Niet onlogisch, want de database van ingenieurs was natuurlijk overwegend mannelijk.
Ik heb wel het gevoel dat het bewustzijn rond deze problematiek is toegenomen en de situatie nu beter is dan enkele jaren geleden. Maar het blijft raadzaam om attent te blijven voor bias en discriminatie wanneer je historische data gebruikt, en zelfs bij het verzamelen van nieuwe data is waakzaamheid geboden.
De uitdaging zit vooral in het samenstellen van de trainingsdatabase. Hoewel je achteraf nog enkele correcties kan doorvoeren, is het cruciaal om meteen de nodige diversiteit mee te nemen in de dataset. Gelukkig gebeurt dat vandaag steeds meer. Mede dankzij initiatieven uit politieke hoek, want in de Europese richtlijnen rond AI is bias bijvoorbeeld een zeer belangrijk element.”
Wie draagt de verantwoordelijkheid wanneer er zulke of andere problemen opduiken bij het gebruik van AI: de ontwikkelaars of de gebruikers?
Tomas Folens: “Er was lang de tendens om alle verantwoordelijkheid steevast bij de eindgebruiker te leggen. Daar ga ik helemaal niet mee akkoord, want technologie is niet per se ethisch neutraal. Het is belangrijk dat ook developers nadenken over de technologieën die ze lanceren en hoe die de wereld kunnen beïnvloeden, want soms worden mensen in een bepaalde richting geduwd.
Maar ook de gebruiker draagt verantwoordelijkheid, want het is niet realistisch dat ontwikkelaars alles voorzien en elke mogelijke situatie of toepassing kunnen voorspellen. Wanneer een bestuurder van een heel ethisch ontworpen autonome wagen iemand bewust omverrijdt, mag de verantwoordelijkheid natuurlijk niet bij de ontwikkelaar liggen.
Maar het verantwoordelijkheidsvraagstuk is een complex gegeven, tevens omdat er eigenlijk nog een derde actor is: de wetgever. Binnen dat AI-verhaal zijn bepaalde beperkingen van overheidswege volgens mij immers noodzakelijk om een aantal ethische risico’s in te perken. Het gaat dus om een gedeelde verantwoordelijkheid en een samenspel tussen gebruikers, ontwikkelaars en de politiek.”
Wat met copyright en het gebrek aan bronvermelding: moeten we ChatGPT en consoorten niet zien als copy-pasten voor gevorderden?
Tomas Folens: “Er bestaan AI-tools, zoals Perplexity, die wel degelijk bronnen vermelden bij de verzamelde informatie. Maar het meer geavanceerde ChatGPT doet dat inderdaad niet, en bij het opvragen van de bronnen krijg je doorgaans een fictief lijstje voorgeschoteld. Dat is problematisch, want weten waar de informatie vandaan komt, is natuurlijk een voorname maatstaf om de betrouwbaarheid te bepalen.
Ik denk wel dat ChatGPT ergens in een evolutie past: we moeten leren omgaan met nieuwe informatie en in deze informatiesamenleving streven naar een kritische geest. Op dat vlak heeft het onderwijs volgens mij een essentiële taak, niet in het minst omdat tools als ChatGPT gewoon linken leggen en helemaal geen foutloze inhoudelijke experts zijn.
Voor content creators, die idealiter over de nodige knowhow beschikken wat zulke tools betreft, lijkt het me vooral interessant om AI in te zetten tijdens de voorbereidende fase, om de content vervolgens zelf en met een kritische blik te creëren. Zo’n aanpak zal allicht veel accurater en waardevoller zijn.
Nopen die kwesties rond verantwoordelijkheid en copyright niet tot de invoering van een label, om zo transparant aan te geven hoe en waarvoor AI gebruikt werd in content?
Tomas Folens: “Dat is een interessant vraagstuk. Een label is zeker een valabele optie, maar het mag daarbij gerust wat verder gaan dan gewoon de melding dat er artificiële intelligentie ingezet werd in het productieproces. Ik zou bij dat label dus graag nog een paar woorden uitleg zien, zodat de mensen exact weten hoe ze de content en de output van de gehanteerde tools naar waarde moeten schatten. Wie honderd procent transparant wil zijn, moet volledige duidelijkheid scheppen voor het publiek.
Ook de Raad voor Journalistiek denkt vandaag trouwens na over hoe media en journalisten met AI moeten omgaan, hoe het zit met hun verantwoordelijkheden en of het al dan niet nodig is om het gebruik van AI te vermelden.”
Treden er ook bepaalde privacy-issues op de voorgrond, bijvoorbeeld wanneer merken met AI grote hoeveelheden persoonlijke gegevens verzamelen en analyseren?
Tomas Folens: “De GDPR-wetgeving, die nog een beetje aangescherpt zal worden aan de hand van de komende AI Act, is hier vanzelfsprekend een cruciaal element. Maar uiteindelijk is het vooral de bedoeling dat er met consent gewerkt wordt. Opt-in en niet opt-out, met andere woorden, wat natuurlijk niet zonder consequenties is voor de marketingpraktijk.
Op vlak van marketing is er voor mij nog een heel interessante ethische kwestie of uitdaging. Toen Yuval Noah Harari op campus Kulak kwam spreken, zei hij dat het systeem je misschien wel beter kent dan je jezelf kent. Als marketeer verzamel je allerlei gegevens om de noden van mensen zo nauwkeurig mogelijk vast te stellen. Omdat AI daar nog veel beter in is, rijst de vraag hoe je mensen moet informeren over het feit dat er op onbewuste verlangens wordt ingespeeld.”
Brengt het gebruik van AI in content marketing nog andere prominente ethische vraagstukken met zich mee?
Tomas Folens: “Zoals ik al vertelde, is transparantie een essentieel begrip. Maar in feite kent het verschillende deelaspecten. Waar privacy vooral te maken heeft met data governance, draait transparantie bijvoorbeeld ook om wat het systeem eigenlijk kan. En daarom: kan je wel voldoende inzicht krijgen in wat de artificiële intelligentie precies doet? Of blijft het een systeem dat zelfs voor de marketeer nog heel wat geheimen kent?”