Cookies

We gebruiken cookies om u de beste ervaring op onze website te bieden. U kunt meer informatie vinden over welke cookies we gebruiken of deze uitschakelen in de instellingen. - Bekijk cookie instellingen

Ga naar inhoud
FAIR AI Attribution (FAIA): helder onderscheid tussen door de mens gecreëerde en AI-content

FAIR AI Attribution (FAIA): helder onderscheid tussen door de mens gecreëerde en AI-content

In 2026 is maar liefst 90 procent van alle online content gegenereerd met AI. En het onderscheid tussen content gemaakt door mensen of machines is steeds lastiger te maken, wat ernstige gevolgen kan hebben. 

FAIA ontwikkelt een open raamwerk voor AI-attributie om transparantie te garanderen over AI-gebruik in digitale content. Sylvia Le Dévédec (Universiteit Leiden) en Sebastian Posth (Liccium) vertellen in dit artikel meer over dit project, dat wordt ondersteund door Topsector ICT en SIDN fonds.

Gepubliceerd op 15 september 2025

Aan het woord

Sylvia Lé Dévedec

Onderzoeker en universitair docent

Universiteit Leiden

Aan het woord

Sebastian Posth

Oprichter

Liccium

Van Call tot Action: Topsector ICT stimuleert publiek-private samenwerking om innovatie in Nederland te versnellen. Binnen de Kennis- en Innovatieagenda Digitalisering (KIA-D) zijn de afgelopen periode diverse projecten van start gegaan die met subsidie zijn ondersteund. In een serie van vijf artikelen belichten we inspirerende voorbeelden van samenwerking tussen bedrijven, kennisinstellingen en overheden die gezamenlijk werken aan digitale oplossingen voor maatschappelijke en economische uitdagingen. In deze eerste aflevering:

Het project FAIR AI Attribution (FAIA)

“Met de opkomst van generatieve AI wordt het steeds moeilijker om onderscheid te maken tussen door mensen gecreëerde content en door AI geproduceerde of bewerkte content. Dit gebrek aan transparantie heeft ernstige gevolgen – niet alleen voor het publieke vertrouwen en het rechtvaardig hergebruik van creatieve content, maar ook voor de wetenschappelijke integriteit, de geloofwaardigheid van digitale media en de naleving van wet- en regelgeving”, vertelt Sylvia Le Dévédec, onderzoeker en universitair docent bij de Universiteit Leiden.

De celbioloog, microscopist en expert op het gebied van imaging in geneesmiddelenonderzoek en -veiligheid, zet imaging in als sleuteltechnologie om inzichten te verkrijgen in de ontwikkeling van ziekten. Zij is daarnaast manager van het High-Content Imaging Platform bij het Cell Observatory van de Universiteit Leiden. Verder is zij fervent pleitbezorger van open science en zeer actief betrokken bij het FAIRificatieproces van de imaging-faciliteit van de universiteit.

Over de FAIR-principes

FAIR staat voor vier principes die beschrijven hoe onderzoeksdata –zowel de data als de bijbehorende metadata – toegankelijk en bruikbaar gemaakt moeten worden. De F staat voor Findable (vindbaar): data en metadata moeten makkelijk terug te vinden zijn, bijvoorbeeld via duidelijke beschrijvingen en persistente identifiers. De A staat voor Accessible (toegankelijk): data moeten toegankelijk zijn onder duidelijke voorwaarden, bijvoorbeeld open access of met heldere toegangsrechten. De I staat voor Interoperable(interoperabel): data moeten in standaard formaten beschikbaar zijn en goed gecombineerd kunnen worden met andere datasets. En de R staat voor Reusable (herbruikbaar): data moeten goed gedocumenteerd en voorzien van metadata zijn, zodat anderen ze opnieuw kunnen gebruiken, ook in een andere context of toekomstig onderzoek. Meer over de FAIR-principes.

Sylvia: “De FAIR-principes gaan dus niet alleen over open data, maar vooral over data die duurzaam, goed beschreven en bruikbaar zijn. In mijn geval gaat het om metadata en goed geannoteerde data, met bijzondere aandacht voor grote bio-imaging-datasets.” Zij merkt dat in de imaging-wereld het belang van het kunnen aantonen dat data betrouwbaar, geloofwaardig en integer zijn enorm is toegenomen, nu het met behulp van AI steeds eenvoudiger wordt om data te manipuleren.

Nieuwe digitale content-infrastructuren

Sylvia kwam in contact met Sebastian Posth, oprichter van het bedrijf Liccium en pleitbezorger van een transparant en verifieerbaar digitaal media-ecosysteem. Liccium is een innovatief platform voor rechtenbeheer, dat tools en standaarden ontwikkelt voor makers en rechthebbenden. “Hiermee kunnen zij hun originele werken digitaal ondertekenen en beschermen, en het auteurschap en metadata vastleggen en eerlijk en betrouwbaar deelnemen aan nieuwe AI- en digitale content-infrastructuren”, licht Sebastian toe.

Dit waarborgt vertrouwen in eigenaarschap, toeschrijving en authenticiteit van digitale media-content. Hij richt zich hierbij niet alleen op de wetenschap, maar ook op andere domeinen en industrieën, waaronder de muziekindustrie, uitgeverijen, mediabedrijven en social media platforms.

Sebastian was mede-initiatiefnemer van de internationale standaard ISO 24138:2024 (ISCC) voor content-gebaseerde identificatie van digitale media en hij ontwierp onder meer Creator Credentials en een gezamenlijk registratiesysteem voor verifieerbare opt-outverklaringen voor AI-trainingsdata, FAIR AI-toeschrijving en open contentregisters. “Ik heb een achtergrond in de uitgeverij, media en rechtenbeheer en vertaal complexe technologieën naar praktische systemen voor herkomst, attributie en transparantie van rechten. Zo ontstaat er een vertrouwensinfrastructuur en werk ik samen met uitgevers, AI-ontwikkelaars en instellingen aan open, interoperabele kaders voor de integriteit van digitale content.”

Het ontstaan van het FAIA-project

Het FAIA-project, wat een afkorting is voor FAIR AI Attribution, is een samenwerking van de Universiteit Leiden, GO FAIR Foundation en Liccium. Sylvia en Sebastian worden in dit project bijgestaan door hun collega’s Kristina Hettne en Alessa Gambardella (Universiteit Leiden) en Erik Schultes (GO FAIR).

Zij ontwikkelen een open raamwerk voor AI-attributie om transparantie te garanderen over AI-gebruik in digitale content. Het gaat om een set van transparante, publiek toegankelijke richtlijnen, standaarden en tools die vastleggen hoe de rol van AI in het creëren van output wordt toegeschreven en verantwoord. Sylvia: “Tot nu toe ontbreekt het aan gestandaardiseerde manieren om content aan AI toe te schrijven, wat desinformatie en nepnieuws versterkt. Tegelijkertijd schrijft Europese wetgeving voor dat het verplicht is om synthetische content bekend te maken (artikel 50 van de AI Act, red). En er bestaat nog geen schaalbaar, machineleesbaar mechanisme om transparantie op dit vlak te ondersteunen. Met ons project willen we daar een oplossing voor vinden.”

Embedded metadata verwijderd
Iedere maker, elk platform of AI-aanbieder kan nu al rechtstreeks een ISCC-fingerprint aanmaken van een mediabestand, volgens het algoritme dat internationaal is gestandaardiseerd in ISO 24138 – ook wel bekend als ISCC – International Standard Content Code. Het probleem is alleen dat informatievelden nu niet worden meegekopieerd als berichten online worden gedeeld, omdat embedded metadata vaak worden verwijderd.

Het raamwerk dat FAIA ontwikkelt bestaat uit een standaard vocabulaire om inzichtelijk te maken dat digitale content met behulp van AI is gemaakt en een vlaggensysteem, waarbij de aard van de content wordt bepaald.

Over het FAIA-vocabulaire
Het FAIA-vocabulaire is ontwikkeld om op een transparante en consistente manier de rol van AI in het creatieproces van content te documenteren. Het biedt een gestandaardiseerde manier om te beschrijven hoe content tot stand komt, wordt aangepast of gegenereerd in workflows waarbij zowel mensen als AI bijdragen. FAIA is onafhankelijk van domeinspecifieke standaarden, maar kan daar wel over rapporteren.

Activiteitstypen geven gedetailleerd aan welke handelingen op de content zijn uitgevoerd, zoals genereren, bewerken, samenvatten, vertalen of transformeren. Waar bestaande standaarden zoals IPTC Digital Source Type (voor nieuws en fotografie) of STM AI Classification (voor academische publicaties) niet toepasbaar zijn, hanteert FAIA generieke, media-onafhankelijke codes, zoals: generation (AI produceert de primaire content), contribution (gedeeltelijke input), enhancement (verbetering/uitbreiding), transformatie, analyse en verfijning. Het ontwikkelen van een geschikte classificatie maakt ook deel uit van het projectwerk.

Voor AI-systemen bevat FAIA ook metadata om het gebruikte systeem te beschrijven: tool (naam van de interface), model, versie en provider. Sebastian: “Deze aanpak maakt consistente beschrijving en transparantie van AI-bijdragen mogelijk in verschillende mediasectoren en contenttypes.”

Over het vlaggensysteem
Daarnaast zijn er drie kleuren vlaggen. Sebastian: “Groen staat voor Human-Created Content, wat we afkorten als HCC. Deze content – of het nou om video, foto’s, geluidsfragmenten of teksten gaat – is alleen door mensen gemaakt en bewerkt. Hierbij mag er wel gebruik zijn gemaakt van digitale tools, maar er is geen Artificial Intelligence betrokken geweest in welke fase van het creatieve- of editing-proces dan ook.”

De gele vlag staat voor AI-Assisted Content (AAC). Hierbij zijn mensen de primaire auteur van de content, maar is er gedurende het maakproces wel gebruik gemaakt van AI-systemen. “Dit kunnen suggesties zijn, maar ook het genereren van bepaalde fragementen of verfijningsstappen, die onder supervisie van mensen hebben plaatsgevonden”, licht hij toe.

Tot slot is de blauwe vlag bedoeld voor AI-Generated Content (AIG), waarbij content grotendeels of zelfs helemaal zijn gemaakt door AI-systemen. “AI is hier de belangrijkste creatieve kracht”, verduidelijkt Sebastian.

De FAIA-vlaggen zijn gekoppeld aan de content-afgeleide identifier/ISCC-fingerprint. Verklaringen van ISCC-codes en FAIA-vlaggen worden digitaal ondertekend door de rechthebbenden en gepubliceerd in publiek toegankelijke registraties. “Uiteindelijk moeten de FAIA-vlaggen toegankelijk zijn voor derden, zodat de kijker, luisteraar of lezer eenvoudig kan achterhalen of de betreffende digitale content door mensen of machines is gemaakt en of het echt of fake is”, licht Sylvia toe.

Steun van Topsector ICT en SIDN fonds

Het FAIA-project wordt financieel ondersteund via de call ‘Responsible AI in de praktijk’ van SIDN fonds en Topsector ICT, waarbij in totaal 10 vernieuwende onderzoeksprojecten werden toegekend. Het is de eerste call die zich richt op het derde luik binnen de Kennis- en Innovatieagenda (KIA) Digitalisering: reflectie op digitale informatietechnologieën. Dit luik draait om ontwikkeling en inbreng van randvoorwaarden om op een verantwoorde manier te digitaliseren. Bij deze specifieke call gaat het om de ontwikkeling van praktisch toepasbare kaders, randvoorwaarden en ontwerpprincipes (by design) voor verantwoorde AI en AI-toepassingen en oplossingen die daarop gebaseerd zijn. Meer informatie over deze call.

Lees ook:

Dit zijn de 10 toegekende projecten van de call ‘Responsible AI in de praktijk’

SIDN fonds en Topsector ICT hebben subsidie toegekend voor diverse vernieuwende onderzoeksprojecten die praktijkoplossingen bie...

Lees verder

Open source, vrij toegankelijk

De technologie bestaat dus al en sinds vorig jaar is er een internationale standaard ontwikkeld om wereldwijd een uniforme manier te bieden om digitale content te identificeren (de ISO 24138:2024). Sebastian: “Als straks een gestructureerd, interoperabel en verifieerbaar raamwerk voor FAIR AI Attribution is ontworpen en geïmplementeerd, kan het op grote schaal gebruikt worden”. Het eerste prototype zal gericht zijn op de betrokkenheid van AI bij academische papers. Het doel is dat het daarna ook aan te passen is naar andere contexten. De uitkomsten van het project zullen open-source worden gedeeld en geïmplementeerd via het Liccium-platform.

“Het FAIA-project past ook bij hoe we met onze studenten moeten omgaan door de opmars van AI-tools. Ik begeleid veel studenten met hun literatuurstudies. Doordat studenten tegenwoordig allerlei generatieve AI-tools gebruiken, zijn we het hele concept van de literatuurstudie aan het re-designen. Ik denk dat het FAIA-project hierin ook een belangrijke rol kan gaan spelen”, licht Sylvia toe.

Meer informatie over het project vindt u hier: FAIR AI Attribution (FAIA) | FAIA – FAIR AI Attribution

  • Privacy overzicht
  • Noodzakelijke cookies
  • Cookies van derden
  • Aanvullende cookies
  • Privacy en cookies

Deze website maakt gebruik van functionele-, analytische- en tracking-cookies om de website te verbeteren.

Strikt Noodzakelijke Cookies moet te allen tijde worden ingeschakeld, zodat wij uw voorkeuren voor cookie-instellingen kunnen opslaan.

Deze website gebruikt Google Analytics, Hotjar en Facebook pixel om anonieme informatie te verzamelen, zoals het aantal bezoekers van de site en de meest populaire pagina's.

Door deze cookie ingeschakeld te houden, kunnen we onze website verbeteren.

Deze website gebruikt de volgende aanvullende cookies/services:

Meer over onze cookies