09-01-2025
De tool gebruikt AI om de beelden te scannen op expliciteit/naaktheid, het aantal personen in de afbeelding en de leeftijd van de slachtoffers. Zo kunnen nieuwe medewerkers, of medewerkers die daar op een bepaald moment behoefte aan hebben, ervoor kiezen om minder heftig materiaal te analyseren. Daarnaast kan er met behulp van de tool, wanneer dat nodig is, prioriteit worden gegeven aan de meest heftige beelden die als eerste moeten worden bekeken en verwijderd.
De tool is in gebruik door de analisten van het meldpunt en blijkt behoorlijk effectief: in 94 procent van de gevallen dat het model een afbeelding met een kind detecteert, klopt dit. Ook slaagt de tool erin om 98 procent van de afbeeldingen met expliciete content te detecteren.
Onze analisten kunnen ervoor kiezen deze voorspelling wel of niet te gebruiken, afhankelijk van hun wensen en behoeftes op dat moment. Daarnaast is de tool zo ingericht dat hij gemakkelijk beschikbaar kan worden gesteld voor andere meldpunten in de wereld. Zo kan de tool wereldwijd bijdragen aan een betere prioritering van meldingen en het welzijn van analisten.
Samen met PwC blijven we werken aan het verbeteren van de tool. Zo weet het model nog niet alle kinderen op afbeeldingen te detecteren. Tot slot kijken we naar uitbreidingen van de functionaliteiten van de tool. Door bijvoorbeeld prioriteitsscores aan afbeeldingen toe te voegen, of door AI een tekstuele omschrijving bij de afbeelding te laten genereren, kunnen we de analist nog beter voorbereiden op wat ze gaan zien.