In de scheepvaartvaren bijna 1000 zeeschepen elke week de Nederlandse havens binnen. Helaas zijn er niet genoeg inspecteurs om ze allemaal te controleren. Hoe bepaal je dan welke schepen extra aandacht verdienen? En kan AI daarbij helpen?
Jasper van Vliet, chief data scientist bij de Inspectie Leefomgeving en Transport (ILT), legt uit: "Op dit moment gebruiken we eenvoudige selectieprocedures op basis van veldkennis. Met behulp van AI willen we deze selectie verbeteren, zodat we probleemschepen er effectiever en eerlijker tussenuit kunnen halen."
AI-oplossingen die meebewegen
De AI-systemen die het Lab ontwikkelt, moeten naadloos aansluiten op de dagelijkse praktijk van inspecteurs, stelt Van Vliet. "De maatschappij en wet- en regelgeving veranderen continu. AI-oplossingen moeten daarom meebewegen en het liefst die veranderingen zélf detecteren. Er zijn wel basistechnieken, maar die zijn nog niet grondig uitgewerkt." Het doel: algoritmes die de menselijke experts zo effectief mogelijk ondersteunen bij het nemen van beslissingen in het toezichtwerk.
Tekorten compenseren met digitale collega
Ook helpen de toepassingen straks bij effectief risicogericht toezicht. "Veel inspecties kampen met een tekort aan inspecteurs. Je wilt hen dus inzetten op plekken waar dat het meest effectief is, niet bij bedrijven waar alles op orde is. Met behulp van AI kun je grote hoeveelheden data analyseren om risicovolle gebieden, bedrijven of instellingen te identificeren. Zo worden inspecties geholpen waar zij inspecteurs het beste kunnen inzetten."
Van Vliet ziet de toepassingen die in het lab ontwikkeld worden als een soort digitale collega-inspecteur. Een collega die van jou leert én zelf ook met advies en suggesties komt. "De modellen leren van ervaringskennis die inspecteurs inbrengen en kunnen hen weer wijzen op zaken waar ze tijdens een inspectie nog meer op kunnen letten. Zo beperk je de invloed van vooroordelen en aannames."

AI leren om niet te discrimineren
Oók in de technologie kunnen vooroordelen sluipen, bijvoorbeeld doordat het AI-systeem leert van resultaten uit het verleden. Het is essentieel om dit te herkennen en uiteindelijk te voorkomen.
Cor Veenman is senior data science specialist bij TNO en doet tevens onderzoek naar verantwoorde AI aan de Universiteit Leiden. "We doen veel onderzoek naar eerlijke en transparante AI die moet voldoen aan ethische en juridische kaders." Op die manier kun je bepaalde situaties voorkomen, zoals bij de uitvoeringsorganisatie van de rijksoverheid voor het onderwijs (DUO), stelt hij.
"DUO nam bij de fraudeopsporing met studiebeurzen bewust de migratieachtergrond niet mee, maar selecteerde wel studenten die in de buurt van familie wonen. Het blijkt dat juist mensen met een migratieachtergrond vaker bij familie in de buurt wonen. Die groep kwam daardoor onevenredig vaak naar voren om gecontroleerd te worden. Terwijl er methodes zijn om die ongewenste verbanden te elimineren."
Het doel is om meer methodes te ontwikkelen die dit soort discriminerende patronen onderdrukken.
Privacygevoelige data wel júist nodig
Een van de voorwaarden voor eerlijke AI is dat je de systemen juist toegang moet geven tot gevoelige data, bijvoorbeeld over etniciteit, geslacht of leeftijd. Van Vliet: "Met deze data kun je vooroordelen herkennen en voorkomen. Bijvoorbeeld door te zien dat instellingen met bestuurders met een bepaalde etnische achtergrond vaker gecontroleerd worden."
"In de huidige aanpak rondom privacy worden deze gegevens zo snel mogelijk onbereikbaar gemaakt. We hebben nog aardig wat hobbels te overwinnen. Natuurlijk mogen die gegevens alleen onder strikte privacybescherming meegenomen worden, zodat ze alleen gebruikt worden om vooroordelen te corrigeren. Maar als je écht gaat voor eerlijk gebruik, dan is toegang tot die gevoelige gegevens onvermijdelijk."
Bron: ToeZine









