📌Designbrief v2
Algorithmic biases in predictive policing systems
Hey Eyob,
Wat goed van je dat je zo je project durft om te gooien. Je concept klinkt als een goed en sluitend verhaal. Heel interessant en waardevol ook. We kunnen het er vanmiddag verder over hebben. Er zijn een paar puntjes waar we het dan over kunnen hebben.
Welke data wil je als referentie dataset gebruiken? Dus hoe bepaal je hoe een crimineel er uit ziet? Je gaf al een aantal bronnen maar ik ben benieuwd wat je gedachtes hier over zijn.
En er hoe ga je communiceren dat dit juist een 'anti' project is. Dus hoe maak je je punt dat dit een commentaar is op de huidige activiteiten van de politie?
De data die ik wil gebruiken is afkomstig van het cbs: “ Verdachten; delictgroep, geslacht, leeftijd en migratieachtergrond “ https://opendata.cbs.nl/statline/#/CBS/nl/dataset/81947NED/table?ts=1616497869085&fromstatweb=true
- “Mijn concept” zal een profiel maken op basis gezichtsherkenning waarbij bijvoorbeeld; geslacht, leeftijd, etniciteit kan worden gedetecteerd.Deze data wil ik tegen over de dataset zetten zodat je eigenlijk historische misdaad data tegenover jou “predicted risk profile” kan leggen.
- Ik zat er aan te denken om het te koppelen aan een “activistisch campagne” / “anti” project waarbij gezichten onterecht in databases worden gehouden door de politie. Misschien is het een idee om zo meer aandacht te vragen of een verzoek te doen om je foto’s te laten verwijderen uit de database.
“ Wie verdacht wordt van een ernstig misdrijf, belandt in een database van Justitie met een gezichtsfoto. De politie mag die mugshots weer gebruiken bij onderzoek naar andere strafbare feiten met behulp van het softwareprogramma Catch.”
Mede gebaseerd op het artikel: https://www.volkskrant.nl/nieuws-achtergrond/mogelijk-tienduizenden-nederlanders-onterecht-in-database-voor-gezichtsherkenning~b72d2971/
Last updated