📌Designbrief v1

Algorithmic biases in healthcare systems

Designbrief

Hai Eyob,

De tweede lezer Laura Benvenuti en ik hebben je designbrief gelezen. We vinden het een heel interessant project en zien de potentie. Daarom heb je zeker een GO. Hieronder vind je mijn feedback en ook aantal punten die nog wat aandacht behoeven. Wellicht kan je daar nog naar kijken en kunnen we het daar dinsdag over hebben.

Deelvragen

Het valt me op dat deelvraag 8 (Hoe creëert mijn product bewustwording bij de eindgebruikers?) eigenlijk de belangrijkste is. Hier kan je op conceptueel niveau bedenken hoe je echt kan doordringen bij de gebruiker. Ik zou deze deelvraag centraal stellen. Natuurlijk moet je eerst grip hebben op je probleem dus is het belangrijk dat je deelvraag 1 t/m 4 eerst beantwoord hebt.

Je hebt heel slim voor de vraag wie de doelgroep is als een deelvraag geformuleerd. Dit is inderdaad heel belangrijk om eerste te doen omdat je dan het project kan af kaderen. Anders ga je alles onderzoeken en daar heb je niet de tijd voor. Plus bij wie ga je het project straks dan testen? Probeer dit echt concreter te maken. Uit je design challenge en je beoogde impact proef ik dat je graag ‘de gewone man/vrouw’ wilt aanspreken. Maar als je hier dieper op ingaat is het denk ik interessant om mensen te interviewen die slachtoffer zijn geworden van biased diagnoses (al dan niet door AI). Dat is eigenlijk je doelgroep waarbij je net te laat was. Wat voor gevoel kregen de mensen hierbij? Wat doet dat met je? Wat waren de gevolgen? Kijken ze nu anders aan tegen het leven? Ik denk dat je uit zulke gesprekken veel kan leren en dat het handvatten geeft voor je project.

CCDL

We missen wel nog het component van de CCDL. Hoe ga je die een plek geven? Probeer dit nu al te bedenken anders kom je straks in de knel. Het is een mooie kans om verschillende bevolkingsgroepen van binnen uit te onderzoeken om zo vooroordelen bloot te leggen.

Productvisie

De tweede lezer werd erg enthousiast van je idee om input van de gebruikers zelf te gebruiken om bewustwording te creëren.

Ze noemde ook het voorbeeld van het AI systeem die de HR afdeling gebruikte bij Amazon. Daar kwam namelijk uit dat vrouwen niet geschikt zijn voor leidinggevende functies omdat de referentie dataset bijna alleen maar uit mannen bestond.

Begrijpen we het goed dat het effect van foute diagnoses door te weinig data juist het doel is van je project? Om zo die bewustwording te creëren. Het is dan wel zaak dat je duidelijk inzicht geeft in de incompleetheid van de data. Anders ga je voorbij aan je punt. Dus het gaat om het verhaal achter de verkeerde diagnose/voorspelling. Dus het punt dat het de data compleet is zal in jouw project nooit aanbreken toch?

Oké tot zover! Dinsdag kunnen we het er nog verder over hebben.

Groet,

Ruiter

Last updated

Was this helpful?