Universiteit Amsterdam moet bewijzen geen racist te zijn

PARAMARIBO, 9 december 2022 – De juridische strijd om een stuk "webcam software" dat de Universiteit Amsterdam in bruikleen had genomen, gaat onverminderd hard verder.

Gekleurde student

Een licht getinte studente beweert dat deze software (een programma dat op de computer draait – redactie) puur racistisch is, omdat de camera van haar laptop haar donkere gezicht niet herkende in een donkere ruimte.

Dankzij de software kon de student toch haar examen doen

Haar werd door de helpdesk van de softwareleverancier aangeraden een lamp aan te doen of de gordijnen van haar studentenkamer open, maar dat weigerde zij omdat ze "gelijk aan witte mensen behandeld wil worden en zij hoeven ook geen lamp aan te doen".

Alle studenten die de software tijdens hun examens moesten gebruiken, kregen vooraf ruim de tijd om deze te testen naar de eigen omstandigheden.

De testfase was bedoeld om te voorkomen dat de software in de studentenkamer zelf niet goed zou werken of dat door stress (vanwege het examen) men iets niet zou begrijpen.

De studente in kwestie heeft deze test vooraf nooit gedaan, omdat ze gelijk aan witte mensen behandeld wil worden (de proceduretesten waren overigens bedoeld voor iedereen, los van huidskleur – redactie).

De software werd gebruikt om tijdens de coronapandemie de examens op de universiteit toch doorgang te kunnen geven.

Studenten konden niet naar school, maar mochten wel vanuit huis afstuderen.

Omdat daarbij zeer veel werd gefraudeerd (sommigen deden examen met de antwoorden op papier er naast) is dure software aangeschaft zodat men op afstand kan zien of een student zich wel aan de regels houdt.

Gemixte afkomst

De studente in kwestie is van gemixte afkomst en werd door software in de camera niet in 1x herkend; ze zat in een donkere ruimte en dus waren de contouren van haar gezicht niet direct duidelijk.

Volgens haar is dat bewust racisme en een teken van de witte superioriteit die wetenschappers en programmeurs in haar ogen uitstralen.

"Witte mensen doen geen gordijnen open, dus ik ook niet"

Veel wetenschappers en softwareontwikkelaars (in Nederland) zijn niet van Surinaamse afkomst en zouden dus bevooroordeeld zijn als het gaat om het softwarematig herkennen van donkere mensen, is haar verhaal.

Technische fout

Volgens de universiteit is het geen racisme, maar een softwarefout of technische beperking die na een update direct was opgelost.

De studente laat het er niet bij zitten en heeft de organisatie "Racism and Technology Center" ingeschakeld om de universiteit juridisch nog verder onder druk te zetten.

Deze organisatie pleit voor "technologie zonder racisme" en wordt betaald door de Nederlandse Staat.

Een "racisme technologie organisatie" steunt de studente

De rechter heeft nu besloten dat de universiteit met omgekeerde bewijslast moet komen;

Het is niet aan de studente om te bewijzen dat de software puur racistisch is, maar aan de opleiding om aan te tonen dat de software niet racistisch is.

Lastige bewijsvoering

Iets wat volgens kenners lastig is om te bewijzen, aangezien de software zelf niet nadenkt maar simpelweg regels aan code uitvoert die altijd wel ergens een keer de mist in kunnen gaan.

Computercodes zijn dom en denken niet na

Dat is dan een technische imperfectie veroorzaakt door menselijk falen, maar maakt de software of code zelf niet tot een racistisch geheel.

De universiteit heeft enkele weken de tijd gekregen om het bewijs te tonen.

Bron : Suriname Nieuws


— UW MENING —

Vindt u de strijd van deze studente goed of zonde van de tijd?


Wilt u reageren op de vraag?

Lees verder in de gratis app!