Weer kregen duizenden ouders een brief op de mat: ‘Een algoritme heeft uw kind aangemerkt als potentieel crimineel’. Waarom precies? Dat werd vaak niet duidelijk. Ouders stonden met lege handen. 2/
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593251101780115458
Dit hele systeem ondermijnt kansengelijkheid. En werkt bovendien etnisch profileren, discriminatie en racisme in de hand. 4/
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593251534313521152
Dit systeem ondermijnt bovendien de rechtsstaat: in een rechtsstaat handelt de politie alleen op concrete verdenkingen, niet op ‘voorspeld’ gedrag of risicoprofileringen op basis van persoonsgegevens. 5/
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593251647031242752
Het is hoog tijd dat Nederland eindelijk de lessen van de toeslagenaffaire in de praktijk brengt en stopt met dit soort risicovol gebruik van algoritmen. 6/
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593251855899164679
Technologie is geen quick fix tegen criminaliteit, maar kan wel levens verwoesten als we het verkeerd gebruiken. 7/
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593252469270011904
Als onderhandelaar van de AI-wet heb ik een verbod op dit soort ‘criminaliteitsvoorspellingen’ en profileren door politie en andere overheidsinstellingen, zoals de belastingdienst, ingediend. Hiervoor strijd ik in Europa. 8/8
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593252674916724738
Het gevolg is een soort surveillancesysteem met grote impact op de levens van jongeren en hun families. De jongeren worden vaak stiekem geobserveerd en er staat dikwijls politie en een stroom van instanties voor de deur. 3/
🐦🔗: https://nitter.eu/kimvsparrentak/status/1593251272194658315