Ethiekboek: pas op met zelflerende systemen
In haar boek ‘Regels voor robots’ waarschuwt de Belgische moraalfilosofe Katleen Gabriels voor de negatieve gevolgen van zelflerende robots en artificial intelligence (AI). De voorbeelden die ze geeft, variëren van relatief onschuldig tot catastrofaal.
In de eerste categorie valt de zelflerende chatbot Tay die op Twitter het gemene, seksistische en racistische taalgebruik van andere Twitter-gebruikers overneemt. Grimmiger is het voorbeeld van de zelfrijdende auto die in een crash-situatie de keuze moet maken tussen een groep schoolkinderen en een boom. Kun je een robot leren ethische keuzes te maken?
Kunstmatige intelligentie wordt vaak ingezet voor het tonen van advertenties of het beoordelen van sollicitaties. Hier gaat het ethisch gezien mis als mensen met een niet-westerse achtergrond structureel jobadvertenties met een lager salaris krijgen aangeboden. Of als tijdens een sollicitatieproces de cv’s van vrouwen worden afgewezen omdat het algoritme zich een ‘voorkeur’ voor mannen heeft aangeleerd.
Vooringenomen data
De oorzaak van deze onbedoelde effecten is dat de ontwikkelaars onbewust vanuit hun eigen bubbel redeneren – de white guy bias – of het systeem voeden met ‘vooringenomen data’. Gabriels noemt als voorbeeld een rekruteringsalgoritme van Amazon dat zich baseerde op de cv’s van bestaande medewerkers, waar vrouwen op dat moment juist in waren ondervertegenwoordigd.
AI en robots rukken op in de maatschappij en daarom pleit Gabriels voor goede wetgeving en het verplicht maken van het vak ‘techniekethiek en -filosofie’ bij technische studies. Voor supply chain professionals is misschien wel de belangrijkste les dat ‘vooringenomen data’ tot verkeerde beslissingen kunnen leiden. Ben je dus bewust van je bubbel en voorkom een ‘people in supply chain bias’.
‘Regels voor robots’ (2019), Katleen Gabriels. VUBpress, 172 blz., €17,95