Wie bepaalt de moraal van de zelfbesturende auto?

Foto: CC0 Public Domain

UTRECHT – Een zelfsturende auto. Deze komt steeds dichterbij. Wetenschappers zijn momenteel al bezig om morele beslissingen te programmeren in een machine van een autonoom voertuig. Zij staan voor vragen als: Hoe uit te wijken in het geval van mogelijke ongelukken? Moet jouw zelfbesturende auto een voetganger omverrijden om jou te redden?

Science publiceerde een onderzoek van computerwetenschappers en psychologen die uitzochten hoe Amerikaanse burgers vinden dat een zelfbesturende auto zich moet gedragen. Uiteindelijk stond volgens respondenten het ‘grootste goed’ voorop. Is dat het minste aantal slachtoffers? Het minste letsel? De meeste respondenten vonden dat ze zelf gered moeten worden, ook als dat ten koste van een voetganger gaat. Wetenschappers zijn er nog niet uit óf je dit moet vertalen naar algoritmen en hoe dan.

Prof.dr. John-Jules Meyer (Informatica, UU) en dr. Merel Noorman (techniekfilosofe, UM) spraken bij ons op het podium over de technische en ethische dilemma’s rondom ‘slimme systemen’, waaronder zelfbesturende auto’s en drones. Volgens hun is ons klassieke idee van verantwoordelijkheid te beperkt als het aankomt op technologie. Het is dus goed, maar vooral heel noodzakelijk, dat filosofen, computerprogrammeurs, maar ook sociologen en psychologen onderzoek doen naar machine decision-making. Kijk Slimme bommen terug, een opname uit het archief van Studium Generale – Podium voor kennis & reflectie van de Universiteit Utrecht.

Bron: Universiteit Utrecht/sg.uu.nl

Cookieinstellingen