Een toekomst met zelfrijdende auto’s lijkt niet meer ver weg. Lekker achteroverleunen in de auto terwijl je een film kijkt met je vrienden, je nagels lakt of nog last minute een pleitnota typt voor werkt. Uiteraard bestaan er al auto’s met allerlei hightech snufjes die zichzelf kunnen inparkeren, remmen wanneer er gevaar dreigt en je waarschuwen wanneer je aan het knikkebollen bent achter het stuur. De alom bekende auto van Tesla kan door middel van duizenden sensoren de verkeerssituatie op de weg meten en op eigen houtje van A naar B rijden!
De wet verplicht de bestuurder wel om zijn handen aan het stuur te houden en actief op te letten. Achter de schermen van grote automerken volgen de technologische ontwikkelingen zich razendsnel op en is het goed mogelijk dat we aan de vooravond staan van een A2 vol zelfrijdende auto’s. Dit is natuurlijk allemaal heel gaaf, maar wie is er aansprakelijk bij een ongeluk? Onze huidige regelgeving loopt nog stroef ten aanzien van deze snelle scheurijzers. De bestuurder blijft aansprakelijk bij een ongeluk met een semi-zelfrijdende auto. Over de toekomst wordt flink gespeculeerd. Waarschijnlijk zal de aansprakelijkheid van de bestuurder (of passagier?) verschuiven naar de producent of misschien wordt de aansprakelijkheid wel verdeeld over alle betrokkenen.
Algorithms and Stuff
Het is echter niet te vroeg om na te denken over de morele aspecten van de zelfrijdende auto. Deze vervoert ons namelijk naar een muur van een ethisch dilemma. Stel dat de auto onderweg moet kiezen tussen twee situaties: tegen een groep mensen botsen waarbij jij blijft leven maar velen maar velen uit de groep zullen doodgaan óf uitwijken voor deze groep en vervolgens tegen een muur knallen waarbij dit het einde betekent voor jou. Kan een auto ethisch nadenken en de waarde van levens afwegen? Een algoritme in de software kan een auto bepaalde keuzes laten maken, waardoor een auto een soort ethisch denkvermogen krijgt en de waarde van levens afweegt. Hoe dient zo’n algoritme te worden afgesteld? Er kan op twee manieren naar de zelfrijdende auto worden gekeken. Indien de auto in dienst staat van de samenleving moet de auto het maatschappelijk doel nastreven. Dit betekent zo min mogelijk schade voor iedereen maar wél dat kans dat de inzittende zijn leven moet geven. De auto wordt dan op een soort ‘self-sacrificing autopilot’ gezet. Staat de auto op de zelfbehoudende stand, dan zal de auto niet snel kiezen voor een desastreuze afloop voor zijn bestuurder (lees: inzittende).
De robotauto
Velen van ons vinden dat de auto een morele plicht heeft om zo weinig mogelijk doden te maken, maar dit kan in strijd komen met de wens tot zelfbehoud van de inzittende. Hoe zou de fabrikant hierin staan? Zouden jij en ik een zelfrijdende auto kopen die bereid is ons te doden? Ik vind dat als wij nu al op de snelweg rijden er ook een risico aanvaard wordt dat een autorit weleens slecht kan aflopen. In de toekomst zal het met een zelfrijdende auto niet anders zijn. Er is nooit complete controle over wat zich buiten de auto afspeelt. Het idee dat een auto jou kan opofferen lijkt nieuw in onze samenleving maar staat niet ver van de huidige situatie af.
Daarnaast rijst ook de vraag op of de auto altijd het leven van een jong kindje moet verkiezen boven het leven van een bejaarde. Bepaalt een auto zo de value of life? Ligt dit lot in handen van de fabrikant of moeten wij dit als samenleving ‘instellen’? Persoonlijk denk ik dat de wetgever een flinke vinger in de pap moet hebben bij de zelfrijdende auto’s om dit in goede (rij)banen te leiden. Het is tijd dat filosofen, juristen en ethici de handen ineenslaan en gaan nadenken over het morele vraagstuk van de zelfrijdende auto.