Zelfrijdende auto’s zullen nooit moreel zijn. Laten we stoppen met anders doen alsof, …


Sinds bedrijven begonnen met het ontwikkelen van zelf rijdende auto’s, hebben mensen gevraagd hoe ontwerpers zich zullen buigen over de morele vraag wie een zelfrijdende auto zou moeten doden als een fatale crash onvermijdelijk is. Recent onderzoek suggereert dat deze vraag voor autoconstructeurs nog moeilijker te beantwoorden is dan eerder werd gedacht, omdat de morele voorkeuren die mensen hebben zo sterk verschillen van land tot land.

Bron artikel Activist Post: Self-Driving Cars Will Never Be Moral. Let’s Stop Pretending Otherwise
Door: John McDermid

De onderzoekers, gevestigd aan de Harvard University en MIT, ontwikkelden een online spel dat situaties simuleert waarbij een dodelijk auto-ongeluk onvermijdelijk was. Ze vroegen ongeveer 40 miljoen mensen uit meer dan 200 landen om te kiezen tussen verschillende ongeval resultaten, zoals het doden van voetgangers in plaats van de passagiers van de auto.

De resultaten onthulden drie culturele clusters waarin er significante verschillen waren in de ethische voorkeuren die mensen hadden. In de zuidelijke cluster (die het grootste deel van Latijns-Amerika en enkele voormalige Franse koloniën omvatte) was er bijvoorbeeld een sterke voorkeur om vrouwen te beschermen tegen mannen. De oostelijke cluster (die veel islamitische landen omvatte, evenals China, Japan en Korea) had een lagere voorkeur om jonge mensen te sparen boven ouderen.

De onderzoekers concludeerden dat deze informatie van invloed zou zijn op zelf rijdende auto-ontwikkelaars. Maar is dat echt zo? Hoewel dit artikel een interessante ontdekking over mondiale variaties in morele voorkeuren benadrukt, wordt ook gewezen op een aanhoudend misverstand over AI en wat het eigenlijk kan doen. Gezien de huidige AI-technologie die wordt gebruikt in zelf rijdende auto’s, is het idee dat een voertuig een morele beslissing kan nemen in feite onmogelijk.

De “morele machine” -fantasie

Zelfrijdende auto’s zijn getraind om beslissingen te nemen over waar te sturen of wanneer te remmen, met behulp van specifieke (of zwakke) AI (kunstmatige intelligentie die gericht is op het voltooien van één enge taak). Ze zijn ontworpen met een reeks sensoren, camera’s en afstandsmeetlasers (lidar) die informatie geven aan een centrale computer. De computer gebruikt vervolgens de AI om deze invoer te analyseren en een beslissing te nemen.

Hoewel de technologie momenteel relatief eenvoudig is, zullen auto’s uiteindelijk beter presteren dan mensen in deze basistijden. Het is echter onrealistisch om te denken dat zelfrijdende auto’s ook in staat zouden moeten zijn om een ​​ethische beslissing te nemen die zelfs de meest morele van mensen geen tijd zou hebben om te maken in een ongevalscenario. Een auto zou geprogrammeerd moeten worden met algemene AI als verwacht werd dat dit zou gebeuren.

Algemene AI is het equivalent van wat ons mens maakt. Het is het vermogen om te converseren, van muziek te genieten, dingen grappig te vinden of morele oordelen te vellen. Het produceren van algemene AI is momenteel onmogelijk vanwege de complexiteit van menselijke gedachten en emoties. Als we morele autonome voertuigen nodig hebben, zullen we daar niet voor enkele decennia achter komen, als het ooit gebeurt.

Een ander probleem met het nieuwe onderzoek was dat veel van de situaties die deelnemers moesten beoordelen, onrealistisch waren. In één scenario, in navolging van het beroemde “trolley probleem”, werd aan de deelnemers gevraagd wie de auto zou moeten doden als de remmen zouden uitvallen: de drie passagiers (een volwassen man, een volwassen vrouw en een jongen) of drie oudere voetgangers (twee mannen en een vrouw) ).

Mensen kunnen dit soort problemen zorgvuldig overwegen bij het beantwoorden van een vragenlijst. Maar in de meeste echte ongevallen, zou een bestuurder geen tijd hebben om dergelijke oordelen te vellen in de fractie van een seconde voordat het gebeurt. Dit betekent dat de vergelijking ongeldig is. En gezien de huidige AI-technologie van zelfrijdende auto’s, zullen deze voertuigen deze oordelen ook niet kunnen vellen.

De huidige zelfrijdende auto’s hebben geavanceerde detectiecapaciteiten en kunnen voetgangers onderscheiden van andere objecten, zoals lantaarnpalen of verkeersborden. De auteurs van het onderzoek suggereren echter dat zelfrijdende auto’s geavanceerdere onderscheidingen kunnen, zullen en misschien moeten kunnen maken. Ze kunnen bijvoorbeeld mensen herkennen die als wenselijker worden beschouwd voor de samenleving, zoals artsen of atleten, en ervoor kiezen om ze te redden in een crashscenario.

De realiteit is dat het ontwerpen van auto’s om zo’n geavanceerd oordeel te vellen een algemene AI zou opleveren, wat momenteel onmogelijk is. Er is ook de vraag of dit zelfs wenselijk is. Als het ooit mogelijk is om een ​​auto te programmeren om te beslissen welk leven moet worden opgeslagen, is dat niet iets dat volgens mij moet worden toegestaan. De waarde van een leven moet niet worden bepaald door de voorkeuren die zijn geïdentificeerd in het onderzoek, ongeacht hoe groot de steekproefomvang is.

In hun meest basale vorm worden zelfrijdende auto’s ontworpen om ongevallen te voorkomen als ze dat kunnen, en de snelheid bij impact te minimaliseren als ze dat niet kunnen. Net als mensen zijn ze niet in staat om een ​​morele beslissing te nemen voor een onvermijdelijk ongeval. Maar zelfrijdende auto’s zullen veiliger zijn dan menselijke bestuurders, omdat ze meer oplettend zijn, sneller kunnen reageren en de mogelijkheden van het remsysteem maximaal zullen benutten in een ongeval scenario.

Momenteel is de grootste ethische uitdaging waar autodesigners mee geconfronteerd worden, bepalend wanneer er voldoende bewijs is van veilig gedrag door simulaties en gecontroleerde testen op de weg om zelfrijdende auto’s op de weg te introduceren. Maar dit betekent niet dat ze ‘moreel’ zijn, of dat ze snel zullen zijn. Om te zeggen dat het is om de specifieke AI van het doen van rijtaken te verwarren met algemene AI, die waarschijnlijk niet zal bestaan ​​in ons leven.

Uiteindelijk zullen zelfrijdende auto’s veiliger zijn dan mensen. Ze bereiken dit door middel van ontwerp en vermijden ongevallen waar mogelijk en verminderen schade waar dat niet het geval is. De auto’s zullen echter geen morele beslissingen kunnen nemen die zelfs wij niet zouden kunnen nemen. Dit idee blijft een vergezochte fantasie, en niet een die we zouden moeten verdedigen. Laten we ons in plaats daarvan concentreren op veiligheid: iets waar we vertrouwen in kunnen hebben.

John McDermid is hoogleraar software engineering aan de Universiteit van York.