Bygning Af En Moralsk Maskine: Hvem Er Ansvarlig For Etikken I Selvkørende Biler? - Alternativ Visning

Indholdsfortegnelse:

Bygning Af En Moralsk Maskine: Hvem Er Ansvarlig For Etikken I Selvkørende Biler? - Alternativ Visning
Bygning Af En Moralsk Maskine: Hvem Er Ansvarlig For Etikken I Selvkørende Biler? - Alternativ Visning

Video: Bygning Af En Moralsk Maskine: Hvem Er Ansvarlig For Etikken I Selvkørende Biler? - Alternativ Visning

Video: Bygning Af En Moralsk Maskine: Hvem Er Ansvarlig For Etikken I Selvkørende Biler? - Alternativ Visning
Video: Hvad er etik? 2024, Marts
Anonim

Du kører ad en motorvej, når en mand løber ud på en travl vej. Biler bevæger sig rundt omkring dig, og du har et par sekunder til at tage en beslutning: prøv at undgå en person og skabe risikoen for en ulykke? Fortsæt med at køre i håb om, at han får tid? At bremse? Hvordan vurderer du oddsen for, at et barn sidder fast i bagsædet? På mange måder er dette et klassisk "moralsk dilemma", et vognproblem. Hun har en million forskellige muligheder, der giver dig mulighed for at identificere menneskelige fordomme, men essensen er den samme.

Du er i en situation, hvor liv og død står på spil, der ikke er noget enkelt valg, og din beslutning vil faktisk bestemme, hvem der lever, og hvem der dør.

Vognens dilemma og kunstig intelligens

MITs nye artikel, der blev offentliggjort i sidste uge i tidsskriftet Nature, forsøger at komme med en fungerende løsning på vognproblemet ved at engagere millioner af frivillige. Eksperimentet begyndte i 2014 og var en succes og modtog over 40 millioner svar fra 233 lande, hvilket gjorde det til en af de største moralske undersøgelser, der nogensinde er blevet gennemført.

En person kan tage sådanne beslutninger ubevidst. Det er vanskeligt at veje alle de etiske systemer og moralske forudsætninger, når din bil kører ad vejen. Men i vores verden træffes beslutninger i stigende grad ved hjælp af algoritmer, og computere kan let svare hurtigere, end vi gør.

Hypotetiske situationer med selvkørende biler er ikke de eneste moralske beslutninger, som algoritmer skal tage. Medicinske algoritmer vælger, hvem der får behandling med begrænsede ressourcer. Automatiske droner vælger, hvor meget "sikkerhedsskade" der er acceptabel i et individuelt militært engagement.

Salgsfremmende video:

Ikke alle moralske principper er ens

”Løsningerne” til vognproblemet er lige så forskellige som selve problemerne. Hvordan kan maskiner træffe moralske beslutninger, når grundlaget for moral og etik ikke er universelt accepteret og muligvis ikke har løsninger? Hvem kan afgøre, om en algoritme gør rigtigt eller forkert?

Den crowddsourcing-tilgang, der er vedtaget af Moral Machine-forskere, er ganske pragmatisk. I sidste ende, for offentligheden at acceptere selvkørende biler, må den acceptere det moralske fundament bag deres beslutninger. Det vil ikke være godt, hvis etikere eller advokater finder frem til en løsning, der enten er uacceptabel eller uacceptabel for almindelige chauffører.

Resultaterne fører til den mærkelige konklusion, at moralske prioriteringer (og dermed de algoritmiske beslutninger, som mennesker kan tage), afhænger af hvor i verden du er.

For det første anerkender videnskabsmænd, at det er umuligt at kende hyppigheden eller arten af disse situationer i det virkelige liv. Mennesker, der ofte har været involveret i en ulykke, kan ikke sige, hvad der nøjagtigt er sket, og række mulige situationer udelukker en simpel klassificering. Derfor skal problemet opdeles i forenklede scenarier på udkig efter universelle moralske regler og principper, for at problemet bliver muligt at spore op.

Når du foretager en undersøgelse, får du forelagt 13 spørgsmål, der kræver et enkelt ja eller intet valg, idet du prøver at indsnævre svarene til ni faktorer.

Skal bilen dreje til en anden bane eller fortsætte med at bevæge sig? Skal du redde unge mennesker, ikke gamle? Kvinder eller mænd? Dyr eller mennesker? Skal du forsøge at redde så mange liv som muligt, eller er et barn to”ældre” værd? Gemme passagerer i en bil, ikke fodgængere? De, der ikke følger reglerne, eller dem, der ikke følger reglerne? Skal du redde folk, der er fysisk stærkere? Hvad med mennesker med højere social status, såsom læger eller forretningsfolk?

I denne barske hypotetiske verden er nogen nødt til at dø, og du vil besvare hvert af disse spørgsmål - med forskellige grader af entusiasme. At tage disse beslutninger afslører imidlertid også dybt indgroede kulturelle normer og forudindtægter.

Behandlingen af det enorme datasæt, som forskere har undersøgt, giver universelle regler såvel som nysgerrige undtagelser. De tre mest dominerende faktorer, gennemsnitligt i hele befolkningen, var, at alle foretrækkede at redde flere liv end færre, mennesker snarere end dyr og unge snarere end gamle.

Regionale forskelle

Du kan være enig i disse punkter, men jo dybere du tænker på dem, desto mere bekymrende vil de moralske konklusioner være. Flere respondenter valgte at redde den kriminelle over katten, men generelt foretrak de at redde hunden over den kriminelle. På verdensgennemsnittet vurderes det at være gammel højere end at være hjemløse, men hjemløse blev mindre reddet end fede mennesker.

Og disse regler var ikke universelle: respondenter fra Frankrig, Det Forenede Kongerige og USA foretrækkede de unge, mens respondenterne fra Kina og Taiwan var mere villige til at redde de ældre. Respondenter fra Japan foretrækkede at redde fodgængere frem for passagerer, mens de i Kina foretrækker passagerer frem for fodgængere.

Forskerne fandt, at de kunne gruppere svarene efter land i tre kategorier:”Vesten”, hovedsageligt Nordamerika og Europa, hvor moral i vid udstrækning er baseret på kristen lære; "Øst" - Japan, Taiwan, Mellemøsten, hvor konfucianisme og islam dominerer; "Sydlige" lande, herunder Central- og Sydamerika, sammen med stærk fransk kulturel indflydelse. Der er en stærkere præference for kvindelig ofring i det sydlige segment end andre steder. I det østlige segment er der en større tendens til at redde unge mennesker.

Filtrering efter forskellige respondentattributter giver utallige interessante muligheder. "Meget religiøse" respondenter foretrækker sandsynligvis ikke at redde et dyr, men både religiøse og ikke-religiøse respondenter udtrykker omtrent lige præference for at redde mennesker med høj social status (selvom det kan siges at være i modstrid med nogle religiøse doktriner). Mænd og kvinder foretrækker at redde kvinder, men mænd er mindre tilbøjelige til at gøre det.

Ubesvarede spørgsmål

Ingen hævder, at denne forskning på en eller anden måde "løser" alle disse vægtige moralske problemer. Undersøgelsesforfatterne bemærker, at crowddsourcing online-data involverer bias. Men selv med en stor prøvestørrelse var antallet af spørgsmål begrænset. Hvad hvis risikoen ændrer sig afhængigt af den beslutning, du tager? Hvad hvis algoritmen kan beregne, at du kun havde en 50 procent chance for at dræbe fodgængere i betragtning af den hastighed, som du bevægede dig?

Edmond Awad, en af undersøgelsens forfattere, udtrykte forsigtighed med hensyn til overtolkning af resultaterne. Diskussionen skulle efter hans mening flyde ind i risikoanalyse - hvem der er mere eller mindre i fare - i stedet for at beslutte, hvem der dør, og hvem der ikke gør det.

Men det vigtigste resultat af undersøgelsen var diskussionen, der blussede op på dens jord. Når algoritmer begynder at tage flere og mere vigtige beslutninger, der påvirker folks liv, er det bydende nødvendigt, at vi løbende drøfter AI's etik. At designe en "kunstig samvittighed" skal omfatte alles mening. Mens svarene måske ikke altid er lette at finde, er det bedst at forsøge at danne en moralsk ramme for algoritmer ved ikke at lade algoritmer forme verden på egen hånd uden menneskelig kontrol.