Moral Maskine: Ingeniører Udstyret Med Kunstig Intelligens Med Moral Og Etik - Alternativ Visning

Indholdsfortegnelse:

Moral Maskine: Ingeniører Udstyret Med Kunstig Intelligens Med Moral Og Etik - Alternativ Visning
Moral Maskine: Ingeniører Udstyret Med Kunstig Intelligens Med Moral Og Etik - Alternativ Visning

Video: Moral Maskine: Ingeniører Udstyret Med Kunstig Intelligens Med Moral Og Etik - Alternativ Visning

Video: Moral Maskine: Ingeniører Udstyret Med Kunstig Intelligens Med Moral Og Etik - Alternativ Visning
Video: The Choice is Ours (2016) Official Full Version 2024, Kan
Anonim

Jo stærkere AI kommer ind i vores daglige liv, jo oftere står det over for komplekse moralske og etiske dilemmaer, som nogle gange ikke er så lette for en levende person at løse. Forskere ved MIT forsøgte at løse dette problem og udstyrede maskinen med evnen til at tænke i moral, baseret på de fleste levende menneskers mening.

Nogle eksperter mener, at den bedste måde at træne kunstig intelligens til at håndtere moralsk vanskelige situationer er ved hjælp af "crowd experience". Andre hævder, at denne tilgang ikke vil være uden bias, og forskellige algoritmer kan komme til forskellige konklusioner baseret på det samme datasæt. Hvordan kan maskiner være i en sådan situation, som naturligvis bliver nødt til at tage vanskelige moralske og etiske beslutninger, når de arbejder med rigtige mennesker?

Intellekt og moral

I takt med at kunstig intelligens (AI) -systemer udvikler sig, forsøger eksperter i stigende grad at løse problemet med, hvordan man bedst giver systemet et etisk og moralsk grundlag for visse handlinger. Den mest populære idé er, at AI drager konklusioner ved at studere menneskelige beslutninger. For at teste denne antagelse oprettede forskere ved Massachusetts Institute of Technology Moral Machine. Webstedsbesøgende blev bedt om at træffe valg om, hvordan et autonomt køretøj skal handle, når de står over for et ret hårdt valg. For eksempel er dette et velkendt dilemma om en potentiel ulykke, der kun har to muligheder for udvikling af begivenheder: en bil kan ramme tre voksne for at redde to børns liv, eller den kan gøre det modsatte. Hvilken mulighed skal du vælge? Og er det f.eks. Muligtat ofre en ældres liv for at redde en gravid kvinde?

Som et resultat samlede algoritmen en enorm database med testresultater, og Ariel Procaccia fra datalogisk afdeling ved Carnegie Mellon University besluttede at bruge dem til at forbedre maskinens intelligens. I en ny undersøgelse indlæste han og en af skaberne af projektet, Iyad Rahwan, den komplette base af Moral Machine-projektet i AI og bad systemet om at forudsige, hvordan bilen på autopilot ville reagere på lignende, men stadig lidt forskellige scenarier. Procaccia ønskede at demonstrere, hvordan et afstemningsbaseret system kan være en løsning for”etisk” kunstig intelligens.”Forfatteren af værket indrømmer selv, at et sådant system naturligvis stadig er for tidligt at blive anvendt i praksis, men det beviser fremragende selve konceptet, at det er muligt.

Kryds moral

Salgsfremmende video:

Selve ideen om at vælge mellem to moralsk negative resultater er ikke ny. Etik bruger et separat udtryk for det: princippet om dobbelt effekt. Men dette er området for bioetik, men ingen har tidligere anvendt et sådant system på en bil, og derfor vakte undersøgelsen særlig interesse blandt eksperter over hele verden. OpenAIs medformand Elon Musk mener, at skabelse af "etisk" AI er et spørgsmål om at udvikle klare retningslinjer eller politikker, der styrer programudviklingen. Politikere lytter gradvist til ham: Tyskland skabte for eksempel verdens første etiske principper for autonome biler. Selv Googles alfabet AI DeepMind har nu en etik og offentlig moralafdeling.

Andre eksperter, herunder et team af forskere fra Duke University, mener, at den bedste måde at komme videre på er at skabe en "generel ramme", der beskriver, hvordan AI vil tage etiske beslutninger i en given situation. De mener, at foreningen af kollektive moralske synspunkter, som i den samme Moralske maskine, vil gøre kunstig intelligens endnu mere moralsk i fremtiden end det moderne menneskelige samfund.

Kritik af den "moralske maskine"

Uanset hvad det er, er princippet om "flertalsopfattelse" på nuværende tidspunkt langt fra pålideligt. For eksempel kan en gruppe respondenter have forspændinger, der ikke er fælles for alle andre. Resultatet er, at AI'er, der får nøjagtigt det samme datasæt, kan komme til forskellige konklusioner baseret på forskellige prøver af denne information.

For professor James Grimmelmann, der har specialiseret sig i dynamikken mellem software, rigdom og magt, ser selve ideen om offentlig moral mangelfuld ud. "Det er ikke i stand til at undervise i AI-etik, men kun give det et udtryk af etiske standarder, der er forbundet med en bestemt del af befolkningen," siger han. Og Procaccia selv indrømmer som nævnt ovenfor, at deres forskning ikke er andet end et vellykket bevis på konceptet. Han er imidlertid overbevist om, at en sådan tilgang kan bringe succes for hele kampagnen for at skabe en meget moralsk AI i fremtiden. "Demokrati har uden tvivl en række mangler, men som et samlet system fungerer det - selvom nogle stadig tager beslutninger, som flertallet ikke er enig i."

Vasily Makarov