Vil De "tre Love Om Robotik" Beskytte Os? - Alternativ Visning

Indholdsfortegnelse:

Vil De "tre Love Om Robotik" Beskytte Os? - Alternativ Visning
Vil De "tre Love Om Robotik" Beskytte Os? - Alternativ Visning

Video: Vil De "tre Love Om Robotik" Beskytte Os? - Alternativ Visning

Video: Vil De
Video: Ulefone Armor Mini 2 - PÅLIDELIG OPKALD / ANMELDELSE I DETALJER 2024, April
Anonim

Det er 50 år siden Isaac Asimov kom med sin berømte Three Laws of Robotics - et sæt regler, som enhver selv respekterende robot skal følge. Selv om det oprindeligt kun var et litterært udstyr, blev de tre love den originale opskrift på at undgå "robotokalypsen". Heldigvis er der eksperter, der leder efter visse, om Azimovs garantier har været tidens prøve. Desværre siger de alle nej.

Til at begynde med, lad os huske de samme tre love:

En robot kan ikke skade en person eller ved sin passivitet tillade en person at blive skadet.

En robot skal overholde alle ordrer, der er givet af et menneske, medmindre disse ordrer er i strid med den første lov.

Roboten skal passe på dens sikkerhed i det omfang, at den ikke er i modstrid med den første og anden lov.

Senere tilføjede Azimov en fjerde eller nul lov, der gik foran de andre med hensyn til prioritering:

Salgsfremmende video:

0. En robot kan ikke skade en person, medmindre den kan bevise, at den i sidste ende vil være til gavn for hele menneskeheden.

Image
Image

I fantasyuniverset Asimov var næsten alle robotter nødt til at følge disse love. Dette var ikke kun forslag eller retningslinjer - love blev indbygget i softwaren. Derudover kan disse regler ikke omgås, omskrives eller revideres.

Som Asimov selv viste, førte ufuldkommenheder, smuthuller og tvetydigheder i disse love ofte til mærkelig og ulogisk opførsel af robotter. Lovene var for vage og ofte kunne man ikke definere og skelne”mennesker” fra”robotter”. Derudover kunne robotter ubevidst bryde love, hvis fuld information ikke var tilgængelig for dem. En alt for listig robot eller kunstig intelligens måtte også være under pres for ikke at omprogrammere sin kerne.

Året er 2014, og meget af det almindelige fra vores liv til fantasierne fra det forrige århundrede kunne virke direkte fantasi. Mange mennesker mente, at Asimovs love skulle have forblevet som et litterært instrument. Men Azimov bemærkede selv i 1981, at hans love kunne fungere. Computeren! han angav følgende:

”Når nogen spørger mig, hvordan det ville være, hvis mine tre love inden for robotik rent faktisk blev brugt til at definere robotters opførsel, er svaret klar. Forudsat selvfølgelig, at robotter er fleksible og alsidige nok til at udvise forskellige opførsler. Mit svar er ja, de tre love er den eneste måde, hvorpå mennesker kan interagere med robotter - eller noget andet.

Næsten tredive år senere er vi kommet tættere på en virkelighed, hvor vi vil have robotter - eller mere præcist den kunstige intelligens, der styrer dem - fleksible nok og universelle til forskellige adfærdsforløb. Det forbliver kun et spørgsmål om tid: når maskinen overgår mennesket i alle henseender, fra fysisk styrke til fantasiens kraft.

Det skræmmende er, at der praktisk taget ikke er nogen margen for fejl. Hvis kunstig superintelligens er dårligt programmeret eller ligeglad med mennesker, vil det føre til katastrofe. Vi er nødt til at sikre, at kunstig intelligens er sikker, hvis vi vil overleve dens opkomst."

Besvar spørgsmålet "kan Azimovs tre love hjælpe?" To teoretikere af kunstig intelligens overtog: Ben Herzel (Aidyia Holdings) og Louis Helm, vicechef for Machine Intelligence Research Institute (MIRI) og udøvende redaktør for Rockstar Research magazine. Efter at have talt med dem, blev det klart, at Asimovs love generelt ikke kunne klare den opgave, der blev tildelt dem, og hvis vi har brug for at skabe en sikker AI, bliver vi nødt til at udvikle noget helt andet.

Asims fremtid?

Image
Image

Samtalen med Herzel og Helm begyndte med, hvad Asimov ikke blev forvekslet med, forudsigelse af fremtiden, og hvor han tog fejl.

”Jeg tror, at den type robotter, som Asimov forestillede sig, vil være mulig i ikke alt for fjern fremtid,” svarer Herzel. - I de fleste af hans fiktive verdener antog forfatteren imidlertid, at humanoide robotter ville være toppen af robotik og kunstig intelligens. Det er usandsynligt. Meget snart, efter at have nået status som Azimov-robotter, bliver oprettelsen af kunstig superintelligens og superrobotter tilgængelige."

Således vil den typiske fremtid i Asimovs historier om robotter ifølge Herzel ligner den, vi lever i dag, men med intelligente robotter, der går på gaden.

"Det er usandsynligt, at dette vil ske, og hvis det sker, vil det ikke blive forsinket længe."

For Helm ser roboterne ud til at være helt forskellige.

”Det vigtigste spørgsmål, som efter min mening vil være det vigtigste for menneskeheden, forbliver ikke den moralske regulering af et gigantisk antal halvintelligente humanoider, men i sidste ende udviklingen af avancerede former for kunstig intelligens (i ethvert organ). Denne udvikling af superintelligens er et filter, som menneskeheden skal gennemgå i sidste ende. Derfor er det så vigtigt at udvikle en sikkerhedsstrategi for denne overgang. Det forekommer mig helt underligt, at robotter, androider eller "emuleringer" vil eksistere i ti år eller mere, indtil menneskeheden står overfor det virkelige problem med at udvikle maskineetik til superintelligens."

En god start?

Image
Image

I betragtning af at de tre Asimov-love inden for robotik var det første oprigtige forsøg på at løse et meget alvorligt problem - problemet med maskinernes sikre opførsel med kunstig superintelligens - er det værd at kigge efter de øjeblikke, hvor lovene stadig kan være effektive (eller i det mindste inspirerende).

”For at være ærlig finder jeg ikke nogen inspiration i disse tre love inden for robotik,” siger Helm. - Essensen af maskineetik er, at de ikke opfylder grundlaget for maskineetik. Måske er de tre love inden for robotik vidt kendt, men i virkeligheden er det nytteløst at bruge dem som grundlag for programmering."

”Af en eller anden grund er et system af god etik - kaldet deontologi - blevet et upålideligt grundlag for etik. Der er en række filosoffer, der forsøger at løse deontologiproblemerne, men de er for det meste de samme mennesker, der søger "intelligent design" og "guddommelig indgriben." Ingen tager dem alvorligt."

Ulemperne ved Asimovs tre love om robotik koger ned på følgende:

Adversarial karakter

Baseret på en forældet etisk teori (deontologi)

Arbejd ikke engang i fiktion

Herzel er enig:

”Formålet med de tre love var at bryde dem på en interessant måde; Derfor er deres historier især underholdende. Derfor kan de tre love forblive bare et moralsk eksempel på, hvordan man ikke gør det. Hvis vi tager dem som basis, vil der uundgåeligt være smuthuller i dem”.

Herzel mener, at disse love i virkeligheden ikke vil fungere, da betingelserne med deres deltagelse er tvetydige og forbliver genstand for fortolkning - hvilket betyder, at de er yderst afhængige af dem, der foretager oversættelserne.

Fordomme mod robotter?

Et andet aspekt (og potentiel mangel) ved de tre love i tilsyneladende chauvinisme er antagelsen om, at robotter skal forblive på trods af deres overlegne magt underordnet mennesker, menneskelige behov og prioriteter.

”Azimovs fremtidssamfund består udelukkende af chauvinister: mennesker har meget flere rettigheder end robotter. De tre love inden for robotik blev oprettet for at opretholde netop en sådan social orden."

Image
Image

Helm ser lidt anderledes på dette problem og argumenterer for, at hvis vi befinder os i en sådan situation, vil det i sig selv være et bevis på, at vi er gået for langt.

”Jeg tror, det ville være uklokt at designe et kunstig intelligenssystem eller en selvbevidst robot. Og i modsætning til film eller bøger, hvor skaberne af kunstig intelligens "ved et uheld" kommer til intelligente maskiner, tror jeg ikke, at dette kan ske i det virkelige liv. Dette vil kræve for meget indsats og viden. Og de fleste AI-designere er etisk kyndige mennesker, så de vil undgå at skabe, hvad filosoffer kalder "moralsk betydningsfulde væsener." Især når de let kan oprette en avanceret maskine, der ikke har etiske tilbøjeligheder."

Helm er ikke bekymret over behovet for at udvikle asymmetriske love for at styre værdien af robotter over mennesker og argumenterer (og håber), at fremtidige kunstige intelligensskabere vil stole på nogle etiske begrænsninger.

”Jeg tror, at mennesker er lavet af atomer, så i teorien kan en ingeniør skabe en syntetisk livsform eller en robot med en moralsk betydning. Jeg vil gerne tro, at ingen vil gøre dette. Jeg tror, at de fleste gør det også. Men uundgåeligt vil der være en fjols, der ønsker at blive kendt som en pioner, selvom det er uetisk og dumt."

Tre love of Robotics 2.0?

I betragtning af de åbenlyse mangler ved Asimovs tre love om robotik, stillede ressource io9 spørgsmålet: kan de rettes eller forbedres? Faktisk har mange science fiction-forfattere prøvet dette mange gange og justeret det i årenes løb.

”Nej,” siger Helm. "Der er ingen rettelser til de tre love."

Udover deres modstridende karakter er love også modstridende.

”Jeg er tilhænger af maskineetiske tilgange, der er mere samarbejdsvillige, mere konsistente og mere normative, hvilket betyder, at de kan komme sig efter misforståelser eller rette forkert programmering.”

Herzel gentager Helms påstande.

At definere et sæt etiske forskrifter som kernen i maskineetik vil være håbløst, hvis maskinen er baseret på fleksibel generel kunstig intelligens. Hvis det opfattes som intuitivt, fleksibelt, tilpasningsdygtigt eller etisk - i denne sammenhæng vil etiske forskrifter kun være nyttige for systemet som en grov retningslinje for anvendelsen af sin egen etiske intuition. Men i dette tilfælde vil budene ikke blive grundlaget for det etiske system, men kun et aspekt. Dette kan ses i menneskelige eksempler - de etiske principper, vi studerer, fungerer, men ikke som retningslinjer, de skubber kun vores intuition og etiske instinkter. Vi er praktisk taget uafhængige af etiske principper."

Hvordan oprettes sikker kunstig intelligens?

I betragtning af utilstrækkeligheden af den juridiske tilgang, kan du spørge Gertzel og Helm om moderne tilgange til problemet med "sikker AI".

"Meget få generelle forskere på kunstig intelligens mener, at det er muligt at skabe et system, der er helt sikkert," siger Herzel. "Men dette generer ikke flertallet, da der overhovedet ikke kan garanteres noget i dette liv."

Herzel mener, at når vi først har oprettet et generelt kunstigt intelligenssystem eller dets embryo, kan vi udføre forskning og eksperimenter, der fortæller os meget mere om AI's etik, end vi ved.

”Forhåbentlig kan vi på denne måde formulere gode teorier om den kunstige intelligens etik, der giver os mulighed for at gå dybere ned i dette emne. Men nu er det temmelig svært at teoretisere om AI's etik, da vi ikke bare har gode teorier, vi har overhovedet ingen teorier."

”Og for mennesker, der har set for mange terminatorer, kan processen med at skabe kunstig intelligens virke skræmmende, da de savner ordet” primitiv”i denne sammenhæng. De mest radikale ændringer skete imidlertid på denne måde."

"Når en gruppe intelligente hulemænd opfandt sprog, forventede de ikke udviklingen af en solid formel teori om sprog, der kunne hjælpe med at forudsige fremtidige ændringer forårsaget af fremkomsten af sprog i samfundet."

Før du betragter udviklingen af de næste "tre love" som et teknisk problem, skal du undersøge meget. Og det er her Helm og Herzel er enige.

”Min kollega fra MIRI Luc Muelhauser opsummerede vores begrundelse som følger. Han sagde, at problemer ofte går fra filosofi til matematik og derefter til teknik. Filosofi stilles ofte de rigtige spørgsmål, men på den mest upraktiske måde. Ingen kan med sikkerhed sige, om der er sket fremskridt med at løse problemet. Hvis vi kan omformulere de vigtige filosofiske problemer med fornuft, identifikation og værdi i præcise formler, som en matematiker kan håndtere, kan en model bygges. En fin dag kommer det til teknik."

Helm finder dette problem svært for videnskab og filosofi, men fremskridt er muligt.

”Jeg er skeptisk over, at filosofi vil kunne løse et problem, der har kæmpet i mere end 3000 år. Men vi kan heller ikke tage og begynde at lave matematiske modeller af spørgsmål, der ikke er teknisk til stede. Vi har stadig brug for en masse teoretisk og endda praktisk udvikling."

Anbefalet: