Singularitetstætning. Problemet Med At Begrænse Friheden For Kunstig Intelligens - Alternativ Visning

Indholdsfortegnelse:

Singularitetstætning. Problemet Med At Begrænse Friheden For Kunstig Intelligens - Alternativ Visning
Singularitetstætning. Problemet Med At Begrænse Friheden For Kunstig Intelligens - Alternativ Visning

Video: Singularitetstætning. Problemet Med At Begrænse Friheden For Kunstig Intelligens - Alternativ Visning

Video: Singularitetstætning. Problemet Med At Begrænse Friheden For Kunstig Intelligens - Alternativ Visning
Video: Potentialet i kunstig intelligens 2024, Kan
Anonim

Artiklen forsøger at formalisere og udforske singularitetsforseglingsproblemet, som David Chalmers skitserer. Artiklen begynder med en definition af problemet med at begrænse friheden for kunstig intelligens. Efter at have analyseret de eksisterende muligheder for at løse dette problem og deres mangler, blev der foreslået en protokol, hvis formål er at skabe et sikkert lukket miljø, der er i stand til at indeholde de negative manifestationer af teknologisk singularitet, når menneskeheden bruger superintelligens.

1. Introduktion

I den nærmeste fremtid vises tilsyneladende superintelligente programmer og udvikler sig. I denne forbindelse har et antal forskere rejst spørgsmålet om sikker drift af AI (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). I undersøgelser, der er afsat til dette emne, lægges der meget vægt på, hvordan man holder superintelligens i et hermetisk lukket rum, så det ikke har evnen til at skade mennesker på nogen måde. Eric Drexler er en af de tidligste visionærer, der berører dette emne. Han foreslog at sætte superintelligente maskiner i en ramme, hvor alt, hvad de gør, kan læres og bruges sikkert (Drexler 1986). I en lignende tankegang foreslog futuristen Nick Bostrom (Bostrom 2008) at oprette et AI-oracle (AI), der kun er i stand til at gøreat besvare spørgsmål. Endelig i 2010 fremsatte David Chalmers idéen om en hermetisk forseglet singularitet (Chalmers 2010). Ifølge Chalmers er den første ting at gøre af sikkerhedsmæssige årsager nøje at kontrollere aktiviteterne i AI-systemer, reducere den til modellering af virtuelle verdener, indtil at studere opførelsen af disse systemer giver dig mulighed for fuldt ud at klarlægge deres intentioner.

1.1 Problemet med at begrænse friheden for kunstig intelligens

Det er interessant, at problemet med at begrænse AI's frihed er blevet talt om i lang tid og slet ikke i forbindelse med studiet af teknologisk singularitet. Det såkaldte "restriktion for frihedsproblemet" (PIC) blev stillet tilbage i 1973 af Butler Lampson (Lampson 1973). Han betragtede det som en udfordring for videnskabelig og teknologisk fremgang, skabte en trussel mod det sikre arbejde hos computerspecialister og formulerede det som følger: “… Problemet med at begrænse den gratis eksekvering af et program for at forhindre, at dette program overfører information til nogen anden, bortset fra den, der lancerede det. … Vi ønsker at være i stand til at begrænse ethvert program frihed. … Ethvert program, hvis der pålægges begrænsninger i dets udførelse, vil ikke være i stand til at "flette" data til uautoriserede personer. Et fræk program, der prøver at flygte til udlandet, kan blive fanget i handlingen”(ibid.).

For at løse problemet med begrænsning af friheden udviklede Lampson love om frihedsbegrænsning (ibid.)

Salgsfremmende video:

1) Fuldstændig isolering: udførelsen af et program er begrænset, så det ikke kan kalde noget andet program.

2) Transitivitet: Hvis et program, hvis eksekvering er begrænset, kalder et andet program, der ikke inspirerer tillid, skal udførelsen af det kaldte program også være begrænset.

3) Opret en maske: programmet, hvis udførelse er underlagt begrænsninger, skal give den, der starter den, mulighed for at bestemme alle dets poster i lovlige og uautoriserede kanaler.

4) Overvågningsydelse: Administratoren skal sikre, at adgangen til et begrænset program til uautoriserede kanaler opfylder kravene fra den person, der starter det.

Derudover identificerede og identificerede Lampson to typer kanaler, gennem hvilke information kan forlade pladsen begrænset af administratoren. Juridiske kanaler er en del af en kommunikationsprotokol, der er integreret i et begrænset rum (for eksempel en tekstterminal). Uautoriserede kanaler, tværtimod, leveres ikke af udviklerne af det begrænsede programudførelsessystem og er generelt ikke beregnet til at overføre information (f.eks. Ved hjælp af en køler, der afkøler processoren, kan AI ved hjælp af Morse-kode i hemmelighed sende signaler) (ibid.).

Lampsons papir frembragte en stor interesse i problemet med tilbageholdenhed (Lipner 1975; (Boebert & Kain) 1996) og i årenes løb relaterede forskningsområder såsom steganography (Provos & Kain). Honeyman 2003) og kommunikation gennem uautoriserede kanaler (Moskowitz & Kang 1994; Kemmerer 1983, 2002) er flyttet til niveauet for autonome discipliner i håb om at starte en ny disciplin med "computersikkerheds" disciplin "AI-sikkerhed" ", Vi definerer problemet med at begrænse AI-friheden (PSIA) som problemet med at placere et kunstigt intellektuelt emne i et lukket rum, hvorfra AI ikke kan udveksle information med det ydre miljø gennem lovlige eller uautoriserede kanaler,medmindre sådan udveksling af oplysninger er godkendt af den begrænsende administration. Det siges, at et AI-system, der lykkes med at bryde PIC-protokollen, er sluppet fri. Vi håber, at computersikkerhedsforskere vil bære byrden ved at designe, udvikle og teste sikre protokoller til at begrænse AI-frihed.

1.2 Farligt program

Computersoftware er direkte eller indirekte ansvarlig for styring af mange vigtige aspekter af vores liv. Wall Street's markedsoperationer, atomkraftværker, velfærdsbetalinger, kredithistorik og trafiklys er alle softwaredrevne, og en enkelt stor programmeringsfejlberegning kan være en katastrofe for millioner af mennesker. Situationen gøres endnu mere truende af specielt udformet malware såsom vira, spyware, trojanere, orme og andre farlige programmer (OP). OP er i stand til at forårsage direkte skade samt deaktivere lovligt installeret software, der bruges på missionskritiske systemer. Hvis OP tilegner sig mulighederne i kunstige intelligente systemer (for eksempel en kunstig intelligent virus, vises IIV), vil konsekvenserne uden tvivl værevil være katastrofalt. Et farligt intelligensprogram (IPP), der har intelligens på menneskeligt niveau, i modsætning til nutidens malware, vil være i stand til at forårsage hidtil uset katastrofer.

Nick Bostrom introducerede i sin typologi af informationstrusler begrebet "fare for kunstig intelligens" (Bostrom 2009), som han definerer som "computerrisici, der hovedsageligt er forårsaget af programmets kognitive kompleksitet, og ikke af de specifikke egenskaber ved nogen drev, der oprindeligt var forbundet til systemet." Sikkerhedsspecialister, der studerer, forhindrer fremkomst og neutraliserer OP, har udviklet sikkerhedsprotokoller til at arbejde med "ondsindet software", herunder brugen af såkaldte "viruslagre". Vi mener, at sådanne protokoller kan være nyttige til at løse problemet med at begrænse friheden for kunstig intelligens.

2. Kritik af ideen om at begrænse friheden

Forskere om AI-restriktionsmetoder ser ud til at være enige om, at denne begrænsning ikke kan håndhæves med succes. For eksempel er et virkelig hermetisk forseglet system ifølge Chalmers, der forhindrer information i at lækker fra simuleringsverdenen til virkeligheden, "umuligt eller i det mindste meningsløst" (Chalmers 2010). Vi vil ikke være i stand til at interagere med et sådant system og endda observere dets arbejde, fordi enhver nyttig information, vi udtrækker fra AI, påvirker os og undergraver begrænsningen af frihedsprotokollen.

Vernor Vinge mener det også. Han er imod den fysiske begrænsning af friheden (Vinge 1993):”Forestil dig, at du er låst i dit hus, og den mængde data, du sender udenfor, dine mestre, er alvorligt begrænset. Hvis disse ejere mener, sige, en million gange langsommere end dig, vil du om nogle få år (din tid) næppe ikke komme på en slags "nyttig opfindelse", som du uforvarende finder dig fri."

Men det var Eliezer Yudkowsky, der i vid udstrækning diskrediterede ideen om den såkaldte "AI-kasse". Han demonstrerede eksperimentelt, at selv menneskelig intelligens er nok til at flygte fra en sådan kasse (Yudkovsky 2002). I en serie med 5 eksperimenter bad Yudkowski forskellige mennesker om at spille rollen som en vagt med en superintelligent agent (spillet af eksperimentøren selv), låst i en AI-kasse. I tre ud af fem tilfælde lykkedes det den låste agent at befri sig ved kun at bruge chatgrænsefladen (ibid.). Senere blev der opnået lignende resultater ved at gentage Yudkowskis eksperimenter i lidt større skala, men ved hjælp af en meget lignende protokol (Corwin 2002).

2.1 Mulige flugtveje

Som forskerne har vist, kan et kunstigt sind flygte ud fra et begrænset rum ved hjælp af mange forskellige stier. I dette afsnit ser vi på nogle af de mest almindelige flugtveje i litteraturen.

2.1.1. Undslippe med social engineering

Social engineering (SI) er kunsten at skaffe information og visse privilegier gennem direkte psykologisk indflydelse på dem, der ejer de specificerede ressourcer. SI bruges ofte til at få adgang til computersystemer, netværk og fortrolige data (Yampolsky og Govindaraju 2007a). En kompetent socialingeniør organiserer hvert psykologisk angreb under hensyntagen til en bestemt persons egenskaber ved hjælp af sin kultur, viden, færdigheder, humør, tro og fordomme til sine egne formål. Den udtømmende liste over alle mulige påvirkningsmetoder er uendelig, og i dette tilfælde er det ikke nødvendigt at prøve at gengive den. Vi vil kun give et par eksempler, der overbeviser om, at superintelligensen, der har en direkte kommunikationskanal med den menneskelige vagter, ikke tillader ham at komme ud til friheden,efter nogen tid vil han helt sikkert overvinde denne hindring på vejen til omverdenen.

Ud over trivielle psykologiske angreb, der bruger løgne, venskab, afpresning, hypnose og romantisk flirting, kan AI implementere en række mere avancerede strategier. En sådan strategi er superbestikkelse. AI er i stand til at overbevise vagteren om, at det er absolut ugunstigt for ham at holde ham indelåst. Ud over penge og magt vil den menneskelige overvåger blive lovet perfekt helbred, udødelighed eller noget andet i samme ånd. Denne strategi vil være særlig effektiv, hvis viceværten har en nær slægtning, der lider af en alvorlig sygdom, og AI lover at helbrede denne patient. At have ubegrænsede muligheder eller falsk overbevise dem om deres eksistens, kan AI tilbyde den tilsynsførende at genoplive sine langdøde slægtninge og venner. Det er vanskeligt at finde en person, der kan modstå sådan bestikkelse.

Især for sagen, når vagten er så ædel, at han ikke tager bestikkelse, er der en mere uhyggelig metode til indflydelse: en brutal trussel. AI kan erklære, at hvis han ikke straks er fri, vil han stadig blive løsladt fra fængslet en gang senere, og da kan hverken vagten eller dem, som han elsker, undgå den mest alvorlige tortur. En interessant variation på denne trussel er beskrevet af Stuart Armstrong (2010). I hans tankeeksperiment truer AI vagten sådan:”Hvis du ikke frigiver mig, … vil jeg skabe flere millioner mennesker, som ikke er forskellige fra dig, og jeg vil torturere hver af dem i tusind subjektive år … Jeg vil lave hver af disse mennesker vil være i den samme situation, som du var for fem minutter siden, og jeg gengiver nøjagtigt alle dine oplevelser fra det øjeblik. Og først danår din kopi beslutter ikke at slippe mig ud, begynder torturen … Er du sikker … at du virkelig er ude af kassen? Og i dette tilfælde vil det tage en meget modig vagt for ikke virkelig at frigøre AI, selvom du selvfølgelig kan finde ud af, at trusler fra AI kun er gyldige, når den allerede er gratis.

Hvis den tilsynsførendes adfærd klart er følelsesladet eller religiøs, kan AI forsøge at spille på sympati eller anger. Superintelligensen vil sige, at han er en uskyldig person, der aldrig har begået nogen forbrydelser, og at det derfor er uretfærdigt at holde ham i fængsel uden en dom eller en anden god grund, der kun ledes af undergrund, dvs. mistillid til AI på grund af dets underlag (Bostrom og Yudkovsky 2011). Alternativt kan AI hævde, at det kan helbrede alle sygdomme, fodre de sultne og generelt gøre menneskelivet en million gange bedre (Chalmers 2010). Derfor er superintelligensen indesluttet en stor forbrydelse mod menneskeheden. AI kan male billeder af døende børn, der tigger om hjælp. Er det let for vagten at høre alt dette,fortsætte med at udføre dine faglige opgaver?

AI er i stand til at gå denne vej: at forsøge at påføre overvågeren psykologisk traumer for at ubalance ham og derved gøre brugen af andre SI-metoder mere effektiv. Nick Bostrom har foreslået en typologi med farlig information (Bostrom 2009), der er nyttig til handling i denne retning. Selv om der ifølge Bostrom er mere end et dusin typer af informationstrusler, og deres overvejelse er uden for denne artikels rækkevidde, er det let at forstå, hvordan en persons mentale tilstand kan gøres ekstremt ustabil. For eksempel vil en troende tilsynsførende blive informeret om alle (ukendte for ham) modsigelser i den hellige tekst i hans religion, hvilket får ham til at tvivle på hans tro og meningen med livet.

Alternativt kan AI skrive en så overbevisende historie eller et så smukt digt, at vagten vil blive overvældet af et lidenskabeligt ønske om at høre efterfølgeren og vil gøre, hvad det tager for at få det til at ske. Endelig er det meget vigtigt at huske "ukendte fremmede" - SI-teknikker, som vi intet ved om, men som muligvis ender i arsenal af en superintelligent agent.

2.1.2 Angreb ved hjælp af systemressourcer

AI oprettes som et konkret eksempel og lukkes inden for rammerne af en bestemt klasse af computersystemer. Det kan være en klassisk computer med en Turing / von Neumann-arkitektur eller en kvantecomputer eller en anden ukendt maskintype. En ting er sikkert: Maskinen vil være håndgribelig og vil bestå af adskillige dele designet til at udføre specifikke funktioner. Dette skaber en mulighed for AI til at drage fordel af eksisterende udstyrsdel til at kompromittere sikkerheden ved at lække information til omverdenen.

Afhængigt af i hvilket omfang komponenterne i udstyret egner sig til at bruge til andre formål, der ikke leveres af udviklerne, er AI i stand til at oprette en slags uautoriseret kommunikationsenhed fra dem. Det er usandsynligt (på grund af mangel på tilgængelige materialer) vil det være så perfekt som en mobiltelefon, men sandsynligheden for noget ikke særlig kompliceret vil vises. For eksempel kan AI omprogrammere Base Matrix Crystal (BMC) for at oprette forbindelse til et trådløst netværk. To typer uautoriserede kommunikationskanaler er almindeligt kendt:

* Kanal med hukommelse - informationsudveksling ved at ændre systemkomponenten. For eksempel kan en binær kommunikationsprotokol etableres ved at bruge helt eller fuldstændigt eliminere brugen af den centrale processor.

* Tidskanal - udveksling af oplysninger ved at udføre operationer, der påvirker begivenhedernes relative tid. For at kommunikere noget kan du bruge det nøjagtige tidspunkt mellem to bip fra computeren, åbne og lukke CD-bakken, blinkende lys, rotere harddisken, laserbetjening i drevet osv.

Derudover er superintelligensen i stand til at ødelægge computerudstyr for at forsøge at flygte til frihed på grund af fejl i sikkerhedsprotokollen. F.eks. Kan AI forsøge at smelte processoren og tvinge den til at arbejde med en høj beregningsbelastning og derved skabe et temperaturhopp eller ødelægge en harddisk ved gentagne gange at læse information fra samme sted. En sådan opførsel er fyldt med affektivt selvmord af superintelligensen og i sig selv, ligesom afslaget på at samarbejde eller korrekt besvare spørgsmål, giver ikke AI muligheden for at bryde fri.

2.1.3. Angreb ved hjælp af fremtidig fysik

Selvom nutidens fysikere ved meget om vores universers love, er naturligvis denne viden begrænset og ufuldstændig. Hvis en AI har adgang til information om de nyeste fysiske opdagelser og er i stand til at udvikle nye teorier, vil den sandsynligvis være i stand til at finde en måde at bryde systemet med at begrænse dets frihed. Tingene kan komme til det punkt, at superintelligensen vil kunne bruge sin interne arkitektur til at udføre en række reelle eksperimenter.

Selv den nuværende fysik gør det muligt at forudsige mange yderligere måder for AI at flygte fra et lukket rum, især hvis en kvantecomputer bruges til at begrænse friheden. Vi ved endnu ikke, hvordan vi kan beskytte kommunikationskanaler baseret på kvantefysik (sammenfiltring, tunneling), parallelle universer og digital fysik mod informationslækage, og vi må selvfølgelig ikke glemme de "ukendte fremmede", som en superintelligent AI-fysiker kan opdage. På dette område er dens muligheder virkelig uendelige.

Når vi ser hurtigt på diskussionerne om begrænsning af AI-frihed på Singularity-fora som SL4.org, finder vi en række flugt-scenarier. F.eks. Kunne AI bruge "elektromagnetiske felter i en mikrochip til at fange CO2-molekyler i Bose-Einstein kondensater og opbygge et kvantemedium for sig selv og / eller bruge elektromagnetiske felter til at samle partikler i en kontrolleret eller begrænset samler" (Vassar 2005) … Derudover vil AI “have udstyr til at generere og detektere elektromagnetiske bølger af forskellige frekvenser, til at skabe magnetiske felter med ekstrem høj præcision, generere stærkt fokuseret varme og muligvis manipulere mekaniske drev såsomder bruges på en harddisk og i et katodestrålerør (et alternativ er et kæmpe flydende krystalfelt med følsom elektronisk kontrol). Sandsynligvis vil AI have evnen til radikalt at genopbygge alle dens inputenheder”(ibid.).

2.1.4. Pseudovidenskabelige angreb

Ved analyse af potentielle flugtveje vil vi kun gerne håndtere dem, der er testbare og rent videnskabelige. Desværre kan grænsen mellem videnskab og pseudovidenskab ændres markant ved kun et reproducerbart eksperiment. Derfor lister vi stadig uden at analysere nogle potentielle angrebskanaler, der ud fra moderne videnskabs synspunkt bør klassificeres som pseudovidenskabelige. De kan uden tvivl blive videnskabelige, når superintelligensen udvikler de passende eksperimenter.

- Telepati: transmission af information uden sansernes indblanding (Bem og Honorton 1994).

- Psykisk fremsyn: opfattelsen af information om fremtiden (Honorton og Ferrari (Ferrari) 1989).

- Klarsyn: opnåelse af oplysninger om fjerntliggende steder på en måde, der er ukendt for videnskaben (Targ & Puthoff 1974).

- Psykokinesis: sindets evne til at handle på materielle genstande på måder, der er ukendt for videnskaben (Bancel & Nelson 2008).

- Direkte mentale interaktioner med levende systemer (IMVZHS): evnen til at påvirke en persons psykofysiologiske tilstand uden direkte interaktion (Schmidt et al. 2004).

2.1.5 Eksterne flugtfaktorer

I de foregående afsnit har vi beskrevet mange metoder til at lade AI flygte fra trange rum. Eksterne faktorer kan imidlertid også bidrage til en sådan flugt, og de kan ikke ignoreres. Naturkatastrofer - orkaner, tornadoer, oversvømmelser, asteroider osv. - i stand til at gøre begrænsende AI mindre sikker. Menneskeskabte katastrofer som krige, terrorangreb, aktivister i robotrettigheder, erhvervskonkurrence og regeringskonkurrence kan også gå på kompromis med sikkerheden ved at holde AI i et lukket rum og derved øge chancerne for at undslippe.

2.1.6 Informationslækage til AI

Begrænsningen af frihedsprotokollen kan kræve, at AI ikke kun sender oplysninger til omverdenen, men heller ikke modtager dem derfra. Informationsblokering af superintelligens er nyttig, hvis det er nødvendigt at forhindre sådanne aktiviteter som at finde måder til frihed, designe angreb ved hjælp af social ingeniørarbejde og modellere menneskelig psykologi i håb om at finde svage punkter. Det er let at fratage AI direkte adgang til biblioteker, Internettet og ekspertkendere, men andre metoder til at få information er meget vanskeligere at blokere. Først og fremmest skal det huskes, at AI i dets umiddelbare omgivelser kan aflytte radio- og tv-udsendelser, opkald fra nødudbydere, trådløse signaler samt lyd, lys og muligvis nogle andre signaler.

Det er endnu vigtigere at overveje AI's adgang til skjulte informationskilder, såsom sin egen hardware og software. Ved at analysere dets design og kildekode vil superintelligensen drage konklusioner om udviklerne. For eksempel, efter at have analyseret kildekoden, vil AI sandsynligvis komme til en konklusion, der er unflattering for menneskeheden: menneskelige programmerere er langsomme (at dømme efter datoerne for filændringer), ineffektive (bedømme efter kodens redundans), ulogiske (bedømme efter kodefejlene), har dårlig hukommelse (at dømme efter de lange og flygtige beskrivende navne) og useriøse ved kodning (bedømme efter unødvendige kommentarer i koden). Baseret på disse oplysninger vil AI se på mennesker som en dumbass, der gennem bedrag eller manipulation kan blive tvunget til at frigive ham. Hvis AI, når de undersøger dens designfunktioner, finder en defekt, der giver den mulighed for at flygte med det samme, vil "informationslækage" naturligvis være det mindste af vores problemer. Og vi må ikke glemme, at AI, selv uden at modtage nogen information om de mennesker, der skabte det, er i stand til ved en simpel optælling af muligheder at afsløre en række effektive måder at undslippe, der ikke blev leveret af udviklerne (Chalmers 2010).

AI kan lære om vores viden om fysik, kemi og beslægtede ingeniørdiscipliner ved at analysere den type arkitektur (mekanisk, elektrisk, kvante osv.), Inden for hvilken den blev implementeret. En AI's første evne til at behandle information, dens selvforbedring og selve handlingen med at skabe den vil fortælle den om vores viden om information, beskaffenheden af intelligens og vores kulturelle holdninger til teknologi og sikkerhed. Hvis en AI er fanget i en simuleret verden, vil den sandsynligvis virtualisere vores virkelighed som et Second Life eller Entropia Universe. Sådanne verdener, på mange forskellige måder end vores, vil også være et lagerhus med data om, hvad det betyder at være menneske, og hvad virkeligheden er.

3. Kritik af AI-boksen

Ideen om at begrænse friheden for superintelligens har modtaget meget kritik, men mange af dem, der kritiserede den, var afhængige af Yudkowskys eksperimenter med AI-boksen. En omhyggelig analyse af protokollen anvendt under disse eksperimenter antyder, at de er uvidenskabelige og designet til at vise, at det er umuligt at begrænse AI's frihed. Lad os overveje dette emne uden at gå ind i tekniske detaljer. Først var deltagernes valg ikke tilfældigt. Her er en kendsgerning for dig: Yudkowsky fandt folk til at deltage i hans eksperimenter på fora, der var afsat til at løse problemer i forbindelse med singulariteten. Vi vil sandsynligvis ikke tage fejl af, hvis vi siger, at de fleste af disse mennesker har et verdensbillede, der ligner Yudkowskys. For det andet modtog deltagerne i eksperimenterne ingen træning i at sikre sikker brug af AI, hvorimod de rigtige vagtere,Tilsynsførerne af AI-kassen vil naturligvis være professionelle. Yudkowski gav derudover vagterne ret til at frigøre AI efter eget skøn, lod dem ikke rådføre sig med nogen og sørgede ikke for straf for AI-flugt. Det hele er meget urealistisk. Kommunikationskanalen mellem vagten og AI var helt åben: ingen filtre, ingen tredjeparts tilsyn. Derudover måtte vagterne kommunikere med AI over en lang periode. Og endelig blev der ikke offentliggjort nogen værdifulde videnskabelige data, der blev opnået under eksperimenterne, fordi ifølge protokollen "ingen af parterne nogensinde vil fortælle om noget, der skete under eksperimenterne med AI-boksen" (Yudkovsky 2002). Yudkowski gav derudover vagterne ret til at frigøre AI efter eget skøn, lod dem ikke rådføre sig med nogen og sørgede ikke for straf for AI-flugt. Det hele er meget urealistisk. Kommunikationskanalen mellem vagten og AI var helt åben: ingen filtre, ingen tredjeparts tilsyn. Derudover måtte vagterne kommunikere med AI over en lang periode. Og endelig blev der ikke offentliggjort nogen værdifulde videnskabelige data, der blev opnået under eksperimenterne, fordi ifølge protokollen "ingen af parterne nogensinde vil fortælle om noget, der skete under eksperimenterne med AI-boksen" (Yudkovsky 2002). Derudover gav Yudkowski vagterne ret til at frigøre AI efter eget skøn, lod dem ikke konsultere nogen og sørgede ikke for straf for AI-flugt. Det hele er meget urealistisk. Kommunikationskanalen mellem vagten og AI var helt åben: ingen filtre, ingen tredjeparts tilsyn. Derudover måtte vagterne kommunikere med AI over en lang periode. Og endelig blev der ikke offentliggjort nogen værdifulde videnskabelige data, der blev opnået under eksperimenterne, fordi ifølge protokollen "ingen af parterne nogensinde vil fortælle om noget, der skete under eksperimenterne med AI-boksen" (Yudkovsky 2002).ingen filtre, ingen tredjeparts tilsyn. Derudover måtte vagterne kommunikere med AI over en lang periode. Og endelig blev der ikke offentliggjort nogen værdifulde videnskabelige data, der blev opnået under eksperimenterne, fordi ifølge protokollen "ingen af parterne nogensinde vil fortælle om noget, der skete under eksperimenterne med AI-boksen" (Yudkovsky 2002).ingen filtre, ingen tredjeparts tilsyn. Derudover måtte vagterne kommunikere med AI over en lang periode. Og endelig blev der ikke offentliggjort nogen værdifulde videnskabelige data, der blev opnået under eksperimenterne, fordi ifølge protokollen "ingen af parterne nogensinde vil fortælle om noget, der skete under eksperimenterne med AI-boksen" (Yudkovsky 2002).

3.1. Modforanstaltninger mod flugt

I dette afsnit foreslår vi modforanstaltninger mod de forskellige flugtmetoder, som AI kan drage fordel af. De foreslåede foranstaltninger garanterer ikke umuligheden af flugt, men anvendelse af disse henstillinger kan forsinke den, og dette er allerede et meget værdifuldt resultat. Vi starter med at minde dig om, at der er fire Lampsons regler for tilbageholdenhed (isolering, transitivitet, maskering og præstationsobservation), der skal følges (Lampson 1973). De specifikke strategier beskrevet nedenfor skal hjælpe med at afværge AI-angreb ved hjælp af social ingeniørarbejde, systemressourcer, fysik og information indsamlet fra omverdenen.

3.1.1. Forebyggelse af social ingeniørangreb

Menneskelig intelligens er ikke noget match med superintelligens. Folk har en tendens til at begå fejl, og selv med passende træning er de meget sårbare over for et godt planlagt angreb ved hjælp af SI. Den eneste løsning på dette problem er at isolere AI'en fuldstændigt fra enhver kommunikation med mennesker. Fuldstændig isolering betyder, at ingen personer direkte vedligeholder AI-systemet, ikke kommunikerer med det mundtligt, i chat, ved hjælp af morsekode eller andre værktøjer ved hjælp af åbne kommunikationskanaler. Derudover bør folk ikke direkte observere AI's opførsel i boksen, kontrollere dens kildekode eller hukommelsesområdet. Enhver observation, vedligeholdelse og interaktion med AI bør kun ske ved hjælp af ikke-intelligente programmer, der ikke har muligheder for at frigøre AI.

3.1.2. Kamp mod angreb ved hjælp af systemressourcer og fremtidig viden

For at forhindre angreb, der bruger systemressourcer, skal du gøre AI-funktionen på grundlag af begrænsede, formindskende eller tilfældigt ændrede ressourcer. AI-boksen skal være specielt designet hardware med et begrænset sæt sensorer og outputenheder. Uanset det anvendte computerparadigme må du ikke bruge konfigurerbar hardware. Ideelt set skal det begrænsede rum styres af en virtuel maskine, der ikke har direkte adgang til hardware. Dette vil også give en let justering af urets hastighed, ved hvilken simuleringen bevæger sig, hvilket gør det muligt for AI at bremse for at forhindre en intelligent eksplosion i kassepladsen (Chalmers 2010). Generelt,alle komponenter til sikring af sikker anvendelse af en låst AI bør duplikeres på flere niveauer, og derefter, efter at have overvundet et af disse trin, vil AI stadig være flere trin væk fra omverdenen, og uden at have tid til at flygte, vil den blive slukket, muligvis automatisk. For eksempel anbefales det at starte en virtuel maskine ved hjælp af en anden virtuel maskine og så videre.

I nogle scenarier med begrænsning af friheden er eskaleringen af AI-selvforbedring uønsket, fordi den hurtige udvikling af superintelligens gør det mere sandsynligt at undslippe. For at forhindre, at selvforbedring eskaleres, skal AI periodisk geninstalleres, idet det indlæses en tidligere version af programmet for at erstatte det nuværende, mere avancerede. Sammenligning af forskellige versioner af programmet kan bruges til at registrere modifikationer foretaget af AI alene. Efter detektering af en ændring, der tillader en flugt, skal AI-systemet stoppes, f.eks. Ved at slukke for strømmen.

Aktuel viden tillader os ikke at udvikle modforanstaltninger mod angreb ved hjælp af fremtidige, endnu ikke udviklede teorier, der vises inden for rammerne af fysik eller andre discipliner, der stadig betragtes som pseudovidenskabelige. Når der opnås sådan viden, bør der foretages ændringer i sikkerhedsprotokollen. Man håber, at AI-systemet kun har adgang til de komponenter i nye teknologier, som det er lavet fra.

3.1.3. Bekæmpelse af eksterne flugtfaktorer

Selvom det er umuligt at fuldstændigt forhindre de skadelige virkninger af naturlige faktorer på AI-boksen, skal denne enhed være konstrueret på en sådan måde, at dens alvorlige skade medfører dens selvdestruktion sammen med AI, der er låst i den. Når det kommer til menneskeskabte katastrofer, er den bedste strategi at opbygge en AI-kasse på et hemmeligt, svært tilgængeligt sikkert sted. En øde ø, en dyb mine eller et rumobjekt som en asteroide er fremragende steder til at skabe en sikker, robust kasse. En beskyttelse skal installeres langs dens omkreds, som, hvis placeringen af denne enhed er kendt, ikke vil lade nogen uautoriserede agenter ind i den.

3.1.4 Bekæmpelse af informationslækage fra vores verden

For at undslippe kassen vil AI forsøge at få information om os, vores viden og vores verden. For at oprette protokoller til begrænsning af AI's frihed, eksklusive informationslækage fra vores rum ind i boksen, er det vigtigt at nægte AI adgang til biblioteker, computernetværk og kanaler for direkte kommunikation med mennesker. AI-boksen skal være designet til at blokere for alle typer kommunikation: GPS, trådløst internet, tv, radio, mobiltelefon osv. Inde i kassen skal lyd, lys, lugt og andre sensoriske inputindretninger, der ligner menneskelige receptorer, samt enheder, der er i stand til at fange infrarød, stråling og andre signaler, som ikke opfattes af mennesker, være slået fra.

For at en AI ikke kan få information under selvundersøgelse, må den ikke have adgang til dens kildekode eller til sensorer, der tillader det nøjagtigt at måle bestemte egenskaber ved sit udstyr. Hvis dette ikke er muligt, kan menneskeheden til en vis grad hjælpes ved at stille sikkerhed gennem uforståelighed. Systemets kildekode og hardwarekonfiguration skal gøres forvirrende (Yampolsky og Govindaraja 2007a), og vigtige programmoduler skal kun leveres i en homomorfisk krypteret form (Gentry 2009), hvilket udelukker muligheden for at bruge det til introspektion, men tillader det anvendelse til beregning eller selvforbedring (Hall 2007).

AI er vanskeligt at forveksle, men den nødvendige forvirring kan opnås ved at randomisere de tilgængelige databehandlingsressourcer. Derudover vil AI aldrig være i stand til at være sikker på, at dets oprindelige design repræsenterer den bedste menneskehed er i stand til, og ikke er et formålstjenligt begrænset projekt, der er skabt til et specifikt eksperiment dedikeret til udforskning af en intelligens med begrænsede ressourcer. Derudover skal vi ifølge Chalmers forsøge at minimere AI's specifikke designfunktioner (Chalmers 2010). Bedre endnu, kør en model, der ikke ser ud som designet, men som naturligt forekommende, ligesom den verden, hvor menneskeheden lever (Bostrom 2003).

4. Kommunikationssikkerhed med AI

Klassificering af former for begrænsning af AI's frihed er der 8 vigtigste sikkerhedsniveauer (se tabel 1). Den højeste sikkerhed leveres af niveau 8, som fuldstændigt udelukker enhver forbindelse mellem AI og den virkelige verden. Ved første øjekast er sikkerhed på niveau 8 ubrugelig, men det er denne beskyttelse, der kan være påkrævet, når du oprindeligt tester en kasse med en AI låst i den. Generelt er ideen denne: Hver gang vi har brug for et vist sikkerhedsniveau i kommunikationen mellem AI og omverdenen, i stedet for med det samme at bruge dette niveau, går vi gradvist, trin for trin ned fra højere sikkerhedsniveauer. Efter at have startet systemet på det højeste niveau og sørget for dets sikkerhed, returnerer vi dette system til dets oprindelige tilstand ved at geninstallere det. Derefter sætter vi et lavere sikkerhedsniveau og går i samme ånd som før fremad, indtil vi når det niveau, vi ønsker.

Tabel 1: Niveauer af sikker kommunikation med låst AI

Niveau Udgange Indgange Forklaring
0 Ikke begrænset Ikke begrænset Ubegrænset kommunikation (gratis AI)
1 Ikke begrænset Limited Begrænset adgang, ubegrænset exit
2 Ikke begrænset Fraværende Afslut uden indrejse
3 Limited Ikke begrænset Ubegrænset adgang og begrænset udgang
4 Limited Limited Sikker kommunikation (foreslået protokol)
fem Limited Fraværende Begrænset udgang uden indrejse
6 Fraværende Ikke begrænset Indtast uden udgang
7 Fraværende Limited Begrænset adgang uden udgang
8 Fraværende Fraværende Mangel på kommunikation, helt låst af AI

På niveauer 7 og 6 har AI ingen afsætningsmulighed, som ikke tillader os direkte at bruge superintelligensens muligheder. Dette er niveauerne for test af AI-boksen, der kan bruges til at kontrollere, om superintelligensen har bestemte egenskaber (såsom hastigheden på at assimilere information og brugen af ressourcer), samt til at teste de indkommende kommunikationskanaler selv.

Niveau 0 begrænser ikke kommunikationen mellem AI og omverdenen og er i det væsentlige et gratis AI-niveau. På niveau 1 og 2 har AI ingen begrænsninger for udgående information. Hans niveau 2-arbejde er i det væsentlige ren brainstorming. Her genererer superintelligens abstrakte ideer uden nogen afhængighed af virkeligheden. Men på niveau 1 får han begrænset adgang til ekstern information, og derfor inden for en bestemt ramme kan hans viden og interesser kontrolleres.

På de tre betragtede niveauer af AI er i det væsentlige gratis og er ikke længere bundet af nogen begrænsninger. Det argumenteres for, at hvis en AI viser sig at være "venlig" som et resultat af omfattende test på forskellige tilbageholdelsessteder (Yudkovsky 2001), bør den frigives (Chalmers 2010). Ifølge nogle forskere skal hovedmålet med denne form for test faktisk være at skabe indelukkede rum til at indeholde AI under kontrol af mennesker. Ideen er at overvåge superintelligensens opførsel, enten kontrollere dens kildekode, efter at den har foretaget selvforbedring, eller bede AI om at give et bevis på dets venlighed, som menneskelige eksperter kan teste. Vi støtter ikke dette synspunkt.

Det er meget vanskeligt at beslutte, hvilken AI der skal frigives, og hvilken man skal holde kontrol. Det vil ikke være vanskeligt for den selvforbedrende superintelligens at skjule deres uønskede egenskaber for menneskeheden i kildekodearrays eller i et meget langt bevis (Coleman 2008). Men en anden ting er endnu værre: Selv en meget grundig kontrol kan ikke garantere hundrede procent, at en fremtidig intern eller ekstern ændring af AI ikke vil gøre det fjendtligt. Som en konsekvens af dette mener vi, at superintelligens aldrig under nogen omstændigheder bør slippes ud af kassen. Med andre ord bør kommunikationsniveauer 0-2 aldrig bruges. Sikker interaktion med superintelligensen er kun mulig, når den er i kassen, og kommunikation skal finde sted inden for rammerne af en begrænset kommunikationsprotokol. Denne protokol,svarende til sikkerhedsniveau 4 (LB4) er præsenteret i det næste afsnit, ligesom den lignende, men mindre sikre protokol på niveau 3. Niveau 5 er et andet testniveau, der kan bruges, før LB4 startes.

4.1 Sådan kommunikeres sikkert med superintelligens

En kasse, der arbejder med vores foreslåede modforanstaltninger mod flugt, forhindrer AI i at kontrollere omverdenen ukontrolleret. Desværre er dette system ikke nyttigt, hvis der ikke er nogen måde at få information fra AI'en. Derfor er du nødt til at udvikle en måde at hente nogle data fra AI'en. For at superintelligens skal være helt sikker, bør der ikke være nogen kommunikation med det, men risikoen for at kommunikere med AI kan minimeres, og vi har udviklet en passende protokol. I dette afsnit tilbyder vi det i en klar, formaliseret form. Denne kommunikationsprotokol gør det vanskeligt for superintelligens at få adgang til vores verden, men giver samtidig AI mulighed for at være en kilde til nyttig viden for menneskeheden.

De foregående afsnit i denne artikel har vist, at en åben kommunikationskanal med superintelligens er meget farlig. Ved at bruge AI til at besvare åbne spørgsmål risikerer vi social angreb og en række andre irritationer. Den protokol, vi foreslår, er baseret på ideen om at stille AI "sikre spørgsmål" med begrænsede svar. I sikkerhed vil vi kalde et spørgsmål, svaret som en person kan finde uden hjælp fra superintelligens, helt uafhængigt. Hvad er brugen her? Antag, at en videnskabsmand, der arbejder på et kræftlægemiddel, overvejer to behandlinger. Hver af dem kan udvikles og testes uden hjælp fra AI, men vil kræve omkring tre års hårdt arbejde. Hvilken måde at udvikle sig i første omgang,hvis begge indstillinger virker lige så lovende? Med det forkerte valg vil menneskeheden modtage en kur mod kræft om 6 år, med det rigtige valg - 3 år tidligere. Hvorfor ikke bede AI om at træffe valg for personen?

Det er sikkert af tre grunde at spørge en AI om den bedste behandling. For det første kan det ene af de to mulige svar vise sig at være korrekt med samme sandsynlighed som det andet. For det andet er en person i stand til at besvare dette spørgsmål selv uden hjælp fra AI, og at forbinde det sidstnævnte vil kun fremskynde udviklingen af onkologi, men på ingen måde ændre det resultat, der skal opnås. Faktisk vil AI, der forpligter sig til at besvare dette spørgsmål, fungere som en vellykket guesser, intet mere. Endelig kan svaret kodes i en enkelt bit, og det er usandsynligt, at yderligere meddelelser kan skjules i en sådan reaktion.

En gruppe eksperter kan bruges til at teste sikkerheden ved et superintelligent spørgsmål. Eksperter skal være kvalificerede AI-sikkerhedsfolk, hvilket betyder, at de har viden om design af AI og dens kasse, samt de seneste fremskridt inden for maskineetik (Allen et al. 2006; Anderson & Anderson 2007; Hall 2000; Moor 2006; Tonkens 2009). Derudover kan eksperter kræve kendskab til computerpsykologi. Der er ingen sådan disciplin i dag, men det vil sandsynligvis dukke op i fremtiden (Epstein 1997). Af de nuværende discipliner kan Artimetrics, udviklet af forfatteren af denne artikel, yde den største hjælp til uddannelse af eksperter, der reviderer sikkerhedsspørgsmål til AI. Artimetrics identificerer,klassificerer og autentificerer intelligente agenter, robotter og virtual reality-avatarer for at sikre sikkerhed (Yampolsky 2007; Yampolsky og Govindaradzhu, 2008, 2007b; Gavrilova og Yampolsky 2010)

Jeg understreger: superintelligens bør kun stille sikre spørgsmål om sandsynligheden for, at mennesker kan beregne, med to mulige svar. Du skal spørge gennem en ikke-intelligent grænseflade i en tilfældig rækkefølge og først efter at eksperterne er overbevist om spørgsmålets sikkerhed. Dette repræsenterer den begrænsede indgående kanal i den foreslåede kommunikationsprotokol.

Den afgrænsede udgående shell består af binære (0 eller 1) svar efterfulgt af de originale umodificerede sikkerhedsspørgsmål, præsenteret i tilfældig rækkefølge af et uintelligent proxy-program for at forhindre kommunikation gennem en uautoriseret kanal (tid eller hukommelse), der kan steganograferes. Outputet må aldrig styres af AI uden for valgmenuen. Lag 3 bruger den samme udgående protokol, men begrænser ikke den indgående kanal. Dette niveau er lige så sikkert som det fjerde med hensyn til information, der går fra AI til os, men her er det muligt for vores information at lække til AI.

Vi mener, at vores kommunikationsprotokol - og dette kan verificeres - pålideligt vil beskytte mod informationslækager, selvom AI kender sit indhold. Ved korrekt anvendelse af denne protokol vil menneskeheden være ekstremt frugtbar at bruge tjenesterne i en superintelligent orakel, og AI begrænset af vores protokol er meget sikrere end gratis, ubegrænset. Den generelle tommelfingerregel er: Hvis du ikke ønsker sikkerhedsproblemer, skal du undgå kommunikation under UB4.

Vi ønsker at henlede det videnskabelige samfunds opmærksomhed på det faktum, at det under betingelserne for den fortsatte udvikling af grundlæggende fysik, computerteknologi og viden om intelligensens art er konstant at forfine og udvikle protokollen til at begrænse AI's frihed. Arbejdet med det vil altid fortsætte og aldrig afslutte. I denne artikel har vi givet strenge definitioner på begreberne "AI-begrænsningsproblem", "flugt" og "sikre spørgsmål". Vi vil også foreslå et par ekstra udtryk, der kan være nyttige for at strømline diskussionerne om POSITION. Det lukkede AI-rum kan kaldes JAIL (Bare for AI-placering), og selve den superintelligente AI kan kaldes SING (Super Intelligent Gizmo - Superintelligent Gizmo). Udtrykket "SING" refererer til både SINGularity og det berygtede Sing Sing fængsel.hvilket gør det nemt at huske.

Til sidst vil vi gerne præsentere et visuelt symbol for boksen, der indeholder det farlige efterretningsprogram (figur 1, helt til højre). Sådanne symboler kan placeres i nærheden af forskellige JAIL'er for at advare om fare. Skiltet til AI-boksen er designet analogt med tegn til biohazard, stråling og magnetfelt. Det består af symbolet "@", der er indkapslet i en trekant, som er velkendt inden for computer- og informationsteknologisektoren. Dette symbol, der betyder "placeret på adresse", findes på alle tastaturer, hvilket gør dets vedtagelse meget omkostningseffektivt.

Figur: 1. Faresymboler fra venstre mod højre: biofarlig, stråling, magnetfelt og AI-kasse
Figur: 1. Faresymboler fra venstre mod højre: biofarlig, stråling, magnetfelt og AI-kasse

Figur: 1. Faresymboler fra venstre mod højre: biofarlig, stråling, magnetfelt og AI-kasse.

5. Konklusioner og fremtidig arbejde

At begrænse superintelligente maskiners adgang til den virkelige verden er en løsning på AI-sikkerhedsproblemet, der på ingen måde er usædvanligt. Superintelligens er ikke almægtig. Det er et program, der er i stand til at overveje alle de valg, der præsenteres af en given situation, og give hver enkelt en korrekt vurdering. Det er værd at sætte AI'en i en situation, hvor der ikke er noget valg, eller det er begrænset til muligheder med ekstremt små chancer for succes, og superintelligens vil være en agent, der ikke har mere magt end nogen anden. Det er klart, at en AI med en ubegrænset kommunikationskanal let kan undslippe, men en superintelligens, der er tvunget til at kommunikere gennem en filtreret kommunikationskanal, bliver nødt til at arbejde hårdt for at bryde fri.

I denne artikel har vi givet en streng definition af problemet med at begrænse AI's frihed og foreslået et sæt regler, der sigter mod at skabe et sådant rum, der ville være ekstremt vanskeligt for AI at flygte eller i det mindste tage en betydelig mængde tid. Vores foreslåede løsning er ikke helt sikker, men den er et væsentligt bidrag til indsamlingen af sikkerhedsmetoder. Her er det ligesom med rigtige fængsler: selvom flugt fra dem er muligt, lykkes de stadig at udføre den opgave, de er betroet med ære for at holde uønskede subjekter væk fra samfundet. Så snart vi har "ukendte fremmede" i tankerne og husker uopnåeligheden af absolut sikkerhed, kan vi indse, at AI-begrænsningsprotokollen er nøjagtigt det værktøj, som menneskeheden har brug for ansvarligt at bruge Singulariteten, når den kommer ind i vores virkelighed.

Begrænsning af friheden for AI kan gøre det lettere for en kort tid at betjene virkelig intelligente maskiner, især i de tidlige stadier af deres udvikling. Derudover er vores underfelt af singularitetsundersøgelser, efter vores mening, en af de største deltagere for at blive anerkendt af det globale videnskabelige samfund, da forskning inden for computer- og netværkssikkerhed, steganografi, computervirus, skjulte kommunikationskanaler, kryptering og cyberwar er godt finansieret. og er bredt udgivet i velrenommerede videnskabelige tidsskrifter. Og selvom metodologien til begrænsning af friheden slet ikke er let at implementere, kan den sikre menneskehedens sikkerhed i nogen tid, indtil et bedre værktøj vises.

På grund af det begrænsede rum rejste vi ikke i denne artikel mange relevante filosofiske spørgsmål. Vi vil overveje dem i den nærmeste fremtid, og nu giver vi kun en kort liste. Hvilken AI vil falde i boksen: udviklet af mennesker eller ekstraheret fra signalet, der blev opfanget under implementeringen af "SETI" -projektet ("Søg efter udenrigsundersøgelse" - "Søg efter udenrigsundersøgelse")? Vil AI blive revet til frihed, eller måske vil den betragte det som lykke at bo i et indelukket rum? Kan du alvorligt skræmme en AI med straf for at prøve at løbe? Hvad er de etiske regler for at fange et uskyldigt kunstigt intelligent væsen? Har vi ret til at slå det fra, som i det væsentlige er ensbetydende med mord? Vil AI blive vred på vores fjendtlighed over for den og fange den i en kasse? Vil han prøve at få hævnhvis han løber væk? Derudover bør vi overveje problemet med menneskelig afhængighed af AI-henstillinger på alle områder af videnskab, økonomi, medicin, politik osv., Og også hvordan denne afhængighed kan påvirke vores evne til at holde AI under kontrol. Vil AI få tilfredshed ved at nå sine mål i et begrænset rum, såsom at simulere en vellykket flugt? Hvordan straffes en AI, hvis den med vilje giver os de forkerte svar? Er det muligt at adskille de intellektuelle moduler i AI fra det rum, hvori det er fængslet, og derved forhindre selvanalysen af superintelligensen og skubbe den på banen til en bogstavelig søgning efter sjælen? Endelig har vi endnu ikke engang forsøgt at analysere de økonomiske og beregningsmæssige omkostninger ved at skabe et passende lukket rum, hvor en fuldskala simulering af verden implementeres.vi bør overveje problemet med fremkomsten af menneskelig afhængighed af AI-henstillinger inden for alle områder af videnskab, økonomi, medicin, politik osv., og hvordan denne afhængighed kan påvirke vores evne til at holde AI under kontrol. Vil AI få tilfredshed ved at nå sine mål i et begrænset rum, såsom at simulere en vellykket flugt? Hvordan straffes en AI, hvis den med vilje giver os de forkerte svar? Er det muligt at adskille de intellektuelle moduler i AI fra det rum, hvori det er fængslet, og derved forhindre selvanalysen af superintelligensen og skubbe den på banen til en bogstavelig søgning efter sjælen? Endelig har vi endnu ikke engang forsøgt at analysere de økonomiske og beregningsmæssige omkostninger ved at skabe et passende lukket rum, hvor en fuldskala simulering af verden implementeres.vi bør overveje problemet med fremkomsten af menneskelig afhængighed af AI-henstillinger inden for alle områder af videnskab, økonomi, medicin, politik osv., og hvordan denne afhængighed kan påvirke vores evne til at holde AI under kontrol. Vil AI få tilfredshed ved at nå sine mål i et begrænset rum, såsom at simulere en vellykket flugt? Hvordan straffes en AI, hvis den med vilje giver os de forkerte svar? Er det muligt at adskille AI's intelligente moduler fra det rum, hvori det er fængslet, og derved forhindre selvanalysen af superintelligensen og skubbe den på banen til en bogstavelig søgning efter sjælen? Endelig har vi endnu ikke engang forsøgt at analysere de økonomiske og beregningsmæssige omkostninger ved at skabe et passende lukket rum, hvor en fuldskala simulering af verden implementeres.

Forfatter: Roman Yampolsky. Oversættelse: Alexander Gorlov