Farlig Menneskehed: Hvorfor Har Vi Brug For Intelligent Kunstig Intelligens? - Alternativ Visning

Indholdsfortegnelse:

Farlig Menneskehed: Hvorfor Har Vi Brug For Intelligent Kunstig Intelligens? - Alternativ Visning
Farlig Menneskehed: Hvorfor Har Vi Brug For Intelligent Kunstig Intelligens? - Alternativ Visning

Video: Farlig Menneskehed: Hvorfor Har Vi Brug For Intelligent Kunstig Intelligens? - Alternativ Visning

Video: Farlig Menneskehed: Hvorfor Har Vi Brug For Intelligent Kunstig Intelligens? - Alternativ Visning
Video: SCP-1461 House of the Worm (Object Klasse: Euclid) 2024, Kan
Anonim

Da Norbert Wiener, far til cybernetik, skrev sin bog Human Uses of Human Beings i 1950, var vakuumrør stadig de grundlæggende elektroniske byggesten, og der var faktisk kun et par computere på arbejde. Han forestillede sig imidlertid den fremtid, vi nu ser med hidtil uset præcision, idet han kun tager sig af mindre detaljer.

Før nogen anden filosof af kunstig intelligens, indså han, at AI ikke kun vil efterligne - og erstatte - mennesker i mange typer intellektuel aktivitet, men også vil ændre mennesker i processen.”Vi er bare boblebad i en flod med stadigt strømmende vand,” skrev han. "Vi er ikke noget, der bare lever, vi er modeller, der forevrer sig selv."

Når mange for eksempel lokker muligheder opstår, er vi villige til at betale og acceptere de små omkostninger ved at drive en virksomhed for at få adgang til nye muligheder. Og meget snart bliver vi afhængige af nye værktøjer, vi mister evnen til at eksistere uden dem. Indstillinger bliver påkrævet.

Dette er en meget gammel evolutionshistorie, og mange af kapitlerne herfra er velkendte for os. De fleste pattedyr kan syntetisere deres eget vitamin C, men frugtspisende primater har mistet denne indbyggede evne. De selv gentagende mønstre, vi kalder mennesker, er nu afhængige af tøj, forarbejdet mad, vitaminer, sprøjter, kreditkort, smartphones og internettet. Og i morgen, hvis ikke i dag, fra kunstig intelligens.

Wiener forudså flere problemer med denne situation, som Alan Turing og andre tidlige AI-optimister stort set overså. Den virkelige trussel, sagde han, var:

… er, at sådanne maskiner, selv om de er hjælpeløse i sig selv, kan bruges af mennesker eller blokere mennesker for at øge deres kontrol over resten af løbet, eller politiske ledere kan prøve at tage kontrol over deres befolkning ved hjælp af politiske metoder snarere end maskinerne selv, så snæver og ligeglade med mennesket, som om de blev opfundet mekanisk.

Naturligvis er disse farer nu meget relevante.

I medierne, for eksempel, giver innovationer i digital lyd og video os mulighed for at betale en lille pris (i øjnene på audiofiler og filmgæster) for at bevæge os væk fra analoge formater, og til gengæld modtage en ekstremt enkel - for simpel - måde at spille optagelser med næsten ingen begrænsninger på.

Salgsfremmende video:

Image
Image

Men der er en enorm skjult omkostning. Orwells ministerium for sandhed er blevet en reel mulighed. AIs teknikker til at skabe næsten ikke skelne med falske "poster" gør de værktøjer, vi har brugt til undersøgelser, forældede i de sidste 150 år.

Vi må bare opgive den korte æra med fotografiske beviser og vende tilbage til den gamle verden, hvor menneskelig hukommelse og tillid var guldstandarden. Eller vi kan udvikle nye metoder til forsvar og angreb i kampen om sandheden. Et af de mest spændende nylige eksempler er det faktum, at det er meget billigere at ødelægge et omdømme end at tjene og beskytte det samme omdømme. Wiener så dette fænomen meget bredt: "I det lange løb vil der ikke være nogen forskel mellem bevæbne dig selv og bevæbne fjenden." Informationstiden er også blevet en æra med desinformation.

Hvad vi kan gøre? Nøglen er Wiener samme bemærkning om, at "disse maskiner" er "sig selv hjælpeløse." Vi skaber værktøjer, ikke kolleger, og den virkelige trussel er, at vi ikke ser forskellen.

Kunstig intelligens i sin nuværende form er parasitisk på menneskelig intelligens. Han er meget ubevægelig i besiddelse af alt det, som menneskelige skabere har skabt og tegner mønstre - inklusive vores mest hemmelige vaner. Disse maskiner har endnu ikke mål eller strategier, er ikke i stand til selvkritik og innovation, de studerer kun vores databaser uden deres egne tanker og mål.

De er, som Wiener siger, hjælpeløse ikke i den forstand, at de er bundet eller immobiliseret, nej, de er overhovedet ikke agenter - de har ikke evnen til at "handle ud fra årsager", som Kant ville sige det.

På lang sigt er "stærk AI" eller generel kunstig intelligens principielt muligt, men ikke ønskelig. Den endnu mere begrænsede AI, der er mulig i praksis i dag, vil ikke være ond. Men det udgør en trussel - delvis fordi det kan forveksles med en stærk AI.

Hvor stærk er kunstig intelligens i dag?

Kløften mellem nutidens systemer og sci-fi-systemer, der oversvømmer den populære fantasi, er stadig stor, selvom mange mennesker, både amatører og fagfolk, har en tendens til at undervurdere den. Lad os tage et kig på IBM's Watson, som meget vel kan være respektabel i denne dag.

Denne supercomputer er resultatet af en ekstremt stor FoU (forskning og udvikling) proces, der involverede mange mennesker og design intelligens gennem mange århundreder, og den bruger tusinder af gange mere energi end den menneskelige hjerne. Hans sejr i Jeopardy! var en sand triumf, der blev muliggjort af de formelmæssige begrænsninger i Jeopardy! s regler, men selv disse regler måtte revideres for at han kunne deltage. Jeg var nødt til at opgive lidt alsidighed og tilføje menneskeheden til at stille showet.

Watson er et dårligt firma, på trods af vildledende annoncer fra IBM, der lover AI-samtaleevne på begge niveauer, og at gøre Watson til et troværdigt mangesidet agent ville være beslægtet med at lave en lommeregner Watson. Watson kan være et godt computertilfælde for en sådan agent, men snarere et lillehjerner eller amygdala snarere end et sind - i bedste fald et specielt formålssystem, der tjener som støtte, men ikke næsten et system til planlægning og formulering af mål baseret på den opnåede samtaleerfaring.

Hvorfor ønsker vi at skabe en tænkende og kreativ agent fra Watson? Måske Turings strålende idé - den berømte Turing-test - har lokket os ind i en fælde: Vi er blevet besat af at skabe i det mindste illusionen om en rigtig person, der sidder foran en skærm, og omgår den "ildevarslende dal."

Faren er, at siden Turing præsenterede sin opgave - som primært var en opgave at narre dommerne - har skaberne af AI forsøgt at udføre den ved hjælp af sjove humanoide dukker, "tegneserie" -versioner, der vil fascinere og afvæbne de uindviede. ELIZA af Joseph Weisenbaum, den allerførste chatbot, var et godt eksempel på at skabe en sådan illusion, men med en ekstrem simpel algoritme, der kunne overbevise folk om, at de havde oprigtige og oprigtige samtaler med andre mennesker.

Han var bekymret for, hvor let folk er villige til at tro på dette. Og hvis vi regnede ud med noget fra den årlige Lebner Prize Limited Turing Test, er det, at selv de smarteste mennesker, der ikke er kyndige i computerprogrammering, let falder for disse enkle tricks.

Folk i AI's holdning til sådanne teknikker spænder fra fordømmende til givende, og konsensus er, at disse tricks ikke er meget dybe, men kan være nyttige. Et holdningsskifte, der ville være meget velkomment, ville være en oprigtig indrømmelse af, at dukkemalte androider er falske reklamer, der skal bedømmes og ikke tilskyndes.

Hvordan kan dette opnås? Når vi har forstået, at mennesker begynder at træffe beslutninger om liv og død ved at følge "rådgivningen" af AI-systemer, hvis interne operationer næsten er uforståelig, vil vi se en god grund til dem, der opfordrer folk til at stole på sådanne systemer, til at begynde at stole på normerne for moral og lov.

Kunstige intelligenssystemer er meget kraftfulde værktøjer. Så kraftig, at selv eksperter har en god grund til ikke at stole på deres egen bedømmelse, når der er”domme” repræsenteret af disse værktøjer. Men hvis disse brugere af værktøjerne, økonomisk eller på anden måde, kommer til at drage fordel af populariseringen af disse værktøjer, skal de sørge for at vide, hvordan de gør det med fuldt ansvar, maksimal kontrol og berettigelse.

Licensiering og godkendelse af operatører af sådanne systemer - ligesom vi licenserer farmaceuter, kranoperatører og andre fagfolk, hvis fejl og fejlvurderinger kan have alvorlige konsekvenser - måske, med støtte fra forsikringsselskaber og andre organisationer, forpligter skaberne af AI-systemer til at gå langt på udkig efter svagheder og mangler ved deres produkter, og træne også dem, der skal arbejde med dem.

Man kan forestille sig en slags omvendt Turing-test, hvor dommeren vil blive genstand for vurderingen; indtil han finder svaghed, overtrædelse af grænser, huller i systemet, vil han ikke modtage en licens. En sådan dommer vil kræve seriøs uddannelse for at opnå en attest. Trangen til at tilskrive et objekt en menneskelig evne til at tænke, som vi normalt gør, når vi møder en intelligent agent, er meget, meget stærk.

Faktisk er evnen til at modstå trangen til at se noget humaniseret en underlig ting. Mange mennesker ville synes at pleje et sådant talent tvivlsomt, fordi selv de mest pragmatiske brugere af systemet lejlighedsvis er "venlige" om deres værktøjer.

Uanset hvor omhyggeligt AI-designere vælger at fjerne falske "menneskelige" overtoner i deres produkter, bør vi forvente, at blomstringen af etiketter, løsningsmodeller og acceptabel forvrængning af den faktiske "forståelse" af både systemer og deres operatører. På samme måde som stoffer med en lang liste over bivirkninger annonceres på tv, eller alkohol annonceres med en overflod af små bogstaver med alle de advarsler, som loven kræver, så udviklere af kunstig intelligens vil overholde loven, men blive sofistikerede i advarsler.

Hvorfor har vi brug for kunstig intelligens?

Vi har ikke brug for kunstige bevidste agenter. Der er en række naturbevidste agenter, der er tilstrækkelige til at udføre enhver opgave for fagfolk og privilegerede personer. Vi har brug for smarte værktøjer. Værktøjer har ingen rettigheder og bør ikke have følelser, der kan blive såret eller misbrugt.

En af grundene til ikke at fremstille kunstige bevidste agenter er, at selv om de kan blive autonome (og i princippet kan de være så autonome, selvforbedrende eller selvskabende som enhver person), bør de ikke - uden særlig tilladelse - dele med vores naturlige bevidste agenter, vores sårbarhed eller vores dødelighed.

Daniel Dennett, professor i filosofi ved Tufts Universitet, udfordrede engang studerende i et værksted om kunstige agenter og autonomi: Giv mig specifikationerne for en robot, der kan underskrive en kontrakt med dig - ikke et surrogat, der ejes af en anden person, men af sig selv. Det er ikke et spørgsmål om at forstå årsagerne eller manipulere pennen på papiret, men snarere ejerskab og velfortjent ejerskab af juridisk status og moralsk ansvar. Små børn kan ikke underskrive sådanne kontrakter såvel som handicappede, hvis juridiske status forpligter dem til at være under værgemål og pålægger værger et ansvar.

Problemet med robotter, der måske ønsker at opnå en sådan ophøjet status, er, at de, ligesom Superman, er for sårbare til at fremsætte sådanne påstande. Hvad vil der ske, hvis de nægter? Hvad er straffen for at bryde et løfte? Vil de blive låst op i et bur eller taget fra hinanden? Et fængsel for kunstig intelligens vil ikke være ubelejligt, medmindre vi først indlæser tørsten efter frihed, der ikke kan ignoreres eller deaktiveres af AI selv. Demontering af AI vil ikke dræbe de oplysninger, der er gemt på disken og i softwaren.

Letheden ved digital registrering og transmission af data - et gennembrud, der gjorde det muligt for software og data at opnå faktisk udødelighed - gør robotter usårbare. Hvis det ikke synes indlysende, skal du tænke på, hvordan folks moral ville ændres, hvis vi kunne tage backup af mennesker hver uge. At hoppe fra broen uden et gummibånd på søndag efter en fredagskopiering kan være en udslæt beslutning, så kan du se optagelserne af din utidige død senere.

Derfor skaber vi ikke bevidste - vi vil gerne skabe - humanoide agenter, men snarere en helt ny type skabninger, nogle orakler, bevidstløse, uden frygt for død, uden distraktion af kærlighed og had, uden personlighed: spejle af sandhed, der næsten helt sikkert vil blive inficeret af mennesker løgne.

Menneskelig brug af mennesker vil snart ændre sig - igen - for evigt, men hvis vi tager ansvar for vores evolutionære bane, kan vi undgå unødvendige farer.

Ilya Khel