Kunstig Intelligens. Del To: Udryddelse Eller Udødelighed? - Alternativ Visning

Indholdsfortegnelse:

Kunstig Intelligens. Del To: Udryddelse Eller Udødelighed? - Alternativ Visning
Kunstig Intelligens. Del To: Udryddelse Eller Udødelighed? - Alternativ Visning

Video: Kunstig Intelligens. Del To: Udryddelse Eller Udødelighed? - Alternativ Visning

Video: Kunstig Intelligens. Del To: Udryddelse Eller Udødelighed? - Alternativ Visning
Video: Kunstig intelligens: Fantastisk eller farlig? | NTNU Kveld 2024, September
Anonim

Før du er den anden del af en artikel fra serien "Vent, hvordan alt dette kan være ægte, hvorfor snakkes det stadig ikke om på hvert hjørne." I den forrige serie blev det kendt, at en eksplosion af intelligens gradvis kryber op til befolkningen på Jorden, den prøver at udvikle sig fra snævert fokuseret til universel intelligens og endelig kunstig superintelligens.

”Måske står vi overfor et ekstremt vanskeligt problem, og det vides ikke, hvor lang tid der er afsat til dens løsning, men menneskehedens fremtid kan afhænge af dens løsning.” - Nick Bostrom.

Den første del af artiklen begyndte uskyldigt nok. Vi diskuterede snævert fokuseret kunstig intelligens (AI, der er specialiseret i at løse et specifikt problem, som at bestemme ruter eller spille skak), i vores verden er der meget af det. Derefter analyserede de, hvorfor det er så vanskeligt at dyrke generel retningsbestemt kunstig intelligens (AGI eller AI, som med hensyn til intellektuelle evner kan sammenligne med et menneske til at løse ethvert problem), er så svært. Vi konkluderede, at det eksponentielle tempo inden for teknologisk udvikling antyder, at AGI muligvis er rundt om hjørnet ret snart. I sidste ende besluttede vi, at så snart maskiner nåede til menneskelig intelligens, kunne følgende ske:

Image
Image
Image
Image
Image
Image
Image
Image

Som sædvanligt ser vi på skærmen og ikke tro på, at kunstig superintelligens (ISI, der er meget smartere end nogen person) kan vises i løbet af vores levetid og vælge følelser, der bedst afspejler vores mening om dette spørgsmål.

Salgsfremmende video:

Inden vi går i dybden med ISI's detaljer, lad os minde os om, hvad det betyder for en maskine at være superintelligent.

Den største forskel ligger mellem hurtig superintelligens og superintelligens af kvalitet. Ofte er den første ting, der kommer i tankerne, når man tænker på en superintelligent computer, at den kan tænke meget hurtigere end en person - millioner gange hurtigere, og om fem minutter vil den forstå, hvad en person ville have taget ti år. ("Jeg kender kung fu!")

Det lyder imponerende, og ISI burde virkelig tænke hurtigere end nogen af befolkningen - men den vigtigste adskillelsesfunktion er kvaliteten på hans intellekt, som er en helt anden. Mennesker er meget smartere end aber, ikke fordi de tænker hurtigere, men fordi deres hjerner indeholder en række geniale kognitive moduler, der udfører komplekse sproglige repræsentationer, langtidsplanlægning, abstrakt tænkning, som aber ikke er i stand til. Hvis du fremskynder en abes hjerne tusind gange, bliver den ikke smartere end os - selv efter ti år vil den ikke være i stand til at samle et konstruktionssæt i henhold til instruktionerne, hvilket ville tage en person højst et par timer. Der er ting, som en abe aldrig vil lære, uanset hvor mange timer den bruger, eller hvor hurtigt dens hjerne fungerer.

Derudover ved en abe ikke, hvordan menneskeligt, fordi dens hjerne simpelthen ikke er i stand til at realisere eksistensen af andre verdener - en abe ved måske, hvad en person er, og hvad en skyskraber er, men vil aldrig forstå, at en skyskraber blev bygget af mennesker. I hendes verden hører alt til naturen, og makakken kan ikke kun bygge en skyskraber, men også forstå, at enhver kan bygge den. Og dette er resultatet af en lille forskel i kvaliteten af intelligensen.

I det generelle intelligensskema, som vi taler om, eller simpelthen efter biologiske væseners standarder, er forskellen i intelligensens kvalitet mellem mennesker og aber lille. I den forrige artikel placerede vi biologiske kognitive evner på en stige:

Image
Image

For at forstå, hvor seriøs en superintelligent maskine vil være, skal du placere den to hak højere end personen på denne stige. Denne maskine er måske bare lidt superintelligent, men dens overlegenhed over vores kognitive evner vil være den samme som vores - over aberne. Og ligesom en sjimpanse aldrig vil forstå, at der kan bygges en skyskraber, forstår vi måske aldrig, hvilken maskine et par trin højere vil forstå, selvom maskinen prøver at forklare det for os. Men dette er kun et par trin. En smartere maskine vil se myrer i os - den vil lære os de enkleste ting fra dens position i årevis, og disse forsøg vil være helt håbløse.

Den type superintelligens, vi vil tale om i dag, ligger langt uden for denne stige. Dette er en eksplosion af intelligens - når jo smartere en bil bliver, jo hurtigere kan den øge sin egen intelligens og gradvist øge momentum. Det kan tage år for en maskine som denne at overgå chimpanser i intelligens, men måske et par timer at overgå os med et par trin. Fra dette øjeblik kan bilen allerede hoppe over fire trin hvert sekund. Derfor skal vi forstå, at meget snart efter den første nyhed om, at maskinen har nået niveauet for menneskelig intelligens, vi måske står over for virkeligheden af sameksistens på Jorden med noget, der vil være meget højere end os på denne stige (eller måske, og millioner af gange højere):

Image
Image

Og da vi har konstateret, at det er helt nytteløst at prøve at forstå kraften i en maskine, der kun er to trin over os, lad os definere en gang for alle, at der ikke er nogen måde at forstå, hvad ISI vil gøre, og hvilke konsekvenser dette vil have for os. Enhver, der hævder det modsatte, forstår ganske enkelt ikke, hvad superintelligens betyder.

Evolution har langsomt og gradvist udviklet den biologiske hjerne gennem hundreder af millioner af år, og hvis mennesker skaber en superintelligent maskine, vil vi i en eller anden forstand overskride evolutionen. Eller det vil være en del af evolutionen - måske fungerer evolution på en sådan måde, at intelligens udvikler sig gradvist, indtil den når et vendepunkt, der indvarsler en ny fremtid for alle levende ting:

Image
Image

Af grunde, som vi vil diskutere senere, mener en stor del af det videnskabelige samfund, at spørgsmålet ikke er, om vi kommer til dette vippepunkt, men hvornår.

Hvor ender vi efter dette?

Jeg tror, ingen i denne verden, hverken mig eller dig, vil være i stand til at sige, hvad der vil ske, når vi når vippepunktet. Oxford-filosof og førende AI-teoretiker Nick Bostrom mener, at vi kan koge alle mulige resultater i to brede kategorier.

Først når vi ser på historien, ved vi følgende om livet: arter vises, eksisterer i et bestemt tidsrum og falder derefter uundgåeligt af balance i livet og dør ud.

Image
Image

"Alle arter dør ud" har været en pålidelig regel i historien som "alle mennesker dør en dag." 99,9% af arterne er faldet fra en log med liv, og det er helt klart, at hvis en art forbliver på denne log i for længe, vil et vindpust af naturlig vind eller en pludselig asteroide vende loggen. Bostrom kalder udryddelse en tiltrækkers tilstand - et sted, hvor alle arter afbalanceres for ikke at falde, hvor ingen arter er vendt tilbage.

Og selvom de fleste forskere indrømmer, at ISI vil have evnen til at dø af mennesker til udryddelse, tror mange også, at brugen af ISI's kapaciteter vil give individer (og arten som helhed) mulighed for at opnå den anden tilstand af den tiltrækkende art udødelighed. Bostrom mener, at en arts udødelighed er lige så meget en tiltrækker som en udryddelse af en art, dvs. hvis vi kommer til dette, vil vi være dømt til evig eksistens. Selv om alle arter indtil denne dag faldt fra denne pind i udryddelsens maelstrøm, mener Bostrom, at loggen har to sider, og der simpelthen ikke optrådte på Jorden en sådan intelligens, der ville forstå, hvordan man falder til den anden side.

Image
Image

Hvis Bostrom og andre har ret, og hvis vi vurderer alle de oplysninger, vi har til rådighed, kan de godt være det, er vi nødt til at acceptere to meget chokerende kendsgerninger:

1. Fremkomsten af ISI for første gang i historien vil åbne muligheden for, at en art opnår udødelighed og falder ud af den dødelige udryddelsescyklus.

2. Fremkomsten af ISI vil have en så ufattelig stor indflydelse, at det sandsynligvis vil skubbe menneskeheden fra denne stråle i den ene eller den anden retning.

Det er muligt, at når evolutionen når et sådant vendepunkt, sætter den altid en stopper for menneskers forhold til livets strøm og skaber en ny verden, med eller uden mennesker.

Dette rejser et interessant spørgsmål, som kun en kæmper ikke ville stille: Hvornår kommer vi til dette vippepunkt, og hvor vil det sætte os? Ingen i verden ved svaret på dette dobbelte spørgsmål, men mange smarte mennesker har forsøgt at finde ud af det i årtier. For resten af artiklen finder vi ud af, hvor de kom fra.

* * *

Lad os starte med den første del af dette spørgsmål: hvornår skal vi nå vippepunktet? Med andre ord: hvor meget tid er der tilbage, indtil den første maskine når superintelligens?

Meningerne varierer fra sag til sag. Mange, inklusive professor Vernor Vinge, videnskabsmand Ben Herzel, Sun Microsystems medstifter Bill Joy, futuristen Ray Kurzweil, var enige med maskinlæringsekspert Jeremy Howard, da han præsenterede følgende graf på TED Talk:

Image
Image

Disse mennesker deler synspunktet om, at ISI snart kommer - denne eksponentielle vækst, der forekommer langsom for os i dag, vil bogstaveligt talt eksplodere i de næste par årtier.

Andre, som Microsoft medstifter Paul Allen, forskningspsykolog Gary Marcus, computerekspert Ernest Davis og tech-iværksætter Mitch Kapor, mener, at tænkere som Kurzweil seriøst undervurderer omfanget af problemet, og de tror, at vi ikke er så tæt på et vippepunkt.

Kurzweils lejr argumenterer for, at den eneste undervurdering, der finder sted, er at ignorere eksponentiel vækst, og tvivlere kan sammenlignes med dem, der så på det langsomt voksende internet i 1985 og argumenterede for, at det ikke ville have nogen indflydelse på verden i den nærmeste fremtid.

Tvivlere kan afværge, at det er vanskeligere for fremskridt at tage hvert efterfølgende trin, når det kommer til den eksponentielle udvikling af intelligens, der neutraliserer den typiske eksponentielle karakter af teknologisk fremgang. Etc.

Den tredje lejr, hvor Nick Bostrom er, er uenig med enten den første eller den anden og argumenterer for, at a) alt dette kan absolut ske i den nærmeste fremtid; og b) der er ingen garanti for, at dette overhovedet vil ske, eller at det vil tage længere tid.

Andre, som filosofen Hubert Dreyfus, mener, at alle tre grupper naivt tror, at der overhovedet vil være et vendepunkt, og at vi sandsynligvis aldrig kommer til ISI.

Hvad sker der, når vi sætter alle disse meninger sammen?

I 2013 gennemførte Bostrom en undersøgelse, hvor han interviewede hundreder af eksperter inden for kunstig intelligens under en række konferencer om følgende emne: "Hvad er dine forudsigelser for at nå AGI på det menneskelige niveau?" og bad os om at navngive et optimistisk år (hvor vi vil have AGI med 10 procent chance), en realistisk antagelse (et år, hvor vi har AGI med en 50 procents sandsynlighed) og en selvsikker antagelse (det tidligste år, hvor AGI vises siden 90 - procentvis sandsynlighed). Her er resultaterne:

- Gennemsnit optimistisk år (10%): 2022

- Gennemsnit realistisk år (50%): 2040

- Gennemsnitligt pessimistisk år (90%): 2075

Gennemsnitlige respondenter mener, at vi om 25 år vil have AGI snarere end ikke. En 90 procents chance for, at AGI finder sted inden 2075, betyder, at hvis du stadig er ganske ung nu, vil det sandsynligvis ske i dit liv.

En separat undersøgelse for nylig udført af James Barratt (forfatteren af den anerkendte og meget gode bog Our Most Invention, uddrag, som jeg bragte opmærksomheden fra Hi-News.ru-læsere) og Ben Hertzel på AGI-konferencen, en årlig AGI-konference, viste ganske enkelt folks meninger i forhold til det år, vi kommer til AGI: 2030, 2050, 2100, senere eller aldrig. Her er resultaterne:

- I 2030: 42% af de adspurgte

- I 2050: 25%

- Efter 2100: 20%

- Efter 2100: 10%

- Aldrig: 2%

Ligner Bostroms resultater. I Barratts meningsmåling mener mere end to tredjedele af de adspurgte, at AGI vil være her inden 2050, og mindre end halvdelen mener, at AGI vil vises i de næste 15 år. Det er også slående, at kun 2% af de adspurgte i princippet ikke ser AGI i vores fremtid.

Men AGI er ikke et vippepunkt som ISI. Hvornår skal vi ifølge eksperter have ISI?

Bostrom spurgte eksperterne, hvornår vi vil nå ASI: a) to år efter at have nået AGI (det vil sige næsten øjeblikkeligt på grund af en eksplosion af intelligens); b) efter 30 år. Resultater?

Den gennemsnitlige opfattelse er, at den hurtige overgang fra AGI til ISI vil ske med en 10% sandsynlighed, men om 30 år eller mindre vil den ske med en 75% sandsynlighed.

Fra disse data ved vi ikke, hvilken dato respondenterne vil kalde en 50 procent chance for en ASI, men baseret på de to svar ovenfor, lad os antage, at det er 20 år. Det vil sige, at verdens førende AI-eksperter mener, at vendepunktet kommer i 2060 (AGI vises i 2040 + det vil tage 20 år for overgangen fra AGI til ISI).

Image
Image

Naturligvis er alle ovennævnte statistikker spekulative og repræsenterer bare mening fra eksperter inden for kunstig intelligens, men de påpeger også, at de fleste af de berørte mennesker er enige om, at AI i 2060 sandsynligvis vil ankomme. På bare 45 år.

Lad os gå videre til det andet spørgsmål. Hvilken side af det fatale valg bestemmer os, når vi kommer til vippepunktet?

Superintelligence vil have den mest magtfulde magt, og det kritiske spørgsmål til os vil være følgende:

Hvem eller hvad vil kontrollere denne magt, og hvad er deres motivation?

Svaret på dette spørgsmål vil afhænge af, om ISI får en utrolig kraftig udvikling, en umådeligt skræmmende udvikling eller noget derimellem.

Naturligvis forsøger ekspertgruppen også at besvare disse spørgsmål. Bostroms meningsmåling analyserede sandsynligheden for mulige konsekvenser af AGI's indflydelse på menneskeheden, og det viste sig, at med en 52 procent chance vil alt gå meget godt, og med en 31 procent chance vil alt gå enten dårligt eller ekstremt dårligt. Undersøgelsen vedhæftet i slutningen af den forrige del af dette emne, der blev gennemført blandt jer, kære læsere af Hi-News, viste omtrent de samme resultater. For et relativt neutralt resultat var sandsynligheden kun 17%. Med andre ord tror vi alle, at AGI vil blive en stor aftale. Det er også værd at bemærke, at denne undersøgelse vedrører fremkomsten af AGI - i tilfælde af ISI vil procentdelen af neutralitet være lavere.

Inden vi går dybere ind i at tænke på de gode og dårlige sider af spørgsmålet, lad os kombinere begge sider af spørgsmålet - "hvornår vil dette ske?" og "er dette godt eller dårligt?" ind i en tabel, der dækker synspunkter fra de fleste eksperter.

Image
Image

Vi taler om hovedlejren om et minut, men først beslutter du din position. Mest sandsynligt er du på det samme sted, hvor jeg var, før jeg begyndte at arbejde på dette emne. Der er flere grunde til, at folk overhovedet ikke tænker over dette emne:

- Som nævnt i den første del har filmene alvorligt forvirret mennesker og fakta og præsenteret urealistiske scenarier med kunstig intelligens, hvilket førte til det faktum, at vi overhovedet ikke skulle tage AI alvorligt. James Barratt sammenlignede denne situation med at blive udstedt af Centers for Disease Control (CDC) med en alvorlig advarsel om vampyrer i vores fremtid.

- På grund af de såkaldte kognitive forspændinger, er det meget vanskeligt for os at tro, at noget er reelt, indtil vi har bevis. Man kan med sikkerhed forestille sig dataforskerne fra 1988 regelmæssigt at drøfte de vidtrækkende konsekvenser af Internettet og hvad det måtte blive, men folk troede næppe, at det ville ændre deres liv, indtil det faktisk skete. Det var bare det, at computere ikke vidste, hvordan man skulle gøre dette i 1988, og folk bare kiggede på deres computere og tænkte,”Virkelig? Er det dette, der vil ændre verden? Deres fantasi var begrænset af, hvad deres personlige oplevelse lærte dem, de vidste, hvad en computer var, og det var vanskeligt at forestille sig, hvad en computer ville være i stand til i fremtiden. Det samme sker nu med AI. Vi hørte, at det bliver en alvorlig tingMen da vi endnu ikke er stødt på det ansigt til ansigt, og generelt ser vi temmelig svage manifestationer af AI i vores moderne verden, er det temmelig svært for os at tro, at det radikalt vil ændre vores liv. Det er imod disse fordomme, at adskillige eksperter fra alle lejre såvel som interesserede mennesker er imod at prøve at få vores opmærksomhed gennem støjen fra hverdagens kollektive egocentrisme.

- Selv hvis vi troede på alt dette - hvor mange gange i dag har du tænkt på det faktum, at du vil tilbringe resten af evigheden i intethed? Lidt, enig. Selv hvis denne kendsgerning er meget vigtigere end noget, du gør dag ud og dag ud. Dette skyldes, at vores hjerner normalt fokuserer på små, hverdagslige ting, uanset hvor vildfarende den langsigtede situation vi befinder os i. Det er bare at vi er skabt.

Et af målene med denne artikel er at få dig ud af lejren kaldet "Jeg kan godt lide at tænke på andre ting" og sætte dig i ekspertlejren, selvom du bare står på krydset mellem de to stiplede linjer i boksen ovenfor, helt ubestemte.

I løbet af forskningen bliver det åbenlyst, at de fleste menneskers udtalelser hurtigt går mod "hovedlejr", og tre fjerdedele af eksperterne falder i to underkampe i hovedlejr.

Image
Image

Vi besøger begge disse lejre fuldt ud. Lad os starte med sjov.

Hvorfor kunne fremtiden være vores største drøm?

Når vi udforsker AI-verdenen, finder vi overraskende mange mennesker i vores komfortzone. Folket i øverste højre firkant brummer af spænding. De tror, at vi vil falde på den gode side af loggen, og de tror også, at vi uundgåeligt vil komme til dette. For dem er fremtiden kun det bedste, man kun kan drømme om.

Det punkt, der adskiller disse mennesker fra andre tænkere er ikke, at de ønsker at være på den glade side - men at de er sikre på, at hun venter på os.

Denne tillid kommer ud af kontrovers. Kritikere mener, at det kommer fra blændende spænding, der overskygger potentielle negative sider. Men talsmænd siger, at dystre forudsigelser altid er naive; teknologien fortsætter og vil altid hjælpe os mere end at skade os.

Du er fri til at vælge nogen af disse udtalelser, men læg skeptik til side og se godt på den glade side af balancestrålen ved at forsøge at acceptere det faktum, at alt hvad du læser om muligvis allerede er sket. Hvis du viste jæger-samlere vores verden af komfort, teknologi og uendelig overflod, ville det synes for dem som en magisk fiktion - og vi opfører os ganske beskedent og er ikke i stand til at indrømme, at den samme uforståelige transformation venter os i fremtiden.

Nick Bostrom beskriver tre stier, som et superintelligent AI-system kan gå:

Et orakel, der kan besvare ethvert nøjagtigt spørgsmål, herunder komplekse spørgsmål, som mennesker ikke kan svare på - for eksempel "hvordan man kan gøre en bilmotor mere effektiv?" Google er en primitiv type "oracle".

En genie, der vil udføre enhver kommando på højt niveau - ved hjælp af molekylær assembler til at oprette en ny, mere effektiv version af en bilmotor - og vente til den næste kommando.

En suveræn, der har bred adgang og evnen til at fungere frit i verden, tage sine egne beslutninger og forbedre processen. Han vil opfinde en billigere, hurtigere og sikrere måde at privat transport på end en bil.

Disse spørgsmål og opgaver, som synes vanskelige for os, vil se superintelligent-systemet ud, som om nogen blev bedt om at forbedre situationen”min blyant faldt ned af bordet”, hvor du simpelthen ville afhente den og sætte den tilbage.

Eliezer Yudkowski, en amerikansk ekspert på kunstig intelligens, udtrykte det godt:

”Der er ingen hårde problemer, kun problemer, der er svære for et vist niveau af intelligens. Gå et skridt højere (med hensyn til intelligens), og nogle problemer vil pludselig flytte fra kategorien "umuligt" til lejren for "indlysende". Et skridt højere - og de vil alle blive indlysende."

Der er mange utålmodige videnskabsmænd, opfindere og iværksættere, der har valgt en zone med selvsikker komfort på vores bord, men vi har kun brug for en guide til at gå efter det bedste i denne bedste verdener.

Ray Kurzweil er tvetydig. Nogle afguder hans ideer, andre foragter. Nogle bliver i midten - Douglas Hofstadter, der diskuterede ideerne i Kurzweils bøger, bemærkede veltalende, at "det er som om du tog en masse god mad og en lille hundebæsj, og blandede derefter alt sammen på en sådan måde, at det er umuligt at forstå, hvad der er godt og hvad der er dårligt."

Uanset om du kan lide hans ideer eller ej, er det umuligt at gå forbi dem uden en skygge af interesse. Han begyndte at opfinde ting som teenager, og i de følgende år opfandt han adskillige vigtige ting, inklusive den første flatbed-scanner, den første scanner, der konverterede tekst til tale, den velkendte Kurzweil musical synthesizer (den første rigtige elektriske klaver) og den første kommercielt succesrige talegenkender. Han er også forfatter til fem sensationelle bøger. Kurzweil er værdsat for sine dristige forudsigelser, og hans track record er ganske god - i slutningen af 80'erne, da Internettet stadig var i sin spædbarn, forudsagde han, at Internet i 2000'erne ville blive et globalt fænomen. Wall Street Journal kaldte Kurzweil for et "rastløst geni", Forbes en "global tankemaskine," Inc. Magazine - "Edisons retmæssige arving", Bill Gates - "den bedste af demder forudsiger fremtiden for kunstig intelligens. " I 2012 inviterede Google-medstifter Larry Page Kurzweil til stillingen som CTO. I 2011 grundlagde han grundlæggende Singularity University, som er vært for NASA og delvis sponsoreret af Google.

Hans biografi betyder noget. Når Kurzweil taler om sin vision for fremtiden, lyder det som vanvittigt skør, men det virkelig skøre ved det er, at han er langt fra skør - han er utrolig smart, veluddannet og fornuftig person. Du tror måske, at han tager fejl i sine forudsigelser, men han er ikke en fjols. Kurzweils forudsigelser deles af mange eksperter i komfortzone, Peter Diamandis og Ben Herzel. Dette er hvad han tror vil ske.

kronologi

Kurzweil mener, at computere vil nå niveauet for generel kunstig intelligens (AGI) i 2029, og i 2045 vil vi ikke kun have kunstig superintelligens, men også en helt ny verden - tiden for den såkaldte singularitet. Dens kronologi af AI betragtes stadig som uhyrligt overdrevet, men i løbet af de sidste 15 år har den hurtige udvikling af højt fokuserede kunstige intelligens (AI) -systemer tvunget mange eksperter til side med Kurzweil. Hans forudsigelser er stadig mere ambitiøse end Bostroms undersøgelse (AGI i 2040, ISI i 2060), men ikke meget.

Ifølge Kurzweil driver tre samtidige omdrejninger inden for bioteknologi, nanoteknologi og, endnu vigtigere, AI entydigheden i 2045. Men inden vi går videre - og nanoteknologi følger nøje med kunstig intelligens - lad os tage et minut til nanoteknologi.

Image
Image

Et par ord om nanoteknologi

Vi kalder normalt nanoteknologiteknologier, der beskæftiger sig med manipulation af stof i området 1-100 nanometer. En nanometer er en milliarddel af en meter eller en milliondel af en millimeter; inden for området fra 1-100 nanometer, kan vira (100 nm i diameter), DNA (10 nm i bredden), hæmoglobinmolekyler (5 nm), glukose (1 nm) og mere tilpasses. Hvis nanoteknologi nogensinde bliver vores emne, er det næste skridt at manipulere individuelle atomer, der er mindre end en størrelsesorden (~, 1 nm).

For at forstå, hvor mennesker har problemer med at manipulere stof i en sådan skala, lad os hoppe til en større skala. Den internationale rumstation ligger 481 kilometer over Jorden. Hvis mennesker var giganter og ramte ISS med deres hoveder, ville de være 250.000 gange større, end de er nu. Hvis du forstørrer noget fra 1 til 100 nanometer 250.000 gange, får du 2,5 centimeter. Nanoteknologi er ækvivalent med et menneske, der kredser rundt om ISS, forsøger at manipulere ting på størrelse med et sandkorn eller en øjeeple. For at komme til det næste niveau - kontrol af individuelle atomer - skal giganten nøje placere genstande med en diameter på 1/40 millimeter. Almindelige mennesker har brug for et mikroskop for at se dem.

For første gang talte Richard Feynman om nanoteknologi i 1959. Derefter sagde han:”Fysikens principper, så vidt jeg kan fortælle, taler ikke imod muligheden for at kontrollere ting atom for atom. I princippet kunne en fysiker syntetisere ethvert kemikalie, som en kemiker har skrevet ned. Hvordan? Ved at placere atomer, hvor kemikeren siger at få stoffet. Dette er hele enkelheden. Hvis du ved, hvordan man bevæger individuelle molekyler eller atomer, kan du gøre næsten hvad som helst.

Nanoteknologi blev et alvorligt videnskabeligt felt i 1986, da ingeniør Eric Drexler præsenterede dens fundament i sin sædbog, Machines of Creation, men Drexler mener selv, at de, der ønsker at lære mere om moderne ideer i nanoteknologi, skulle læse hans bog fra 2013. Fuld overflod (Radical Abundance).

Når vi kommer til bunden af nanoteknologien, kan vi bruge det til at oprette tekniske apparater, beklædning, mad, bioprodukter - blodlegemer, virus- og kræftbekæmpere, muskelvæv og så videre - hvad som helst. Og i en verden, der bruger nanoteknologi, vil prisen på et materiale ikke længere være bundet til dets knappe eller kompleksiteten i dets fremstillingsproces, men snarere til kompleksiteten af dets atomstruktur. I nanoteknologiens verden kunne en diamant være billigere end et viskelæder.

Vi er ikke engang tæt der endnu. Og det er ikke helt klart, om vi undervurderer eller overvurderer kompleksiteten af denne vej. Alt går imidlertid til det punkt, at nanoteknologi ikke er langt væk. Kurzweil antager, at vi i 2020'erne vil have dem. Verdensstaterne ved, at nanoteknologi kan love en stor fremtid, og derfor investerer de mange milliarder i dem.

Forestil dig hvilke muligheder en superintelligent computer ville have, hvis den kom til en pålidelig nanoskala-samler. Men nanoteknologi er vores idé, og vi prøver at ride på den, det er svært for os. Hvad hvis de bare er en vittighed for ISI-systemet, og ISI selv kommer med teknologier, der vil være mange gange mere magtfulde end noget, vi i princippet kan antage? Vi var enige om: ingen kan forestille sig, hvad kunstig superintelligens vil være i stand til? Det menes, at vores hjerner ikke er i stand til at forudsige selv minimumet af, hvad der vil ske.

Hvad kunne AI gøre for os?

Bevæbnet med superintelligens og al den teknologi, superintelligens kan skabe, vil ISI sandsynligvis være i stand til at løse alle menneskehedens problemer. Global opvarmning? ISI vil først stoppe kulstofemissionerne ved at opfinde en række effektive ikke-fossile brændstoffer til generering af energi. Han vil derefter komme på en effektiv, innovativ måde at fjerne overskydende CO2 fra atmosfæren. Kræft og andre sygdomme? Ikke et problem - sundhedsydelser og medicin vil ændre sig på måder, som det er umuligt at forestille sig. Verdenssult? ISI vil bruge nanoteknologi til at skabe kød, der er identisk med naturligt, fra bunden, ægte kød.

Image
Image

Nanoteknologi vil være i stand til at forvandle en bunke med affald til et vat med frisk kød eller anden mad (ikke nødvendigvis engang i den sædvanlige form - forestil dig en kæmpe æblekube) og distribuere al denne mad rundt om i verden ved hjælp af avancerede transportsystemer. Naturligvis vil dette være godt for dyr, der ikke længere er nødt til at dø for mad. ISI kan også gøre mange andre ting, som at bevare truede arter eller endda bringe tilbage uddøde sådanne fra konserveret DNA. ISI kan løse vores mest vanskelige makroøkonomiske problemer - vores sværeste økonomiske debatter, etiske og filosofiske spørgsmål, global handel - som alle vil være smerteligt indlysende for ISI.

Men der er noget meget specielt, som ISI kunne gøre for os. Lokkende og fristende, der ville ændre alt: ISI kan hjælpe os med at tackle dødeligheden. Når du gradvis forstå AI's muligheder, vil du måske genoverveje alle dine ideer om død.

Der var ingen grund til, at evolutionen forlænger vores levetid længere end den gør nu. Hvis vi lever længe nok til at føde og opdrage børn til det punkt, hvor de kan passe for sig selv, er evolution nok. Fra et evolutionært synspunkt er 30+ år nok til udvikling, og der er ingen grund til mutationer for at forlænge livet og reducere værdien af naturlig selektion. William Butler Yates kaldte vores art "en sjæl knyttet til et døende dyr." Ikke meget sjovt.

Og da vi alle dør en dag, lever vi med tanken om, at døden er uundgåelig. Vi tænker over aldring over tid - fortsætter med at komme videre og ikke være i stand til at stoppe denne proces. Men tanken om død er forræderisk: fanget af den glemmer vi at leve. Richard Feynman skrev:

”Der er en vidunderlig ting i biologien: der er intet i denne videnskab, der taler om nødvendigheden af død. Hvis vi ønsker at oprette en evig bevægelsesmaskine, er vi klar over, at vi har fundet nok love i fysik, der enten angiver umuligheden af dette, eller at lovene er forkerte. Men der er intet i biologien, der kan indikere dødens uundgåelighed. Dette får mig til at tro, at det ikke er så uundgåeligt, og det er kun et spørgsmål om tid, før biologer opdager årsagen til dette problem, denne frygtelige universelle sygdom, det vil blive helbredt."

Faktum er, at aldring ikke har noget at gøre med tiden. Aldring er når kroppens fysiske materialer slides. Bildele nedbrydes også - men er aldring uundgåelig? Hvis du fortsat reparerer din bil, når delene slides, vil den vare evigt. Den menneskelige krop er ikke anderledes - bare mere kompleks.

Kurzweil taler om intelligente, Wi-Fi-tilsluttede nanobots i blodbanen, der kunne udføre utallige opgaver for menneskers sundhed, herunder regelmæssigt reparation eller udskiftning af udslidte celler overalt i kroppen. Forbedring af denne proces (eller at finde et alternativ foreslået af et smartere ASI) holder ikke kun kroppen sund, det kan vende aldring. Forskellen mellem kroppen af en 60-årig og en 30-årig ligger i en håndfuld fysiske problemer, der kunne rettes med den rigtige teknologi. ISI kunne bygge en bil, som en person ville komme ind i, når de er 60 år gamle og forlade, når de er 30 år gamle.

Selv en nedbrudt hjerne kunne fornyes. ISI ville helt sikkert vide, hvordan man gør dette uden at påvirke hjernedataene (personlighed, minder osv.). En 90 år gammel mand, der lider af fuldstændig hjernedegradering, kunne gennemgå omskoling, fornyelse og vende tilbage til begyndelsen af sit liv. Det kan virke absurd, men kroppen er en håndfuld atomer, og ISI kunne bestemt let manipulere dem, alle atomstrukturer. Det er ikke så absurd.

Kurzweil mener også, at kunstige materialer vil integreres mere og mere i kroppen, når tiden går. Til at starte med kunne organerne erstattes med superavancerede maskinversioner, der ville vare evigt og aldrig mislykkes. Derefter kunne vi udføre en komplet kropsdesign ved at udskifte røde blodlegemer med perfekte nanobotter, der bevæger sig på egen hånd og eliminere behovet for et hjerte helt. Vi kunne også forbedre vores kognitive evner, begynde at tænke milliarder af gange hurtigere og få adgang til al information tilgængelig for menneskeheden gennem skyen.

Mulighederne for at forstå nye horisonter ville være uendelige. Folk har formået at give sex et nyt formål, de gør det til glæde og ikke kun for reproduktion. Kurzweil mener, at vi kan gøre det samme med mad. Nanobots kunne levere ideel ernæring direkte til cellerne i kroppen, så usunde stoffer kan passere gennem kroppen. Nanoteknologi-teoretiker Robert Freitas har allerede udviklet en erstatning for blodlegemer, der, når de implementeres i den menneskelige krop, kan give ham mulighed for ikke at trække vejret i 15 minutter - og dette blev opfundet af en person. Forestil dig, hvornår ISI får magt.

Når alt kommer til alt tror Kurzweil, at mennesker vil nå det punkt, hvor de bliver helt kunstige; tidspunktet, hvor vi ser på biologiske materialer og tænker over, hvor primitive de var; tidspunkt, hvor vi vil læse om de tidlige stadier i menneskets historie, forbløffet over, hvordan bakterier, ulykker, sygdomme eller simpelthen alderdom kunne dræbe en person mod hans vilje. I sidste ende vil mennesker besejre deres egen biologi og blive evige - dette er vejen til den glade side af balancestrålen, som vi har talt om helt fra begyndelsen. Og folk, der tror på dette, er også sikre på, at en sådan fremtid venter os meget, meget snart.

Du vil sandsynligvis ikke blive overrasket over, at Kurzweils ideer har fremkaldt hård kritik. Dets singularitet i 2045 og det efterfølgende evige liv for mennesker blev kaldt "opstigningen af nørder" eller "intelligent skabelse af mennesker med en IQ på 140". Andre satte spørgsmålstegn ved den optimistiske tidsramme, forståelse af den menneskelige krop og hjerne, mindet om Moores lov, som endnu ikke er forsvundet. For hver ekspert, der tror på Kurzweils ideer, er der tre, der mener, at han tager fejl.

Men det mest interessante ved dette er, at de fleste af de eksperter, der er uenige med ham, generelt ikke siger, at dette er umuligt. I stedet for at sige "bullshit, vil dette aldrig ske", siger de noget i retning af "alt dette vil ske, hvis vi kommer til ISI, men dette er fangsten." Bostrom, en af de anerkendte AI-eksperter, der advarer om faren for AI, indrømmer også:

”Der er næppe noget problem tilbage, som superintelligensen ikke kan løse eller endda hjælpe os med at løse. Sygdom, fattigdom, ødelæggelse af miljøet, lidelse af alle slags - al denne superintelligens ved hjælp af nanoteknologi kan løse på et øjeblik. Superintelligens kan også give os ubegrænset levetid ved at stoppe og vende aldringsprocessen ved hjælp af nanomedicin eller evnen til at uploade os til skyen. Superintelligens kan også skabe muligheder for uendelige stigninger i intellektuelle og følelsesmæssige evner; han kan hjælpe os med at skabe en verden, hvor vi vil leve i glæde og forståelse, nærme os vores idealer og regelmæssigt gøre vores drømme til virkelighed."

Dette er et citat fra en af Kurzweils kritikere, der dog indrømmer, at alt dette er muligt, hvis vi kan skabe et sikkert ASI. Kurzweil definerede simpelthen, hvilken kunstig superintelligens der skulle blive, hvis det overhovedet var muligt. Og hvis han er en god gud.

Den mest åbenlyse kritik af talsmændene for komfortzone er, at de kan fordømmes forkert i vurderingen af ISIs fremtid. I sin bog The Singularity afsatte Kurzweil 20 sider ud af 700 potentielle ISI-trusler. Spørgsmålet er ikke, hvornår vi kommer til ISI, spørgsmålet er, hvad der vil være dens motivation. Kurzweil besvarer dette spørgsmål med forsigtighed:”ISI stammer fra mange forskellige bestræbelser og vil blive dybt integreret i infrastrukturen i vores civilisation. Faktisk vil det være tæt integreret i vores krop og hjerne. Han vil afspejle vores værdier, fordi han vil være en med os."

Men hvis svaret er, hvorfor er så mange smarte mennesker i denne verden bekymrede for fremtiden for kunstig intelligens? Hvorfor siger Stephen Hawking, at udviklingen af ISI "kan betyde slutningen på den menneskelige race"? Bill Gates siger, at han "ikke forstår folk, der ikke er generet" om det. Elon Musk frygter, at vi "indkalder en dæmon." Hvorfor betragter mange eksperter ISI som den største trussel mod menneskeheden?

Baseret på materialer fra waitbutwhy.com, samling af Tim Urban. Artiklen bruger materialer fra værkerne af Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog og Kai Sotal, Susan Schneider, Stuart Russell og Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Forfatter: Ilya Khel

Del tre: hvorfor kan det være vores sidste opfindelse?