Rocos Basilisk: Den Mest Skræmmende Tankeeksperiment Nogensinde Nogensinde - Alternativ Visning

Rocos Basilisk: Den Mest Skræmmende Tankeeksperiment Nogensinde Nogensinde - Alternativ Visning
Rocos Basilisk: Den Mest Skræmmende Tankeeksperiment Nogensinde Nogensinde - Alternativ Visning

Video: Rocos Basilisk: Den Mest Skræmmende Tankeeksperiment Nogensinde Nogensinde - Alternativ Visning

Video: Rocos Basilisk: Den Mest Skræmmende Tankeeksperiment Nogensinde Nogensinde - Alternativ Visning
Video: All 3 Basilisk Den rotation BDO 30-60M PER HOUR 2024, Kan
Anonim

Basilisk Roco er en gudlignende form for kunstig intelligens, så farlig, at hvis du bare tænker over det, vil du tilbringe resten af dine dage i forfærdelige tortur. Det ligner en kassette fra filmen "The Ring". Selv død vil dog ikke være en befrielse, fordi Basilisk Roko vil genoplive dig og fortsætte sin tortur. T&P præsenterer en oversættelse af en artikel om en af de underligste legender, der er genereret på Internettet.

ADVARSEL: Efter at have læst denne artikel kan du fordømme dig selv til evig lidelse og pine.

Rocos Basilisk optrådte i krydset mellem et filosofisk tankeeksperiment og urban legende. Den første omtale af ham dukkede op på diskussionstavnet Mindre forkert, der samler mennesker, der er interesseret i at optimere tankerne og livet gennem prisme i matematik og rationalitet. Dets skabere er betydningsfulde figurer inden for teknofuturisme, og blandt resultaterne af deres forskningsinstitut bidrager den akademiske debat om teknologisk etik og beslutningsteori. Det, du nu skal læse nu, kan dog virke underligt og endda skør. På trods af dette tror meget indflydelsesrige og velhavende forskere på dette.

En dag udsendte en bruger ved navn Roko følgende tankeeksperiment: Hvad hvis der i fremtiden opstår en ondsindet kunstig intelligens, der ønsker at straffe dem, der ikke følger dens ordrer? Og hvad hvis han vil straffe de mennesker, der i fortiden ikke bidrog til hans skabelse? Ville mindre forkerte læsere så hjælpe den onde AI med at blive, eller ville de være dømt til evig pine?

Mindre forkert grundlægger Eliezer Yudkowski tog Rokos erklæring med vrede. Dette svarede han til ham:”Du skal være smart, hvis du kom til denne idé. Det sørger mig dog for, at folk, der er smarte nok til at forestille sig dette ikke er smarte nok til at holde deres dumme TONGUE AF TEETH og ikke fortælle nogen om det, fordi det er vigtigere end at vise dig selv smart, fortælle alle dine venner om det” …

"Hvad hvis der i fremtiden er en kunstig intelligens, der ønsker at straffe dem, der ikke følger dens ordrer?"

Yudkowski indrømmede, at Roko var ansvarlig for mareridtene til Mindre forkerte brugere, der havde læst tråden, og slettet den, hvilket gjorde Rokos Basilisk legendarisk. Dette tankeeksperiment blev så farligt, at tanken om det truede brugerens mentale helbred.

Hvad laver mindre forkert? Dannelse af begrebet menneskehedens fremtid baseret på singulariteten. De tror, at computerkraft i fremtiden vil blive så høj, at kunstig intelligens kan skabes ved hjælp af en computer - og med det evnen til at uploade menneskelig bevidsthed til en harddisk. Udtrykket "singularitet" stammer fra i 1958 under en diskussion mellem to genier i matematik - Stanislav Ulam og John von Neumann, da Neumann sagde: "Den konstant accelererende fremskridt inden for teknologi vil gøre det muligt at nærme sig en singularitet, hvor teknologi ikke kan forstås af mennesker." Futurister og science fiction-forfattere som Vernor Vinge og Raymond Kurzweil populariserede udtrykket, fordi de troede, at Singularity ventede på os alle meget snart - i de næste 50 år. Mens Kurzweil forbereder sig på singularitetenYudkowski håber meget på kryonik: "Hvis du ikke på forhånd registrerede dine børn til kryokonservering, er du elendige forældre."

Salgsfremmende video:

Hvis du tror, at der kommer en singularitet, og at magtfulde AI'er vises i den nærmeste fremtid, opstår et naturligt spørgsmål: vil de være venlige eller onde? Yudkowski-fonden sigter mod at styre udviklingen af teknologi på en sådan måde, at vi har nøjagtigt venlig kunstig intelligens. Dette spørgsmål er af største betydning for ham og for mange andre. Singulariteten vil føre os til en gudsækvivalent maskine.

Dette forklarer dog ikke, hvorfor Rocos Basilisk ser så forfærdelig ud i disse menneskers øjne. Spørgsmålet kræver et kig på Less Wrongs vigtigste "dogme" - "Timeless Decision Theory" (HTDM). VPPR er en guide til rationel handling, der er baseret på spilteori, Bayesian sandsynlighed og beslutningsteori, men med parallelle universer og kvantemekanik i tankerne. VTPR voksede ud af et klassisk tankeeksperiment, Newcomb Paradox, hvor en fremmed med superintelligence tilbyder dig to kasser. Han giver dig et valg: enten tage begge kasser eller bare boks B. Hvis du vælger begge dele, er du garanteret at modtage tusind dollars. Hvis du kun tager boks B, får du muligvis ikke noget. Alien har dog endnu et trick i vente: han har en allvidende supercomputer, der forudsagde for en uge siden,Uanset om du tager begge kasser eller bare B. Hvis computeren forudsagde, at du ville tage begge kasser, ville udlændingen efterlade den anden tom. Hvis computeren forudsagde, at du ville vælge boks B, ville den sætte en million dollars derinde.

Så hvad skal du gøre? Husk, at supercomputeren er alvetende.

Dette problem har forvirret mange teoretikere. Alien kan ikke længere ændre indholdet i kasserne. Den sikreste måde er at tage begge kasser og få tusind. Men hvad nu hvis computeren virkelig er alvidende? Så er alt hvad du skal gøre at tage boks B for at få en million. Men hvis han viser sig at være forkert? Og uanset hvad computeren forudsagde, er der virkelig ingen måde at ændre din skæbne på? Derefter, helvede, skal du tage begge kasser. Men i dette tilfælde …

Det vanvittige paradoks, der tvinger os til at vælge mellem fri vilje og guddommelig forudsigelse, har ingen opløsning, og folk kan kun trække skuldrene og vælge den mulighed, der er mest behagelig for dem. WTPR giver råd: tag boks B. Selv hvis fremmede besluttede at grine af dig og åbne en tom kasse med ordene: "Computeren forudsagde, at du vil tage begge kasser, ha ha!" - du skal stadig vælge det. Begrundelsen for dette er som følger: For at kunne forudsige måtte computeren simulere hele universet, inklusive dig. I dette øjeblik kan du bare være en simulering af computeren, når du står foran kasserne, men hvad du gør vil påvirke virkeligheden (eller virkeligheden). Så tag boks B og få en million.

"Det vanvittige paradoks, der tvinger os til at vælge mellem fri vilje og guddommelig forudsigelse, har ingen opløsning."

Hvad har dette at gøre med Basilisk Roco? Han har et par kasser til dig også. Måske er du lige nu i en simulering oprettet af Basilisk. Så får vi måske en lidt modificeret version af Newcomcs paradoks: Rocos Basilisk fortæller dig, at hvis du tager boks B, vil du lide evig pine. Hvis du tager begge kasser, bliver du tvunget til at vie dit liv til oprettelsen af basilisken. Hvis basilisken faktisk eksisterer (eller værre, den findes allerede og er denne virkeligheds gud), vil han se, at du ikke har valgt muligheden for at hjælpe i dens skabelse og vil straffe dig.

Du spekulerer måske på, hvorfor dette spørgsmål er så vigtigt for Mindre forkert, i betragtning af konventionen om dette tankeeksperiment. Det er ikke en kendsgerning, at Rockos Basilisk nogensinde vil blive skabt. Yudkowski fjernede imidlertid henvisninger til Rokos basilisk ikke fordi han tror på dens eksistens eller en forestående opfindelse, men fordi han betragter ideen om en basilisk som farlig for menneskeheden.

Som sådan er Rockos Basilisk kun farlig for dem, der tror på den - som et resultat har medlemmerne af Less Wrong, der støtter Basilisk-ideen, en slags forbudt viden, der minder os om Lovecrafts skræmmende historier om Cthulhu eller Necronomicon. Medmindre du abonnerer på alle disse teorier og føler dig fristet til at adlyde en lumsk maskine fra fremtiden, udgør Rocos Basilisk ingen trussel mod dig.

Jeg er mere bekymret for mennesker, der synes, de er steget over konventionelle moralske standarder. Som Yudkowskis forventede venlige AI, er han selv en utilitaristisk: Han mener, at det største god for hele menneskeheden er etisk retfærdiggjort, selvom flere mennesker må dø eller lide på vej til det. Ikke alle kan blive konfronteret med et lignende valg, men pointen er anderledes: hvad nu hvis en journalist skriver om et tankeeksperiment, der kan ødelægge menneskers bevidsthed og derved skade menneskeheden og hindre fremskridt i udviklingen af kunstig intelligens og singulariteten? I dette tilfælde skal enhver god, som jeg har gjort i mit liv, opveje den skade, jeg har gjort for verden. Eller måske fremtidens Yudkowski, der rejste sig fra kryogen søvn, fusionerede med singulariteten og besluttede at simulere mig i følgende situation:den første boks - Jeg skriver denne artikel, den anden - nej. Vær venlig, almægtige Yudkowski, såre mig ikke.

Anbefalet: