Google ønsker Ikke At Oprette Skynet En Dag, Så Det Opretter En Switch Til AI - Alternativ Visning

Google ønsker Ikke At Oprette Skynet En Dag, Så Det Opretter En Switch Til AI - Alternativ Visning
Google ønsker Ikke At Oprette Skynet En Dag, Så Det Opretter En Switch Til AI - Alternativ Visning

Video: Google ønsker Ikke At Oprette Skynet En Dag, Så Det Opretter En Switch Til AI - Alternativ Visning

Video: Google ønsker Ikke At Oprette Skynet En Dag, Så Det Opretter En Switch Til AI - Alternativ Visning
Video: THE WALKING DEAD SEASON 2 COMPLETE GAME 2024, Juli
Anonim

Der er to vigtigste modsatte sider i spørgsmål og diskussioner om fremtiden for kunstig intelligens. I det ene hjørne er virksomheder som Google, Facebook, Amazon og Microsoft, der investerer aggressivt i teknologi for at gøre AI-systemer smartere, mens i det andet er de store tænkere i vores tid som Elon Musk og Stephen Hawking, der tror at udviklingen af AI er beslægtet med en "dæmonfortryllelse".

Et af de mest avancerede AI-virksomheder, DeepMind, der ejes af Google, har skabt sikkerhedsforanstaltninger i tilfælde af, at en person skal "overtage kontrollen med en robot, hvis fiasko kan føre til uoprettelige konsekvenser." Vi kan antage, at vi taler om … "dræb alle mennesker." Naturligvis er den trufne foranstaltning i virkeligheden ikke antydning til en mulig apokalypse, det handler snarere om sikkerhedsforanstaltninger forbundet med smarte robotter, der fungerer og vil arbejde i fremtiden i forskellige fabrikker og fabrikker.

Det offentliggjorte dokument med recept er et fælles arbejde fra DeepMind og Oxford Institute for the Future of Humanity, som, som navnet antyder, beskæftiger sig med emner, der giver denne menneskelighed mulighed for at komme ind i fremtiden. I årtier har instituttets grundlæggende direktør Nick Bostrom talt meget levende om de mulige farer ved udvikling af kunstig intelligens og skrevet mere end en bog om dette emne, hvor han drøftede konsekvenserne af at skabe superintelligente robotter.

Vejledningen, vi taler om i dag, kaldet "sikkert deaktiverede agenter", udforsker, hvordan man deaktiverer AI, hvis det begynder at gøre ting, som den menneskelige operatør ikke ønsker at gøre. Arbejdet består af forskellige beregninger og formler, som 99 procent af os sandsynligvis ikke vil forstå. Derfor snakker vi ganske enkelt om en "rød knap", der kan deaktivere AI.

Du griner måske og undrer dig, men pionererne inden for robotik og AI ser de samme sci-fi-film, som vi gør. Dem, i hvilke robotter engang regnede ud, hvordan man ignorerer shutdown-kommandoen. Så nu er vi klar til dette. Det offentliggjorte dokument beskriver metoder og løsninger for at sikre, at den "træningsbare agent" (læse AI) ikke kan lære at ignorere eller forhindre påvirkningen af det ydre miljø eller den menneskelige operatør.

Dette kan virke som overdreven, især når du overvejer, at den mest avancerede AI lige nu virkelig kun er god til brætspil. Bostrom mener imidlertid, at inden vi begynder at skabe AI for niveauet for den menneskelige hjerne, skal der træffes passende foranstaltninger:

”Så snart kunstig intelligens når det menneskelige niveau, forventes et skarpt spring i udviklingen på mange områder. Kort efter skaber AI'erne selv nye AI'er. Bare vurder disse udsigter og på samme tid de mulige farer. Derfor er det bedre at overdrive det end at gå glip af det."

NIKOLAY KHIZHNYAK

Salgsfremmende video: