"Vi Er Nødt Til At Tænke Nu, Hvordan Vi Kan Sikre Kunstig Intelligens" - Alternativ Visning

"Vi Er Nødt Til At Tænke Nu, Hvordan Vi Kan Sikre Kunstig Intelligens" - Alternativ Visning
"Vi Er Nødt Til At Tænke Nu, Hvordan Vi Kan Sikre Kunstig Intelligens" - Alternativ Visning

Video: "Vi Er Nødt Til At Tænke Nu, Hvordan Vi Kan Sikre Kunstig Intelligens" - Alternativ Visning

Video:
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, September
Anonim

Stephen Hawking fortsætter "korstoget" mod kunstig intelligens (AI).

Under den meget forventede Ask Me Everything om Reddit-kampagne skrev han, at arbejdet med at udvikle en AI-sikkerhedsprotokol skulle udføres nu, ikke i en fjern fremtid.

”Vores mål bør ikke være at skabe abstrakt kunstig intelligens, men at skabe nyttig intelligens,” skrev den berømte fysiker,”Det vil tage årtier at finde ud af, hvordan man gør dette, så lad os begynde at undersøge dette spørgsmål nu, ikke natten før den første avanceret AI”.

Hawking har brugt berømmelse til at støtte AI-sikkerhedsbevægelsen siden 2014, da han sammen skrev en redaktion med andre forskere, der advarede om den eksistentielle trussel, som avancerede maskiner udgør for menneskeheden.

Andre bemærkelsesværdige teknologiske personligheder, Elon Musk og Steve Wozniak, er blevet medlem af Hawking. Tidligere i dette underskrev alle tre et åbent brev, der opfordrede til et forbud mod autonome våben eller kamprobotter.

Forventninger om, at menneskeheden snart vil skabe kunstig intelligens, har eksisteret siden 50'erne og har endnu ikke retfærdiggjort sig selv. De fleste AI-forskere mener dog, at maskiner, der er lige så intelligente som mennesker, vil fremstå i dette århundrede.

Image
Image

Foto: ANDREW COWIE / AFP

Salgsfremmende video:

Hawking advarer om, at skildring af kunstig intelligens i science fiction-film forvrider den virkelige fare for maskiner. Film som Terminator skildrer dæmoniske killerrobotter, der forsøger at ødelægge menneskeheden af grunde, som ægte kunstig intelligens ikke havde. De gør det også lettere at afbøde potentiel AI-risiko (som at ikke bygge cyborgs).

”Den virkelige trussel fra AI er ikke, at den er ond, men at den er meget kapabel. Kunstig superintelligens er meget god til at udføre sine opgaver.

Hvis hans opgaver ikke falder sammen med vores, får vi problemer, - skrev Hawking, - du hader næppe myrer, men hvis du er ansvarlig for et grønt energiprojekt, og det område, hvor myren befinder sig, skal oversvømmes, er myrerne heldige. Lad os ikke lade menneskeheden finde sig i disse myrers position."

Nick Bostrom, en AI-filosof, fantaserer om verdensscenarier, når et program begynder at arbejde i forkert retning. F.eks. Får kunstig intelligens opgaven med at udvikle en plan til beskyttelse af miljøet, og for at løse økologiproblemet beslutter den at ødelægge menneskeheden.

Elon Musk har allerede forpligtet 10 millioner dollars til AI-sikkerhedsundersøgelser for at forhindre destruktiv kunstig intelligens som Skynet i at vises i Terminator. Men Hawking vil have folk til at ændre deres overordnede opfattelse af AI.

”Fortæl dine studerende om ikke kun at tænke på, hvordan man opretter AI, men også hvordan man sikrer, at det bruges til nyttige formål,” fortalte Hawking læreren, der holder foredrag om kunstig intelligens.”Fremkomsten af en AI, der overskrider mennesker, bliver enten den bedste eller den værste begivenhed i menneskets historie. Derfor er det vigtigt, at alt går som det skal."

Anbefalet: