Hvordan Kan Vi Beskytte Os Mod Kunstig Intelligens? - Alternativ Visning

Indholdsfortegnelse:

Hvordan Kan Vi Beskytte Os Mod Kunstig Intelligens? - Alternativ Visning
Hvordan Kan Vi Beskytte Os Mod Kunstig Intelligens? - Alternativ Visning

Video: Hvordan Kan Vi Beskytte Os Mod Kunstig Intelligens? - Alternativ Visning

Video: Hvordan Kan Vi Beskytte Os Mod Kunstig Intelligens? - Alternativ Visning
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, September
Anonim

Tanken om, at kunstig intelligens uundgåeligt vil føre os til et scenarie, hvor maskiner oprører mod mennesker, er ret populær. Kunstig superintelligens synes at være den størst mulige trussel, og de fantastiske historier, efter hvilke vi ikke vil være nødvendige i en verden, der ejes af teknologi, har aldrig mistet populariteten.

Er det uundgåeligt?

Den litterære og filmatiske skildring af intelligente computersystemer fra 1960'erne har bidraget til at forme og sammenfatte vores forventninger til fremtiden, når vi går ud på rejsen for at skabe maskineintelligens, der overgår menneskelig intelligens. AI har åbenbart allerede overgået mennesker i bestemte specifikke opgaver, der kræver kompleks beregning, men hænger stadig tilbage i en række andre muligheder. Hvordan man samtidig øger kraften i dette barske værktøj og bevarer vores økonomiske position over det.

Da kunstig intelligens allerede spiller og vil fortsat spille en stor rolle i vores fremtid, er det bydende nødvendigt at udforske vores muligheder for at eksistere sammen med disse komplekse teknologier.

Kevin Abosch, grundlægger af Kwikdesk, et databehandlings- og kunstig intelligensfirma, delte sine tanker om dette. Han mener, at kunstig intelligens skal være hurtig, uanset, pålidelig, læse og etisk. Ja, etisk.

Etiske rammer

Salgsfremmende video:

Begrebet et kunstigt neuralt netværk, der er modelleret efter et biologisk neuralt netværk, er ikke noget nyt. Enheder af computerkraft, kaldet neuroner, forbinder hinanden for at danne et netværk. Hver neuron anvender en sofistikeret indlæringsalgoritme på inputet, før data overføres til andre neuroner, indtil neuronet på output er aktiveret og åbner muligheden for læsning. Ekspert-systemer er afhængige af at folk "lærer" systemet og planter frø af viden. Logikmotorer kigger efter kampe, træffer valg, indstiller hvis-dette-da-derefter regler til vidensbasen. I denne proces tilføjes ny viden til vidensbasen. Et rent neuralt netværk lærer i processen at få ikke-lineær erfaring, har ikke problemet med at så viden af en ekspert. Hybride netværk har bevistsom forbedrer maskinernes indlæringsfunktioner.

Lad os nu se på de etiske spørgsmål ved sådanne systemer. Længere fra den første person.

Image
Image

"Dårlig kode" kontra god kode

Forfatteren bruger ord for at fordype læseren i en fiktiv verden og gør det på forskellige måder, men store forfattere gør det meget yndefuldt. En softwareingeniør skriver kodelinjer, der letter behandlingen og bevægelsen af data. Han kan også vælge mellem en række muligheder på forskellige måder, men de yndefulde kodere er computervidenskabelige folkere. Den fremadrettede koder fokuserer på, hvordan man indkapsler så meget og bedre som muligt i kort og pæn kode. Redundant kode holdes på et minimum. Fantastisk kode holder også vinduet åbent for fremtidige tilføjelser. Andre ingeniører kan tilføje kode med deres iboende elegance, og produktet udvikler sig problemfrit.

Ethvert menneskeskabt produkt er baseret på intention. Ting, der er lavet af mennesker, er mættet med intentioner, og i en eller anden grad er bærere af selve skaberen. Nogle mennesker har svært ved at forestille sig et livløst objekt af denne art. Men mange er enige i dette. Intensionsenergi har eksisteret i tusinder af år, forener, opdeler, forener, transformerer samfundet. Sprogets magt må heller ikke undervurderes. Glem ikke at kodelinjer er skrevet på et specifikt programmeringssprog. Således er jeg overbevist om, at den kode, der bliver software, der bruges på computere eller mobile enheder, er meget "levende".

Uden at overveje visdom og spiritualitet i forbindelse med computervidenskab og de potentielle konsekvenser af kunstig intelligens, kan vi stadig se statisk kode som en helhed med potentialet til at "gøre godt" eller "gøre ondt." Disse output findes kun i processen med at bruge applikationer fra mennesker. Det er de klare valg, mennesker træffer, der påvirker applikationens art. De kan ses i et lokalt system, bestemmelse af den positive eller negative indvirkning på dette system eller baseret på et sæt foruddefinerede standarder. Men ligesom en journalist ikke kan være 100% upartisk i processen med at skrive en artikel, så tilføjer en ingeniør villigt eller uforvarende arten af sine intentioner til koden. Nogle argumenterer måske for, at det at skrive kode er en logisk proces, og reel logik ikke giver plads til naturen.

Men jeg er sikker på, at i det øjeblik, du opretter en regel, en kodeblok eller hele koden, er det hele gennemboret af et element af menneskelig natur. Med hver ekstra regel uddybes artenes penetration. Jo mere kompleks koden er, jo mere er denne karakter i den. Derfor opstår spørgsmålet: "Kan kodens art være god eller ond?"

Det er klart, at en virus, der er udviklet af en hacker, der ondsindet bryder igennem din computers forsvar og skaber ødelæggelse i dit liv, er mættet med en ond natur. Men hvad med en virus oprettet af de gode fyre til at infiltrere en terroristorganisations computere for at forhindre terrorangreb? Hvad er dens natur? Teknisk set kunne det være identisk med dets afskyelige modstykke, der lige blev brugt til "gode" formål. Så hans natur er venlig? Dette er hele det etiske paradoks for malware. Men vi kunne ikke ignorere det ved at tænke på den "onde" kode.

Efter min mening er der kode, der iboende tynger mod "ondskab", og der er kode, der i sagens natur er partisk over for goodwill. Dette er mere vigtigt i forbindelse med offline computere.

Image
Image

Hos Kwikdesk udvikler vi en AI-ramme og -protokol baseret på mit ekspertsystem / neurale netværkshybriddesign, der mest ligner en biologisk model. Neuroner manifesterer sig som I / O-moduler og virtuelle enheder (på en måde autonome agenter) forbundet med "aksoner", sikre, adskilte kanaler med krypterede data. Disse data dekrypteres, når de kommer ind i neuronet, og efter at visse processer er krypteret, før de sendes til den næste neuron. Inden neuroner kan kommunikere med hinanden gennem en akson, skal der ske en nøgleudveksling mellem deltageren og kanalen.

Jeg mener, at sikkerhed og adskillelse bør indbygges i sådanne netværk fra det laveste niveau. Overbygninger afspejler kvaliteten af deres mindste komponenter, så alt mindre end sikre byggesten vil resultere i usikker drift af hele linjen. Af denne grund skal dataene beskyttes lokalt og dekrypteres, når de overføres lokalt.

Implementering og garantier

Kvaliteten af vores liv sammen med maskiner, der bliver smartere og smartere, er forståeligt foruroligende, og jeg er helt overbevist om, at vi skal tage skridt til at sikre en sund fremtid for de kommende generationer. Truslerne mod smarte maskiner er potentielt forskellige, men kan opdeles i følgende kategorier:

Reservation. På arbejdspladser erstattes folk af maskiner. Dette skift har fundet sted i årtier og vil kun fremskynde. Der er behov for en passende uddannelse for at forberede folk på en fremtid, hvor hundreder af millioner af traditionelle job simpelthen vil ophøre med at eksistere. Det er kompliceret.

Sikkerhed. Vi stoler helt på maskiner og vil fortsætte med at stole på. Efterhånden som vi i stigende grad stoler på maskiner, når vi bevæger os fra et sikkert område til et potentielt fareområde, kan vi risikere maskinfejl eller ondsindet kode. Tænk f.eks. På transport.

Sundhed. Personlige diagnostiske enheder og netværksmedicinske data. AI vil fortsætte med at udvikle sig inden for forebyggende medicin og analyse af genetisk dataforhold for menneskemængder. Igen, vi er nødt til at have forsikringer om, at disse maskiner ikke udfører ondsindet undergravning eller skader os på nogen måde.

Skæbne. AI forudsiger med stigende nøjagtighed, hvor du vil hen, og hvad du vil gøre. Når dette område udvikler sig, vil han vide, hvilke beslutninger vi tager, hvor vi skal hen i næste uge, hvilke produkter vi vil købe, eller endda når vi dør. Vil vi have, at andre skal have adgang til disse data?

Viden. Maskiner akkumulerer de facto viden. Men hvis de tilegner sig viden hurtigere, end mennesker kan teste den, hvordan kan vi så stole på dens integritet?

Afslutningsvis vil jeg bemærke, at en årvågen og ansvarlig tilgang til AI til at afbøde potentielle problemer i en teknologisk supernovaeksplosion er vores måde. Vi vil enten tæmme potentialet i AI og bede om, at det kun bringer det bedste til menneskeheden, eller vi brænder ud i dets potentiale, hvilket vil afspejle det værste i os.

Ilya Khel