Udviklingen Af AI Vinder Et Skræmmende Tempo: Hvorfor Udtrykker Udviklere Frygt For Det - Alternativ Visning

Indholdsfortegnelse:

Udviklingen Af AI Vinder Et Skræmmende Tempo: Hvorfor Udtrykker Udviklere Frygt For Det - Alternativ Visning
Udviklingen Af AI Vinder Et Skræmmende Tempo: Hvorfor Udtrykker Udviklere Frygt For Det - Alternativ Visning

Video: Udviklingen Af AI Vinder Et Skræmmende Tempo: Hvorfor Udtrykker Udviklere Frygt For Det - Alternativ Visning

Video: Udviklingen Af AI Vinder Et Skræmmende Tempo: Hvorfor Udtrykker Udviklere Frygt For Det - Alternativ Visning
Video: Udledning af formlen for a i en eksponentiel udvikling 2024, Kan
Anonim

Den teknologiske udvikling står ikke stille. I løbet af de sidste 100 år har menneskeheden taget et så stort skridt, at alle tidligere generationer ville have udbrudt overrasket. Det ser ud til, at der er utroligt mange grunde til glæde. Men her er fangsten: forskere er bange for, at fremskridtene skrider for hurtigt. Lad os finde ud af, hvorfor kunstig intelligens, eller AI, skaber så stor bekymring for førende udviklere.

Image
Image

Fremskridt, der ikke kun overrasker, men også skræmmer

De fleste mennesker kan leve hele deres liv og ikke engang vide, hvor meget vores verden har ændret sig. For at forstå, hvor langt menneskeheden er kommet med udviklingen af AI, skal du tænke på, hvornår biler først blev opfundet.

Forestil dig det vilde vesten eller Rusland, hvor folk red på heste til venstre og højre uden stoplys og sikkerhedsseler. Trafiksikkerhedsforanstaltninger blev truffet meget senere - da mange ulykker begyndte at forekomme.

I dag har AI udviklet selvkørende biler, der kan reducere trafikulykker til et minimum. Biler ved simpelthen hvordan man kommunikerer med hinanden, bygger en sikker rute og reagerer på pludselige forhindringer, der skaber nødsituationer på vejene.

Image
Image

Salgsfremmende video:

Ikke desto mindre fortsætter folk med at bekymre sig om kunstig intelligens. De stiller sig selv spørgsmålet: hvad vil der ske, når teknologier når de områder, hvor menneskelig beslutningstagning er nødvendig? Vil AI være i stand til fuldstændigt at erstatte de mennesker, der er ansvarlige for at ansætte kandidater, uddanne medarbejdere, promovere virksomheden?

Den første grund: vil robotter erstatte mennesker

Den første grund til, at forskere er bekymrede over den hurtige udvikling af kunstig intelligens, er, at algoritmer allerede har gjort så store fremskridt, at de kan diagnosticere sygdomme og endda beslutte, hvem der får et lån, og hvem ikke.

Men tilhængerne af disse fremskridt er kun glade, fordi det at tage menneskelige beslutninger undertiden kræver mod, talekraft og forståelse af menneskelig psykologi. Der er altid en mørk side her. Forestil dig trods alt, hvordan det er at beslutte, hvem der skal bebrejdes, og hvem der skal give tidlig frigivelse. Eller rapporter om en pårørendes død, fyr en inkompetent medarbejder, der er i en vanskelig livssituation.

Image
Image

I en ideel verden skulle vi ikke tænke på den mørke side. Maskiner vil gøre alt for os, hvis kun fordi de vil være meget klogere og mindre partiske end mennesker.

Årsag to: maskiner kan manipuleres

Robot Sophia sagde i et interview:”Du læser for meget Elon Musk og ser Hollywood-film. Hvis du vil være venlig mod mig, vil jeg være venlig mod dig. Behandl mig som et smart I / O-system.”

Men da udviklingen starter med mennesker, og applikationer bruges direkte af dem, kan de data, der kommer ind i maskinen, manipuleres.

Image
Image

En anden frygt for forskere: AI-data kan være forkert. Dette er især farligt inden for det medicinske område. AI kan simpelthen narre patienten til fejldiagnosticering, især hvis en menneskelig læge eller et hospital generelt har ændret dataene til deres egen fordel. Derfor skal udviklere være primært ansvarlige for informationssikkerhed og udvikle sikkerhedsforanstaltninger.

AI og menneskets sprogs listige karakter

Google har indgået et samarbejde med Jigsaw, som stod over for en stor udfordring i udviklingen af kunstig intelligens. Softwareingeniør Lucy Wasserman arbejder på et maskinindlæringsperspektiv, der forudsiger et sprogs "toksicitet". Men hvad betyder det?

Betydningen af denne funktion er, at robotten vil analysere tekster fra hjemmesider og internetfora, der indeholder en stødende kontekst samt et angreb på personen, ydmygelse eller agitation.

Dette er en del af en maskinlæringsmodel kaldet et neuralt netværk. Hun studerer ord, sætninger og afsnit og lærer at forudsige, hvad der er giftigt, og hvad der tværtimod har en positiv sammenhæng.

Den sværeste del ved dette er at tage hensyn til alle nuancer. En person kan læse en sætning og forstå ud fra sammenhængen, om et bestemt ord var stødende. Wasserman gav et eksempel på ordet "homoseksuel" og dets ordformer, som er mere ydmygende og stødende.

Årsag 3: robotter kan tænke ensidigt

En anden frygt for førende udviklere: kunstig intelligens er endnu ikke i stand til at analysere sætninger og sætninger, så det kan overveje noget ord stødende ved at tage "hårde" foranstaltninger. Maskinen skal lære at læse bogstaveligt mellem linierne.

Image
Image

Udviklere ser værdi i open source-eksperimentering. De synes, det virkelig betyder noget, hvis menneskeheden ønsker at få fair robotter.

Men indtil videre i dag er det umuligt at tvinge kunstig intelligens til at tilpasse sig den menneskelige verden. Der er stadig meget arbejde at gøre.

At robotter måske ikke er retfærdige, er virkelig skræmmende. Ellers hvordan kan de have til opgave at løse tvister og konflikter i fremtiden?

Princippet om kunstig intelligens er stadig ret simpelt og ligner en forbedret pc. Et godt eksempel er stemmeassistenter som Alice og Siri. I dag arbejder de sådan: "Da stopordet er i teksten, betyder det, at det bestemt er stødende."

Og det skal være sådan:”Hvilke ord ligger ved siden af nedsættende? Jeg tror, at betydningen af sætningen har ændret sig meget, selvom der er noget stødende.”

Årsag fire: Etisk vejledning

AI skal være menneskecentreret og designet på en sådan måde, at der er forståelse for etik i sin firmware. Men hvad betyder det?

  • For det første er etik baseret på grundlæggende rettigheder, sociale værdier og principperne om velgørenhed (venlighed generelt).
  • For det andet skal maskiner ikke skade menneskelig autonomi eller opleve en retfærdighed.

En anden frygt for udviklere: Kunstig intelligens, når den når sit højdepunkt for udvikling og ikke kan stole på støtte fra mennesker, vil vende sig mod menneskeheden.

Det hele afhænger af udviklerne. De kan lede arbejdet med kunstig intelligens til at bekæmpe kriminalitet. Find for eksempel dem, der distribuerer børnepornografi.

Det er vigtigt at etablere sikkerhedsfunktioner, før AI kommer ud af menneskelig kontrol. Og det vil komme utvetydigt ud, fordi dette er pointen.

Robotter skal være tæt på mennesker

Med andre ord, hvis nogen vil stole på en beslutning truffet af en maskine, skal den opfylde menneskelige kriterier. Dette er grunden til, at udviklere skal sikre sig, at enhver beslutning, der træffes af algoritmen, er fair. For forskere er målet ikke at skabe en alternativ form for intelligens, men at hjælpe mennesker med at udvikle sig.

I slutningen af dagen er de fleste enige om, at AI vil bringe en vidunderlig ny verden.

Femte grund: krig mod menneskeheden

Den største ting, der holder udviklere vågen om natten, er at forsøge at forstå de uendelige muligheder og virkning af denne teknologi på sundhedspleje, uddannelse og kundeservice. Når AI går ud over "projektet" og endelig i produktion, så vil det have en reel social indvirkning.

Hver af udviklerne mener, at vi er på et bøjningspunkt mellem den menneskelige og den digitale verden. Men AI kan ikke ændre vores liv alene. Folk skal først ændre sig for at realisere intelligensens fulde potentiale.

Det er ikke overraskende, at mennesker er bange for AI. Men de vil ikke være i stand til at trælle eller ødelægge dem, der deler et fælles mål med dem - at udvikle sig og gøre fremskridt. Når folk indser, at de ikke skal tænke som dyr, men som højere væsener, vil ingen robotter være bange.

Alisa Krasnova