Kunstig Intelligens: En Farlig Fjende Eller En Venlig Hjælper - Alternativ Visning

Kunstig Intelligens: En Farlig Fjende Eller En Venlig Hjælper - Alternativ Visning
Kunstig Intelligens: En Farlig Fjende Eller En Venlig Hjælper - Alternativ Visning

Video: Kunstig Intelligens: En Farlig Fjende Eller En Venlig Hjælper - Alternativ Visning

Video: Kunstig Intelligens: En Farlig Fjende Eller En Venlig Hjælper - Alternativ Visning
Video: Kunstig intelligens: Fantastisk eller farlig? | NTNU Kveld 2024, Kan
Anonim

Brugen af kunstig intelligens (AI) i hverdagen er hurtigt ved at få fart, men denne tendens skaber i stigende grad bekymring for specialister. NYU-personale udarbejdede en advarsel om risikoen ved at bruge I. I. Rapporten fra AI Now-gruppen siger lidt nyt, men i verdenspraksis rejses spørgsmålet om behovet for at begrænse arbejdet med kunstig tænkning i stigende grad.

Næsten alle visionære teknologiske fremskridt talte om de potentielle trusler mod AI. Stephen Hawking i november sidste år gav udtryk for den største frygt ledsaget af reflektioner over udviklingen af teknologi. Efter hans mening vil computere før eller senere lære at gengive sig selv. Biologiske væsner mister sandsynligvis for siliciumintelligens både i mentale evner og med hensyn til tilpasningsevne til miljøet, især på en anden planet. Før eller senere vil intelligente robotter betragte mennesker som en forældet form og ønsker at slippe af med dem.

Hawkings ord lyder stadig som en rædselshistorie, der blev spillet adskillige gange i film og bøger, men selv dem, der arbejder på implementering af smarte systemer, er blevet stadig mere bange for fremtiden med AI, selvom der er dem, der betragter sådan frygt for tidligt.”At frygte udviklingen af AI i dag er som at bekymre sig om overbefolkningen af Mars,” sagde Andrew Ng, leder af Google Brain. Han beroligede dog ikke alle.

Image
Image

Blandt de største fobier, der er forbundet med introduktionen af en computer til alle livsområder, er tre værd at bemærke. For det første vil computersindet blive brugt som et krigsvåben, der markant vil overgå selv atomvåben i destruktiv magt. Det andet er, at AI vil slavebinde mennesker. For det tredje, ligesom enhver menneskelig skabelse, er computeren udsat for fejl. Alle tre punkter kan diskuteres mere detaljeret.

Den 21. august 2017 sendte førende eksperter inden for forskning og implementering af kunstig intelligens, herunder lederne af virksomheder som SpaceX og Deep Mind, et åbent brev til FN. I teksten advarede de verdenssamfundet mod at udvikle dødelige autonome våben, det være sig robotter eller andre mekanismer, der er designet til at dræbe fjenden. Forfatterne af dokumentet henledte opmærksomheden på de fatale følger af brugen af sådanne våben. Med sin fænomenale effektivitet er det rimeligt at spørge, i hvilke hænder det vil falde. Det kan bruges af både en smal kreds af eliter og terrorister.

Forfatterne af brevet opfordrede kontrolorganisationen og med det det videnskabelige samfund til at skitsere omfanget af den skadelige brug af AI. En persons ansvars ansvar for sin egen skabelse forpligter ham til at udføre seriøst arbejde for at forhindre risici. Ud over love skal deres skabere også begrænse robottens magt, der bliver nødt til at pusle over, hvordan man slukker for maskiner i ekstreme tilfælde.

Image
Image

Salgsfremmende video:

Det politiske misbrug af elektroniske systemer er allerede blevet demonstreret gennem arbejdet med sociale netværk og dataanalysealgoritmer. I foråret i år tordnet en skandale med Cambridge Analytica i verden. Dets specialister foretog en dybdegående analyse af brugerdata og placerede annoncer på Facebook, tilpasset individuelt til hver person.

Virksomhedens medarbejdere krydsede ikke kun de etiske rammer, men anvendte også moderne teknologier, hvis arbejde var umuligt at analysere. Effektiviteten af maskinlæring er et tilbagevendende tema blandt førende matematikere. De indrømmer unisont at de er forbløffet over computerprogrammernes ekstraordinære succes, men de er helt ude af stand til at forstå et komplekst systems arbejde. I Myanmar i april i år forårsagede Facebook-indlæg også en uro blandt masserne, men i modsætning til i USA, hvor der blev udført protester, var der en massakre i den asiatiske stat, der dræbte flere hundrede mennesker. Manipulation af et stort antal mennesker er en realitet, og robotter her kan spille en grusom vittighed med os.

Image
Image

Det er værd at huske den samme Facebook, hvor AI-baserede chatbots blev lanceret. Virtuelle assistenter blev trænet til at føre en dialog med samtalepartneren. Med tiden blev bots ikke skelnen fra rigtige mennesker, og derefter besluttede forfatterne at bringe robotterne sammen. Med tiden begyndte bots at forkorte leksikale strukturer og udveksle gibberish. Medierne blæste en fornemmelse ud af nyheden, de siger, "maskinerne blev oprørt." Men hvis man lægger overdrivelsen af journalister til side, er det rimeligt at indrømme, at i tilfælde af, at maskiner begynder at kommunikere med hinanden, en person muligvis ikke bemærker dette. Og hvordan de vil leve deres eget liv der - ingen ved.

Den stadig mere komplekse struktur af computersindet hver dag bevæger os væk fra at forstå principperne i dets arbejde. Men mens de fleste algoritmer gør deres job, er selv i dag komplekse maskiner langt fra ideelle og begår fejl. For den videre udvikling af AI er det vigtigt ikke at forstå så meget dets styrker som dets sårbarheder. Det er her, et stort antal videnskabelige grupper er fokuseret, hvoraf den ene er en specialist fra MIT Anish atali. For bare et par dage siden fortalte han journalister om de mest almindelige fejl i billedgenkendelsessystemer.

Hans kolleger demonstrerede genstande på maskinen og fandt, at ofte individuelle objekter blev opfattet forkert ved elektronisk syn. Computeren kunne kalde en baseball en kop kaffe, og en 3D-trykt skildpadde en hærmaskine. Gruppen har allerede samlet omkring 200 poster, der er vildledende algoritmer.

Image
Image

Kunstig intelligens, i stedet for at opfatte et objekt som en helhed, koncentrerede sig om dets individuelle parametre. AI har en tendens til at lære af en "perfekt" prøve. Når han konfronteres med fænomener, der ikke overholder normerne, kan han ikke altid opgive den sædvanlige behandlingsproces. I stedet for at indrømme, at han ikke er i stand til at behandle billedet, fortsætter han med at prøve at læse billedet, og det fører til undertiden sjove resultater. I stedet for formen på en skildpadde, prøvede den elektroniske hjerne at læse dens struktur, svarende til kamouflage. Af nogenlunde samme grund er e-bils autopiloter endnu ikke 100% pålidelige. Det er vanskeligt for en bil at se silhuetten og antage, at den består af separate elementer.

Og hvis i de kommende år nogle mangler kan rettes, er der ingen garanti for, at hackere ikke vil udnytte sårbarheden. Hackere af elektroniske enheder i dag repræsenterer næsten hovedårsagen til frygt. Et lille team af programmerere kan ikke kun få adgang til personlig information, men også konfigurere autonome systemer ved at tage kontrol over værktøjer til kolossal magt. Og så vil vi alle have problemer. Men den vigtigste konklusion, der kan drages, er måske den traditionelle - du skal ikke være bange for biler, men mennesker.

Alexander Lavrenov