Tænker Som En Person: Hvad Sker Der, Hvis Du Giver Maskinen Bevidststeori - Alternativ Visning

Indholdsfortegnelse:

Tænker Som En Person: Hvad Sker Der, Hvis Du Giver Maskinen Bevidststeori - Alternativ Visning
Tænker Som En Person: Hvad Sker Der, Hvis Du Giver Maskinen Bevidststeori - Alternativ Visning

Video: Tænker Som En Person: Hvad Sker Der, Hvis Du Giver Maskinen Bevidststeori - Alternativ Visning

Video: Tænker Som En Person: Hvad Sker Der, Hvis Du Giver Maskinen Bevidststeori - Alternativ Visning
Video: Why we laugh | Sophie Scott 2024, Kan
Anonim

Sidste måned led et hold af selvlærte AI-spillere et spektakulært nederlag mod professionelle esports-spillere. Showkampen, der fandt sted som en del af Dota 2 Det internationale verdensmesterskab, viste, at holdstrategisk tænkning stadig tillader en person at få overtaget over en bil.

De involverede AI'er var flere algoritmer udviklet af OpenAI, hvoraf Elon Musk er en af grundlæggerne. Et kollektiv af digitale spillere, kaldet OpenAI Five, lærte at spille Dota 2 alene, gennem prøve og fejl, og konkurrere med hinanden.

I modsætning til det samme skak- eller brættelogik-spil Go, betragtes det populære og hurtigtvoksende multiplayer-spil Dota 2 som et meget mere seriøst felt til test af kunstig intelligens. Spillets samlede vanskelighed er kun én faktor. Det er ikke nok bare at klikke meget hurtigt med musen og sende kommandoer til det tegn, du kontrollerer. For at vinde er det nødvendigt at have intuition og forståelse for, hvad man kan forvente af modstanderen i det næste øjeblik i tid, såvel som at handle tilstrækkeligt i henhold til dette sæt viden for at komme sammen med fælles indsats mod et fælles mål - sejr. Computeren har ikke dette sæt funktioner.

Indtil videre har selv den mest fremragende dyb læringscomputeralgoritme ikke den strategiske tænkning, der er nødvendig for at forstå målene fra dens modstanders opgaver, hvad enten det er en anden AI eller et menneske.

Ifølge Wang, for at AI skal lykkes, er det nødvendigt at have en dyb kommunikationsevne, der stammer fra det vigtigste kognitive træk ved en person - tilstedeværelsen af intelligens.

Mental state model som en simulering

Salgsfremmende video:

I en alder af fire begynder børn typisk at forstå en grundlæggende social egenskab: deres sind er forskellige fra andres. De begynder at forstå, at alle har det, de tror på, deres ønsker, følelser og intentioner. Og vigtigst af alt at forestille sig sig selv i stedet for andre, kan de begynde at forudsige disse menneskers videre adfærd og forklare dem. På en måde begynder deres hjerner at skabe flere simuleringer af sig selv i sig selv og erstatte sig selv i stedet for andre mennesker og placere sig selv i et andet miljø.

Den mentale tilstandsmodel er vigtig for at forstå sig selv som person og spiller også en vigtig rolle i social interaktion. At forstå andre er nøglen til effektiv kommunikation og opnå fælles mål. Imidlertid kan denne evne også være drivkraften bag falske overbevisninger - ideer, der fører os væk fra objektiv sandhed. Så snart evnen til at bruge en mental tilstandsmodel forringes, for eksempel sker dette i autisme, forværres også naturlige "menneskelige" færdigheder, såsom evnen til at forklare og forestille sig.

Ifølge Dr. Alan Winfield, professor i robotik ved University of the West of England, er den mentale tilstandsmodel eller "mindsteori" en nøglefunktion, der en dag tillader AI at "forstå" mennesker, ting og andre robotter.

I stedet for metodelæringsmetoder, hvor flere lag af neurale netværk udtrækker individuelle informationsstykker og "studerer" enorme databaser, foreslår Winston at tage en anden tilgang. I stedet for at stole på at lære, foreslår Winston at forprogrammere AI'en med en intern model af sig selv og miljøet, der vil svare på enkle spørgsmål "hvad hvis?".

Forestil dig for eksempel, at to robotter bevæger sig langs en smal korridor, deres AI kan simulere resultaterne af yderligere handlinger, der forhindrer deres kollision: drej til venstre, højre eller fortsæt lige. Denne interne model vil i det væsentlige fungere som en "konsekvensmekanisme" og fungere som en slags "sund fornuft", der vil hjælpe med at dirigere AI til yderligere at korrigere handlinger ved at forudsige den fremtidige udvikling af situationen.

I en undersøgelse, der blev offentliggjort tidligere i år, demonstrerede Winston en prototype-robot, der var i stand til at opnå sådanne resultater. Antagende for andres opførsel passerede roboten med succes gennem korridoren uden kollisioner. Faktisk er dette ikke overraskende, bemærker forfatteren, men den "opmærksomme" robot, der brugte en simuleret tilgang til at løse problemet, tog 50 procent længere tid at afslutte korridoren. Ikke desto mindre beviste Winston, at hans metode til intern simulering fungerer: "Dette er et meget magtfuldt og interessant udgangspunkt i udviklingen af teorien om kunstig intelligens," konkluderede videnskabsmanden.

Winston håber, at AI til sidst får evnen til at beskrive, mentalt gengive situationer. En intern model for sig selv og andre giver en sådan AI mulighed for at simulere forskellige scenarier og, endnu vigtigere, at definere specifikke mål og mål for hver af dem.

Dette adskiller sig markant fra dybe indlæringsalgoritmer, som i princippet ikke er i stand til at forklare, hvorfor de kom til denne eller den anden konklusion, når de løste et problem. Den sorte kasse-model for dyb læring er faktisk det egentlige problem med at stole på sådanne systemer. Dette problem kan blive specielt akut, f.eks. Når man udvikler sygeplejroboter til hospitaler eller ældre.

En AI bevæbnet med en mental tilstandsmodel kunne sætte sig selv i sine mesters sko og forstå korrekt, hvad der ønskes af det. Derefter kunne han identificere egnede løsninger, og efter at have forklaret disse beslutninger til personen, ville han allerede udføre den opgave, der blev tildelt ham. Jo mindre usikkerhed der er i beslutningerne, desto mere tillid ville der være sådanne robotter.

Psykisk tilstandsmodel i et neuralt netværk

DeepMind tager en anden tilgang. I stedet for at forprogrammere en algoritme til konsekvensmekanismen har de udviklet flere neurale netværk, der udviser en lighed med en model for kollektiv psykologisk opførsel.

AI-algoritmen "ToMnet" kan lære handlinger ved at observere andre neutronnetværk. ToMNet i sig selv er et kollektiv af tre neurale netværk: det første er baseret på de særegenheder ved at vælge andre AI'er i henhold til deres seneste handlinger. Den anden danner det generelle begreb om den aktuelle stemning - deres tro og intentioner på et bestemt tidspunkt. Det samlede resultat af arbejdet i to neurale netværk modtages af det tredje, der forudsiger yderligere handlinger fra AI baseret på situationen. Som med dyb læring bliver ToMnet mere effektiv, da den får erfaring ved at følge andre.

I et eksperiment "ToMnet" så "tre AI-agenter manøvrere i et digitalt rum og samle farverige kasser. Hver af disse AI havde sin egen særegenhed: den ene var "blind" - kunne ikke bestemme formen og placeringen i rummet. Den anden var en "sklerot": han kunne ikke huske sine sidste trin. Den tredje kunne både se og huske.

Efter træning begyndte ToMnet at forudsige præferencerne for hver AI ved at observere dens handlinger. For eksempel bevægede de "blinde" konstant kun sig langs væggene. ToMnet huskede dette. Algoritmen var også i stand til korrekt at forudsige AI's fremtidige adfærd og, endnu vigtigere, forstå, når AI stødte på en forkert repræsentation af miljøet.

I en test programmerede et team af forskere en AI til "nærsynethed" og ændrede indretningen af et rum. Agenterne med normalt syn tilpassede sig hurtigt til det nye layout, men den myopiske mand fortsatte med at følge sine originale ruter, idet han falsk troede, at han stadig var i det gamle miljø. ToMnet bemærkede hurtigt denne funktion og forudsagde nøjagtigt agentens opførsel og satte sig selv på sin plads.

Ifølge Dr. Alison Gopnik, en udviklingspsykolog ved University of California, Berkeley, der ikke var involveret i disse undersøgelser, men som læste fundene, viser disse resultater, at neurale netværk har en forbløffende evne til at lære forskellige færdigheder på egen hånd gennem observation af andre. På samme tid er det ifølge eksperten stadig meget tidligt at sige, at disse AI'er har udviklet en kunstig model for den mentale tilstand.

Ifølge Dr. Josh Tenebaum fra Massachusetts Institute of Technology, der heller ikke var involveret i studiet, er ToMnets "forståelse" stærkt knyttet til konteksten af læringsmiljøet - det samme rum og specifikke AI-agenter, hvis opgave var at samle kasser. Denne begrænsning inden for en bestemt ramme gør ToMnet mindre effektiv til at forudsige adfærd i radikalt nye miljøer i modsætning til de samme børn, der kan tilpasse sig nye situationer. Algoritmen ifølge forskeren vil ikke klare modellering af handlingerne fra en helt anden AI eller person.

Under alle omstændigheder demonstrerer Winstons og DeepMinds arbejde, at computere begynder at vise begyndelsen på at "forstå" hinanden, selvom denne forståelse stadig kun er rudimentær. Og når de fortsætter med at forbedre denne færdighed, forstå hinanden bedre og bedre, vil der komme et tidspunkt, hvor maskiner kan forstå kompleksiteten og kompleksiteten af vores egen bevidsthed.

Nikolay Khizhnyak

Anbefalet: