Japanske Forskere Lærte Computeren At Læse Sind. Videoeksempler - Alternativ Visning

Japanske Forskere Lærte Computeren At Læse Sind. Videoeksempler - Alternativ Visning
Japanske Forskere Lærte Computeren At Læse Sind. Videoeksempler - Alternativ Visning

Video: Japanske Forskere Lærte Computeren At Læse Sind. Videoeksempler - Alternativ Visning

Video: Japanske Forskere Lærte Computeren At Læse Sind. Videoeksempler - Alternativ Visning
Video: Danish NO45 Verdens personlige computer 2024, Kan
Anonim

Med udviklingen af præferencegenkendelsessystemer og målrettet annoncering giver tilbud om at se videoer og venner på sociale netværk brugeren en illusion om, at computeren læser sine tanker. Men til bedre eller værre bevæger vi os faktisk mod computere og systemer, der faktisk læser vores tanker. En ny undersøgelse foretaget af udviklere fra Japan er uden overdrivelse et absolut gennembrud i denne retning.

Et team fra Kyoto University besluttede at bruge et virtuelt neuralt netværk til at prøve at læse og fortolke tanker i et levende neuralt netværk, i den menneskelige hjerne. Selvom det lyder temmelig skør, er eksperimentet ikke fundamentalt nyt, og japanerne er ikke den første gruppe, der arbejder i denne retning. Forskellen mellem Kyoto-teamet og deres forgængere er, at tidligere teknikker rekonstruerede billeder fra de pixels, der udgør billedet og de grundlæggende geometriske former. En ny teknologi, kaldet "dyb billedrekonstruktion", bevæger sig imidlertid ud over binære pixels og giver forskerne mulighed for at afkode billeder med flere lag farve og struktur.

”Vores hjerner behandler visuel information ved hierarkisk udtrækning af forskellige niveauer af træk eller komponenter af forskellige kompleksiteter,” sagde Yukiyasu Kamitani, en af forskerne, der var involveret i undersøgelsen, i et interview. "Disse neurale netværk eller AI-modeller kan bruges som en tilnærmelse til den hierarkiske struktur af den menneskelige hjerne."

Undersøgelsen varede i 10 måneder. Tre eksperimentelle frivillige i forskellige længder kiggede på billeder af tre forskellige kategorier: naturlige genstande (såsom dyr eller mennesker), kunstige geometriske former og bogstaver i alfabetet.

Image
Image

I dette tilfælde blev hjernens aktivitet registreret under visningen af billederne. Billedet blev derefter fjernet, og motivet blev bedt om at tænke over det billede, han lige kiggede på. På samme tid blev hjerneaktivitet igen registreret, og dataene blev sammenlignet med de foregående, hvorefter resultaterne blev indført i et virtuelt neuralt netværk, som senere brugte dem til at fortolke hjerneaktivitet som visse tanker.

Hos mennesker (og faktisk i alle pattedyr) er den visuelle cortex placeret på bagsiden af hjernen, i den occipitale lob, der er over lillehjernen. Aktivitet i den visuelle cortex blev målt ved hjælp af funktionel magnetisk resonansafbildning (fMRI), hvilket omdannede det resulterende billede til hierarkiske træk i et virtuelt neuralt netværk.

Fra et tilfældigt billede optimerer det genererede netværk billedets pixelværdier mange gange. Som et resultat ligner de neurale netværksfunktioner i inputbilledet dem, der er afkodet fra hjerneaktivitet.

Salgsfremmende video:

Det er vigtigt at bemærke, at den eksperimentelle model antog brugen af ikke kun naturlige billeder (mennesker eller natur), men også antog generering og genkendelse af kunstige strukturer og geometriske former:

Som du kan se fra videoen, er det meget vanskeligere for systemet at afkode billedet i en situation, hvor en person ikke ser på billedet, men kun tænker over, hvad han så. Dette er tilsyneladende helt naturligt: ikke enhver hjerne husker enhver detalje i det billede, der lige er set, f.eks. En side fra en bog. Vores erindringer er normalt meget slørede og uklar.

På dette stadie af undersøgelsen bevarer billeder, der er rekonstrueret fra hjerneaktivitet, kun en vis lighed med de originale billeder, som deltagerne i eksperimentet har set, de ser for det meste ud som minimalt detaljerede klumper af pixels. Dette er dog kun begyndelsen på stien, og med tiden vil genkendelsesnøjagtigheden blive mere og mere, selvom vi selv med sikkerhed kan sige, hvilket objekt emnet tænker på.

Alt dette åbner for fantastiske perspektiver for udviklere. Forestil dig "øjeblikkelig modellering", når du bare forestiller dig et objekt i dit hoved - et kunstkoncept eller en detalje i en mekanisme - og dens computer straks, uden at trykke på nogen knapper, opretter automatisk det nødvendige tredimensionelle objekt.

Image
Image

Eller kunne AI gå meget længere, registrere din hjerneaktivitet, mens du sover, og derefter genskabe alle dine drømme i en 3D-verden?

Der er utallige anvendelser af denne udvikling, så det japanske team arbejder hårdt på alt. Imidlertid er det i alle vores fælles interesser, at sindelæsning skrider frem gradvist og omhyggeligt nok, da teknologi bærer mange farer.