Neurale Netværk Har Lært At Læse Tanker I Realtid. Hvad? Ikke! - Alternativ Visning

Neurale Netværk Har Lært At Læse Tanker I Realtid. Hvad? Ikke! - Alternativ Visning
Neurale Netværk Har Lært At Læse Tanker I Realtid. Hvad? Ikke! - Alternativ Visning

Video: Neurale Netværk Har Lært At Læse Tanker I Realtid. Hvad? Ikke! - Alternativ Visning

Video: Neurale Netværk Har Lært At Læse Tanker I Realtid. Hvad? Ikke! - Alternativ Visning
Video: Xbox Games Showcase Extended 2024, Kan
Anonim

For et par dage siden offentliggjorde bioRxiv.org-fortryksportalen arbejde fra russiske forskere fra Moskva Institut for Fysik og Teknologi og virksomhederne Neurobotics og Neuroassistive Technologies, der beskæftiger sig med oprettelsen af neurocomputer-grænseflader. Papiret hævder, at forskere og udviklere har formået at lære en algoritme i realtid til at rekonstruere en video, der er set af en person, der bruger EEG-signaler. Lyder virkelig cool og interessant - næsten som tankelæsning. Faktisk er alt selvfølgelig ikke så enkelt: computere har ikke lært at læse tanker. Kort fortalt lærte computeren fra EEG-optagelsen at bestemme hvilket billede af fem forskellige tidligere kendte klasser emnet så. Om, hvordan eksperimentet blev bygget, hvilke opgaver videnskabsmændene har stillet, og hvorfor sindelæsning næppe er realiseret i den nærmeste fremtid, fortæller vi i vores blog.

Image
Image

Generelt set synes ideen om at læse det elektriske signal fra hjernen og dechiffrere det, så du kan se, hvad en person tænker eller gør på et givet tidspunkt, i betragtning af tempoet i den aktuelle teknologiske udvikling, ikke så vanskelig. Her er et signal, og her er hvad dette signal betyder: tilføje to og to, træne klassificeren og få det resultat, vi har brug for.

Resultatet er, hvad futurister og uvidende mennesker kalder "tankelæsning". Og det ser ud til, at en sådan teknologi kunne finde sig i en række anvendelser: fra perfekte neurocomputer-grænseflader, der giver dig mulighed for at kontrollere smarte proteser, til at oprette et system, der til sidst vil fortælle dig, hvad din kat tænker der.

I virkeligheden er naturligvis alt slet ikke så enkelt, og tanken om at skabe en sådan algoritme bryder næsten øjeblikkeligt på hovedhindringen: vi er nødt til at håndtere hjernen. Hjernen er en meget kompleks ting: den har mere end 80 milliarder neuroner, og forbindelserne mellem dem er flere tusinde gange mere.

Selv for en lægmand er det klart: dette er for meget for os at forstå, hvad hver celle og deres samlede er ansvarlig for. Videnskabsfolk har endnu ikke dechiffreret den menneskelige forbindelse - selvom de forsøger at gøre det med relativ succes.

Et logisk spørgsmål opstår: er det overhovedet nødvendigt at forstå funktionerne i hver neuron for nøjagtigt at repræsentere hvad der sker i hjernen? Er der virkelig ikke nok funktionelle kort, for eksempel?

Svaret på dette spørgsmål skal faktisk være "ja", men selv her er det ikke så enkelt. Hvis menneskeheden var afhængig af at afkode forbindelsen som den eneste nøgle til at låse hjernens mysterium op, ville vi være meget tæt i dag. Vi ved dog noget om, hvordan vores hjerne fungerer, og selvfølgelig kan vi bruge det med succes.

Salgsfremmende video:

Et af de lyseste og mest åbenlyse eksempler på at bruge den viden, som forskere har samlet om hjernens arbejde, er naturligvis neurointerfaces. Generelt er der i dag virkelig teknologier, der tillader at læse hjerneaktivitet og bruge den til at kontrollere for eksempel markøren for en computermus eller endda bevægelser af en protese.

Der er to måder at opnå effektiv betjening af det neurale interface. Den første metode er fremkaldte potentialer: vi ser på kurven for elektrisk aktivitet i visse dele af hjernen og vælger på disse ændringer i signalet, som vi ved med sikkerhed forekommer på et bestemt tidspunkt efter præsentationen af stimulansen.

Den anden måde er ikke at stole på stimulering overhovedet, men at bruge personens fantasi til at generere et elektrisk signal, der kan læses. For eksempel kan en person blive bedt om at visualisere, hvordan de bevæger deres ben eller arm.

Begge metoder har betydelige ulemper. Den første er hindret af det faktum, at antallet af pålideligt fremkaldte potentialer, vi kender, ikke er så stort: Deres antal kan ikke nøjagtigt dække alle mulige handlinger udført af en person. Ulempen med det andet er, at der kræves lang træning for at opnå mindst en vis effekt.

Forfatterne af fortrykket besluttede at kombinere begge tilgange til at skabe neurocomputer-grænseflader og med rette tro på, at dette ville redde begge metoder fra betydelige begrænsninger og give mulighed for at udvikle en ny og mest effektiv metode til at arbejde med neurointerfaces i dag.

Det blev også antaget, at denne metode vil blive lukket (lukket sløjfe), det vil sige, at resultatet opnået med dets hjælp, på sin side vil påvirke driften af algoritmen. Men mere om det senere.

Helt fra starten bryder algoritmen alle billeder i separate komponenttegn, fordelt i vektorrum, ved hjælp af hvilke de derefter kan korreleres med visse hjernesignaler, der er optaget ved hjælp af EEG.

På dette indledende trin bruges en binær klassificering - groft sagt selve "to og to": der har et tilstrækkeligt rent signal (EEG-optagelsen blev fjernet for motoriske artefakter), du kan vælge enten den ene eller den anden med en nøjagtighed højere end et tilfældigt hit.

I deres eksperimenter brugte forskerne videoer af genstande fra fem klasser: billeder af mennesker, vandfald, abstrakte geometriske former, ekstremsport og Goldberg-biler. På den ene side virker et sådant sæt mærkeligt, men på den anden side ser det ud til, at alle disse objekter er meget forskellige fra hinanden. Der er faktisk noget fælles mellem menneskelige ansigter og abstrakte geometriske former?

I mellemtiden kan abstrakte figurer og menneskelige ansigter, i henhold til den binære klassificering, ikke skelnes fra hinanden: resultaterne af ni ud af 17 undersøgelsesdeltagere viser, at den neurale grænseflade tilsyneladende ikke kunne skelne mellem dem. Men Goldbergs maskiner og de samme ansigter, tværtimod, set fra hjernen, adskiller sig godt fra hinanden.

Klassificeringsresultater. A - abstrakte former, W - vandfald, HF - menneskelige ansigter, GM - Goldberg-biler, E - ekstremsport
Klassificeringsresultater. A - abstrakte former, W - vandfald, HF - menneskelige ansigter, GM - Goldberg-biler, E - ekstremsport

Klassificeringsresultater. A - abstrakte former, W - vandfald, HF - menneskelige ansigter, GM - Goldberg-biler, E - ekstremsport.

Ved første øjekast er det ikke rigtigt klart, hvorfor dette sker: snarere kan de samme maskiner og geometriske former ikke skelnes fra hinanden. Alt bliver lidt klarere, hvis man ser på et eksempel på rammer fra de anvendte videoer.

Prøve billeder fra fem klasser
Prøve billeder fra fem klasser

Prøve billeder fra fem klasser.

Mest sandsynligt (vi kan selvfølgelig kun antage her), klassificeringens succes afhænger af, hvor meget de billeder, der er brugt i de to klasser, adskiller sig fra hinanden i nogle overfladiske, grundlæggende funktioner - først og fremmest i farve. Dette korrelerer også godt med det faktum, at dimensionen af det latente rum i autoencoderen er 10.

Generelt for at klassificere billeder af fem klasser er en dimension på fem nok, men i dette tilfælde gøres det med et maksimum af farvehistogrammet - hvilket betyder, at dimension 10 ikke forbedres for meget og vil afklare resultatet.

Det er ikke meget tydeligt, hvorfor forfatterne ikke brugte en lineær klassificering til fem klasser på en gang i stedet for ti binære klassifikatorer: Det ville sandsynligvis have været bedre.

Derefter kommer scenen med genopbygning af det resulterende billede. At det kommer ud smurt er forståeligt - punktet ligger i den samme dimension af det latente rum. Men her forvirrer to ting.

Den første er, at de originale og rekonstruerede billeder ligner hinanden meget. Her ønsker jeg selvfølgelig ikke at forstyrre nogen (inklusive os selv - vi er alle for fremskridt), men dette skyldes ikke, at signalet er så godt optaget og afkodet (og endda i realtid!), Men på grund af det faktum, at algoritmen gendanner nøjagtigt de billeder, den allerede havde.

Derudover fungerer dette ikke altid så godt, som vi gerne vil: Hvis du for eksempel ser på videoen af systemet, vil du bemærke, at i videoen med en grædende mand den neurale grænseflade af en eller anden grund ser en kvinde. Dette skyldes, at algoritmen ikke rekonstruerer billeder, men genstande i en bestemt klasse: selvom den gør det effektivt nok, forhindrer intet algoritmen i at se en båd i billedet af en motorcykel - simpelthen fordi de hører til den samme klasse.

Derfor, hvad der vises på skærmen under genopbygning er ofte bare et gennemsnitligt billede af alle brugte klasseobjekter.

Hvad angår meningsfuldheden ved at bruge et lukket system, er alt ikke særlig tydeligt med det: når han udfører en opgave, ser en person både en optagelse af EEG-signaler og et billede, der gradvist kommer frem fra hans hoved. Hvorvidt dette faktisk hjælper er svært at sige - forfatterne sammenlignede ikke ydelsen på interface med og uden forstærkning. Men ved første øjekast ser det ud til, at det ikke rigtig. Hvis det hjælper, vil jeg virkelig vide, hvordan.

Generelt kan vi sikkert konkludere, at computere ikke har lært at læse tanker. Og de lærte ikke engang, hvordan man gendanner videoen. Alt hvad de har lært at gøre, baseret på forskernes arbejde, er at klassificere de objekter, de har set, i fem klasser baseret på nogle grundlæggende kriterier. Har computere været i stand til at gøre dette før? Selvfølgelig kunne de. Er der en hjerne her? Der er selvfølgelig: men det er hjernen, der ser, ikke hjernen, der forstår, hvad han så nøjagtigt.

Elizaveta Ivtushok