Kunne Maskiner Ifølge Neurovidenskabere Have Bevidsthed? Det Ser Ud Til, At Ja - Alternativ Visning

Indholdsfortegnelse:

Kunne Maskiner Ifølge Neurovidenskabere Have Bevidsthed? Det Ser Ud Til, At Ja - Alternativ Visning
Kunne Maskiner Ifølge Neurovidenskabere Have Bevidsthed? Det Ser Ud Til, At Ja - Alternativ Visning

Video: Kunne Maskiner Ifølge Neurovidenskabere Have Bevidsthed? Det Ser Ud Til, At Ja - Alternativ Visning

Video: Kunne Maskiner Ifølge Neurovidenskabere Have Bevidsthed? Det Ser Ud Til, At Ja - Alternativ Visning
Video: The Movie Great Pyramid K 2019 - Director Fehmi Krasniqi 2024, Kan
Anonim

Så meget som instruktøren vil få dig til at tro det, er hovedpersonen i Andrew Garlands film Out of the Machine fra 2015 ikke Caleb, en ung programmør, der har til opgave at evaluere maskinens bevidsthed. Nej, hovedpersonen er Ava, en fantastisk humanoid AI, naiv i udseende og mystisk indeni. Som de fleste film af denne art lader Out of the Machine seeren selv svare på spørgsmålet: Var Ava virkelig bevidst? Samtidig undgår filmen dygtigt det tornede spørgsmål, som højt profilerede film om emnet AI forsøgte at besvare: hvad er bevidsthed, og kan en computer have det?

Hollywood-producenter er ikke de eneste, der prøver at besvare dette spørgsmål. Da maskinens intelligens udvikler sig med en voldsom hastighed - ikke kun overgår menneskers evner i spil som DOTA 2 og Go, men også gør det uden menneskelig hjælp - rejses dette spørgsmål igen i brede og snævre kredse.

Vil bevidstheden bryde igennem i biler?

I denne uge offentliggjorde det prestigefyldte tidsskrift Science en gennemgang af kognitive forskere Drs Stanislas Dehane, Hokwan Lau og Sid Quider fra det franske kollegium ved UCLA og PSL Research University. I det sagde forskere: endnu ikke, men der er en klar vej fremad.

Årsag? Bevidsthed er "absolut beregningsbar", siger forfatterne, fordi den stammer fra specifikke typer informationsbehandling, der er muliggjort af hjernens hardware.

Der er ingen magisk bouillon, ingen guddommelig gnist - ikke engang en empirisk komponent ("hvordan er det at have bevidsthed?") Kræves for at indlejre bevidsthed.

Hvis bevidstheden kommer udelukkende fra beregninger i vores et og et halvt kilogram organ, så er udstyr med maskiner med en lignende egenskab bare et spørgsmål om at oversætte biologi til kode.

Salgsfremmende video:

Ligesom nutidens kraftfulde maskinlæringsmetoder er stærkt lånt fra neurovidenskab, kan vi også opnå kunstig bevidsthed ved at studere strukturer i vores egne hjerner, der genererer bevidsthed og implementere disse ideer som computeralgoritmer.

Fra hjerne til robot

Der er ingen tvivl om, at AI-området har fået et stort boost fra studiet af vores egne hjerner, både i form og funktion.

For eksempel er dybe neurale netværk, de arkitektoniske algoritmer, der dannede grundlaget for AlphaGo, modelleret på de flerlags biologiske neurale netværk organiseret i vores hjerner.

Forstærkelsesindlæring, en type "læring", hvor AI lærer af millioner af eksempler, er rodfæstet i hundreder af hundetræningsteknik: hvis en hund gør noget rigtigt, bliver det belønnet; ellers bliver hun nødt til at gentage.

I denne forstand virker oversættelse af den menneskelige bevidstheds arkitektur til maskiner et simpelt skridt mod kunstig bevidsthed. Der er kun et stort problem.

”Ingen i AI arbejder på at bygge bevidste maskiner, fordi vi bare ikke har noget at tackle. Vi ved bare ikke, hvad vi skal gøre,”siger Dr. Stuart Russell.

Flerlags bevidsthed

Den sværeste del at overvinde, før du begynder at bygge tænkemaskiner, er at forstå, hvad bevidsthed er.

For Dehene og kolleger er bevidsthed en konstruktion i flere lag med to "dimensioner": C1, information, der er lagret færdigt i sindet, og C2, evnen til at modtage og spore information om sig selv. Begge er vigtige for bevidstheden og kan ikke eksistere uden hinanden.

Lad os sige, at du kører bil, og et fyrtårn fortsætter med at advare dig om et lavt resterende benzinniveau. Opfattelsen af indikatoren er C1, en mental repræsentation, som vi kan interagere med: vi bemærker det, handler (tanker op) og taler om det senere ("Benzin løb tør i nedstigningen, heldig rullet").

”Den første betydning, som vi ønsker at adskille fra bevidsthed, er begrebet global tilgængelighed,” forklarer Dehene. Når du bliver opmærksom på et ord, forstår hele din hjerne det, det vil sige, du kan videregive denne information gennem forskellige metoder.

Men C1 er ikke bare et "mentalt album". Denne dimension er en hel arkitektur, der gør det muligt for hjernen at tiltrække flere informationsmodaliteter fra vores sanser eller for eksempel fra minder om relaterede begivenheder.

I modsætning til underbevidst behandling, der ofte er afhængig af visse “moduler”, der er kompetente til at løse et specifikt sæt opgaver, er C1 et globalt arbejdsområde, der giver hjernen mulighed for at integrere information, træffe beslutninger om handling og følge op.

Med "bevidsthed" mener vi en bestemt repræsentation på et bestemt tidspunkt, der kæmper for adgang til det mentale arbejdsområde og vinder. Vinderne deles mellem hjernens forskellige beregningskredsløb og holdes i centrum af opmærksomheden gennem hele beslutningsprocessen, der bestemmer adfærd.

C1-bevidsthed er stabil og global - alle forbundne hjernekredsløb er involveret, forklarer forfatterne.

For en sofistikeret bil som C1 smart bil er dette det første skridt i retning af at løse et forestående problem som lavt brændstof. I dette eksempel er indikatoren i sig selv et underbevidst signal: når den tændes, forbliver alle andre processer i bilen uinformeret, og bilen - selv når den er udstyret med de nyeste visuelle behandlingsværktøjer - skynder sig uden tøven forbi tankstationen.

Med C1 vil brændstoftanken underrette bilens computer (så indikatoren kan komme ind i bilens "bevidste sind"), så den igen aktiverer GPS for at finde den nærmeste station.

”Vi tror på, at maskinen vil oversætte dette til et system, der udtrækker information fra alle de tilgængelige moduler og gør det tilgængeligt for ethvert andet behandlingsmodul, der kan bruge disse oplysninger,” siger Dehane. "Dette er den første bevidsthedsfølelse."

Metakognition

På en måde afspejler C1 sindets evne til at udtrække information udefra. C2 går ind i introspektivitet.

Forfatterne definerer det andet bevidsthedsnetværk, C2, som "metakognition": det afspejler, når du lærer eller opfatter noget eller bare laver en fejl. (”Jeg synes, jeg skulle have tanket på den sidste station, men jeg glemte det”). Denne dimension afspejler forbindelsen mellem bevidsthed og en følelse af selv.

C2 er det niveau af bevidsthed, der giver dig mulighed for at føle dig mere eller mindre sikker på at tage en beslutning. Beregningsmæssigt er det en algoritme, der udleder sandsynligheden for, at en beslutning (eller beregning) vil være korrekt, selvom den ofte opfattes som en "sjette sans."

C2 lancerer også rødder i hukommelse og nysgerrighed. Disse selvovervågningsalgoritmer giver os mulighed for at vide, hvad vi ved, og hvad vi ikke ved - dette er "metahukommelse", der hjælper dig med at finde det rigtige ord "på spidsen af tungen." Det er især vigtigt for børn at observere, hvad vi ved (eller ikke ved), siger Dehané.

”Det er absolut nødvendigt for små børn at holde styr på, hvad de ved for at lære og være nysgerrige,” siger han.

Disse to aspekter af bevidsthed arbejder sammen: C1 trækker relevant information ind i vores arbejdsmentale rum (kasserer andre "mulige" ideer eller løsninger), og C2 hjælper med langsigtet refleksion om, hvorvidt bevidst tænkning har ført til et nyttigt resultat eller svar.

Når vi vender tilbage til eksemplet med indikator for lavt brændstof, giver C1 bilen mulighed for at løse problemet med det samme - disse algoritmer globaliserer informationen, og bilen lærer om problemet.

Men for at løse problemet har bilen brug for et katalog over "kognitive evner" - den selvbevidsthed om hvilke ressourcer der er let tilgængelige, såsom et GPS-kort over tankstationer.

”Denne type selvopdagelsesbil er det, vi kalder at arbejde med C2,” siger Dehane. Da signalet er tilgængeligt globalt og overvåges som om bilen ser på sig selv fra siden, vil bilen passe på indikatoren for lavt brændstof og opføre sig på samme måde som en person - det reducerer brændstofforbruget og finder en tankstation.

"De fleste moderne maskinlæringssystemer har ingen selvkontrol," bemærker forfatterne.

Men deres teori ser ud til at være på rette vej. I de eksempler, hvor et selvobservationssystem blev implementeret - i form af en struktur af algoritmer eller et separat netværk - udviklede AI'erne "interne modeller, der var metakognitive i naturen, hvilket tillod agenten at udvikle (begrænset, implicit, praktisk) forståelse af sig selv."

Til bevidste maskiner

Vil en bil med modellerne C1 og C2 opføre sig som om den har bevidsthed? Det er meget sandsynligt, at en smart bil “ved”, at den ser noget, udtrykker tillid til det, kommunikerer det til andre og finder den bedste løsning på problemet. Hvis hans introspektionsmekanismer bryder sammen, kan han også opleve "hallucinationer" eller syns illusioner, der er fælles for mennesker.

Takket være C1 kan han bruge de oplysninger, han har, og bruge dem fleksibelt, og takket være C2 vil han kende grænserne for, hvad han ved, siger Dehane.”Jeg tror, at denne maskine vil have bevidsthed,” og ikke bare virke sådan for mennesker.

Hvis du har en fornemmelse af, at bevidsthed handler om meget mere end en global udveksling af information og selvobservation, er du ikke alene.

"Denne rent funktionelle definition af bevidsthed kan efterlade nogle læsere utilfredse," indrømmer forfatterne.”Men vi forsøger at tage et radikalt skridt, måske forenkle problemet. Bevidsthed er en funktionel egenskab, og når vi fortsætter med at tilføje funktioner til maskiner, vil disse egenskaber på et tidspunkt karakterisere, hvad vi mener med bevidsthed,”konkluderer Dehane.

Ilya Khel