Hvornår Begynder Kunstig Intelligens At Forstå Menneskelige Følelser? - Alternativ Visning

Indholdsfortegnelse:

Hvornår Begynder Kunstig Intelligens At Forstå Menneskelige Følelser? - Alternativ Visning
Hvornår Begynder Kunstig Intelligens At Forstå Menneskelige Følelser? - Alternativ Visning

Video: Hvornår Begynder Kunstig Intelligens At Forstå Menneskelige Følelser? - Alternativ Visning

Video: Hvornår Begynder Kunstig Intelligens At Forstå Menneskelige Følelser? - Alternativ Visning
Video: Kunstig Intelligens - Behandling af sygdomme 2024, April
Anonim

Ville du stole på en robot, hvis det var din læge? Følelsesmæssige intelligente maskiner er måske ikke så langt fra os, som de ser ud til. I løbet af de sidste par årtier har kunstig intelligens dramatisk øget evnen til at læse folks følelsesmæssige reaktioner.

Men at læse følelser betyder ikke at forstå dem. Hvis AI ikke selv kan opleve dem, vil den nogensinde være i stand til fuldt ud at forstå os? Og hvis ikke, risikerer vi at henføre egenskaber til robotter, som de ikke har?

Den seneste generation af kunstig intelligens takker os allerede for væksten i mængden af data, som computere kan lære af, samt for stigningen i behandlingskraft. Disse maskiner forbedres gradvist i forhold, som vi normalt udelukkende gav folk til udførelse.

Image
Image

I dag kan kunstig intelligens blandt andet genkende ansigter, omdanne skitser af ansigter til fotografier, genkende tale og spille Go.

Identificering af kriminelle

For ikke så længe siden udviklede forskere kunstig intelligens, der kan fortælle, om en person er en kriminel bare ved at se på deres ansigtstræk. Systemet blev evalueret ved hjælp af en database med kinesiske fotografier, og resultaterne var simpelthen forbløffende. AI klassificerede fejlagtigt uskyldige mennesker som kriminelle i kun 6% af tilfældene og identificerede med succes 83% af kriminelle. Den samlede nøjagtighed var næsten 90%.

Salgsfremmende video:

Dette system er baseret på en tilgang kaldet "dyb læring", der har vist sig at være vellykket inden for eksempel ansigtsgenkendelse. Dyb læring kombineret med en "ansigtsrotationsmodel" gjorde det muligt for kunstig intelligens at bestemme, om to fotografier repræsenterer den samme persons ansigt, selvom belysningen eller vinklen ændres.

Dyb læring skaber et "neuralt netværk", der er baseret på tilnærmelsen af den menneskelige hjerne. Det består af hundreder af tusinder af neuroner organiseret i forskellige lag. Hvert lag fører inputdata, såsom et ansigtsbillede, til et højere abstraktionsniveau, såsom et sæt kanter i bestemte retninger og placeringer. Og det fremhæver automatisk de funktioner, der er mest relevante for udførelsen af en bestemt opgave.

I betragtning af succes med dyb læring er det ikke overraskende, at kunstige neurale netværk kan skelne kriminelle fra uskyldige - hvis der faktisk er ansigtsdrag, der adskiller sig mellem de to. Undersøgelsen gjorde det muligt at skelne mellem tre træk. Den ene er vinklen mellem spidsen af næsen og mundens hjørner, som i gennemsnit er 19,6% mindre for kriminelle. Overkropens krumning er også i gennemsnit 23,4% større for kriminelle, og afstanden mellem de indre hjørner af øjnene er i gennemsnit 5,6% smalere.

Ved første øjekast antyder denne analyse, at den forældede opfattelse af, at kriminelle kan identificeres ved fysiske egenskaber, ikke er så forkert. Dette er dog ikke hele historien. Bemærkelsesværdigt er de to mest relevante træk forbundet med læberne, og dette er vores mest udtryksfulde ansigtstræk. Fotografierne af de kriminelle, der blev brugt i undersøgelsen, kræver et neutralt ansigtsudtryk, men AI formåede stadig at finde skjulte følelser på disse fotografier. Måske så ubetydelig, at folk ikke kan opdage dem.

Image
Image

Det er svært at modstå fristelsen til selv at se på prøvebilleder - her er de. Dokumentet er under gennemgang. Nær undersøgelse viser et lille smil på fotografierne af den uskyldige. Men der er ikke mange fotografier i prøverne, så det er umuligt at drage konklusioner om hele databasen.

Kraften ved affektiv computing

Dette er ikke første gang, en computer har kunnet genkende menneskelige følelser. Det såkaldte område med "affektiv computing" eller "emotional computing" har eksisteret i lang tid. Det antages, at hvis vi ønsker at leve komfortabelt og interagere med robotter, skal disse maskiner være i stand til at forstå og reagere passende på menneskelige følelser. Mulighederne i dette område er ret omfattende.

For eksempel brugte forskerne ansigtsanalyse til at identificere studerende, der havde svært ved computerbaseret undervisning. AI er blevet lært til at genkende forskellige niveauer af engagement og frustration, så systemet kan forstå, når studerende finder job for nemt eller for komplekst. Denne teknologi kan være nyttig til at forbedre læringsoplevelsen på online platforme.

Sony forsøger at udvikle en robot, der kan danne følelsesmæssige bånd med mennesker. Det er endnu ikke helt klart, hvordan hun ville nå dette, eller hvad nøjagtigt roboten vil gøre. Virksomheden siger imidlertid, at den prøver at "integrere hardware og tjenester for at give en følelsesmæssigt sammenlignelig oplevelse."

Følelsesmæssig kunstig intelligens vil have en række potentielle fordele, det være sig samtalens eller kunstnerens rolle - det vil være i stand til både at identificere den kriminelle og tale om behandlingen.

Der er også etiske bekymringer og risici. Ville det være rigtigt at lade en patient med demens stole på en AI-ledsager og fortælle dem, at de følelsesmæssigt lever, når de ikke er det? Kan du sætte en person bag søjler, hvis AI siger, at han er skyldig? Selvfølgelig ikke. Kunstig intelligens vil først og fremmest ikke være en dommer, men en efterforsker, der identificerer "mistænkelige", men bestemt ikke skyldige mennesker.

Subjektive ting som følelser og følelser er svære at forklare til kunstig intelligens, delvis fordi AI ikke har adgang til gode nok data til at analysere det objektivt. Vil AI nogensinde forstå sarkasme? En sætning kan være sarkastisk i en sammenhæng og helt anden i en anden.

Under alle omstændigheder vokser mængden af data og behandlingskraft fortsat. Med nogle få undtagelser kan AI godt lære at genkende forskellige typer følelser i de næste par årtier. Men kunne han nogensinde opleve dem selv? Det er et stykke punkt.

ILYA KHEL