Følelsesmæssig Kunstig Intelligens: Hvem Og Hvorfor Genkender Følelser I Rusland Og I Udlandet - Alternativ Visning

Indholdsfortegnelse:

Følelsesmæssig Kunstig Intelligens: Hvem Og Hvorfor Genkender Følelser I Rusland Og I Udlandet - Alternativ Visning
Følelsesmæssig Kunstig Intelligens: Hvem Og Hvorfor Genkender Følelser I Rusland Og I Udlandet - Alternativ Visning

Video: Følelsesmæssig Kunstig Intelligens: Hvem Og Hvorfor Genkender Følelser I Rusland Og I Udlandet - Alternativ Visning

Video: Følelsesmæssig Kunstig Intelligens: Hvem Og Hvorfor Genkender Følelser I Rusland Og I Udlandet - Alternativ Visning
Video: 101 Store svar på de vanskeligste spørgsmål 2024, Kan
Anonim

Kunstig intelligens udvikler sig aktivt i Rusland og verden - inklusive følelsesmæssig. Han er interesseret i store virksomheder og ambitiøse startups, der introducerer nye udviklinger inden for detailhandel, marketing, uddannelse, bank og rekruttering. Ifølge Mordor Intelligence blev markedet for følelsesgenkendelse værdsat til 12 milliarder dollars i 2018 og vil vokse til 92 milliarder dollars i 2024.

Hvad er emotionel AI

Emotion AI (Emotion AI) er en AI, der gør det muligt for en computer at genkende, fortolke og reagere på menneskelige følelser. Et kamera, mikrofon eller bærbar sensor læser en persons tilstand, og et neuralt netværk behandler dataene for at bestemme en følelse.

Der er to hovedmåder til at analysere følelser:

  1. Kontakt. En person sættes på en enhed, der læser hans puls, kroppens elektriske impulser og andre fysiologiske indikatorer. Sådanne teknologier kan ikke kun bestemme følelser, men også stressniveauet eller sandsynligheden for et epileptisk anfald.
  2. Kontaktløs. Følelser analyseres på baggrund af video- og lydoptagelser. Computeren lærer ansigtsudtryk, bevægelser, øjenbevægelser, stemme og tale.

For at træne et neuralt netværk indsamler dataforskere en stikprøve af data og markerer manuelt ændringen i en persons følelsesmæssige tilstand. Programmet studerer mønstre og forstår hvilke tegn der hører til hvilke følelser.

Neuralnetværket kan trænes i forskellige data. Nogle virksomheder og laboratorier bruger videobånd, andre studerer stemme, og andre drager fordel af flere kilder. Men jo mere forskelligartede data, jo mere præcist er resultatet.

Overvej to hovedkilder:

Salgsfremmende video:

Fotos og stillbilleder fra video

Billeder behandles først for at gøre det lettere for AI at arbejde med. Ansigtsfunktioner - øjenbryn, øjne, læber osv. - er markeret med prikker. Neuralnetværket bestemmer placeringen af punkterne, sammenligner dem med tegn på følelser fra skabelonen og konkluderer, hvilken følelse der afspejles - vrede, frygt, overraskelse, tristhed, glæde eller ro.

Der er også en anden tilgang. Markører af følelser bemærkes straks i ansigtet - for eksempel et smil eller rynkende øjenbryn. Derefter ser det neurale netværk efter markører på billedet, analyserer deres kombinationer og bestemmer personens tilstand.

Undersøgelsen af følelsesmarkører begyndte i det 20. århundrede. Sandt nok, så blev de betragtet separat fra neurale netværk. Forskerne Paul Ekman og Wallace Friesen udviklede Facial Action Coding System (FACS) i 1978. Det nedbryder ansigtsudtryk i individuelle muskelbevægelser eller handlingsenheder. Forskeren studerer motoriske enheder og sammenligner dem med følelser.

Stemme og tale

Neuralnetværket udtrækker mange parametre for stemmen fra det akustiske signal - for eksempel tone og rytme. Hun studerer deres tidsændring og bestemmer talerens tilstand.

Undertiden bruges et spektrogram til træning - et billede, der viser signalets styrke og frekvens over tid. Derudover analyserer AI ordforråd for mere nøjagtige resultater.

Hvor bruges teknologien

Salg og reklame

Den mest åbenlyse anvendelse af teknologi til følelsesgenkendelse er inden for markedsføring. Med deres hjælp kan du bestemme, hvordan en reklamevideo påvirker en person. For at gøre dette kan du for eksempel installere en struktur med et kamera, der ændrer reklame afhængigt af humør, køn og alder på personer, der går forbi.

Et lignende design blev udviklet af nystartede Cloverleaf og Affectiva. De introducerede en elektronisk hyldepunkt-annonce kaldet shelfPoint, der indsamler data om kunders følelser. Nye teknologier er testet af Procter & Gamble, Walmart og andre store virksomheder. Ifølge Cloverleaf steg salget 10-40%, mens kundens engagement steg 3-5 gange.

En mere usædvanlig mulighed er en robotkonsulent med kunstig intelligens. Han vil interagere med klienter, læse deres følelser og påvirke dem. Og kom også med personlige tilbud.

Image
Image

Servicerobotten blev præsenteret af den russiske opstart Promobot. Den bruger et neuralt netværk udviklet af Neurodata Lab, som bestemmer følelser fra flere kilder på én gang: optagelser af et ansigt, en stemme, bevægelser samt vejrtrækning og pulsfrekvens.

Promobot sælger aktivt sine robotter i udlandet. I 2018 underskrev opstart en kontrakt med det amerikanske firma Intellitronix for 56,7 millioner dollars, og i det næste blev det enige om at levere enheder til Saudi-Arabien, Israel, Kuwait og Sverige - for dem modtager virksomheden 1,1 millioner dollars. Ifølge Promobot arbejder i dag 492 robotter i 34 lande over hele verden som guider, portier, konsulenter og promotorer.

Banker

Teknologier til genkendelse af følelser hjælper bankerne med at få feedback fra kunder uden undersøgelser og forbedre service. Videokameraer er installeret i afdelingerne, og algoritmer til optagelse bestemmer de besøgende tilfredshed. Neurale netværk kan også analysere klientens og operatørens tale og tale under et opkald til kontaktcenteret.

I Rusland har de forsøgt at implementere følelsesmæssig AI i lang tid: Det blev testet i Sberbank tilbage i 2015, og tre år senere lancerede Alfa-Bank sin pilot til analyse af følelser fra video. Ud over optagelser fra overvågningskameraer bruges også optagelsesoptagelser. VTB lancerede et pilotprojekt til implementering af emotionel AI i 2019. Og Rosbank sammen med Neurodata Lab har allerede testet bestemmelsen af kunders følelser ved hjælp af tale og tale. Klienten ringede til banken, og det neurale netværk analyserede hans tilstand og betydningen af samtalen. Derudover bemærkede AI pauser i operatørens tale, stemmevolumen og kommunikationstid. Dette gjorde det ikke kun muligt at kontrollere tilfredsheden med tjenesten, men også for at overvåge arbejdet hos kontaktcenteroperatørerne.

Nu har Rosbank implementeret sin egen løsning til følelsesgenkendelse. I stedet for et akustisk signal analyserer systemet teksten, mens nøjagtigheden forbliver høj.

Taleteknologicentret er også involveret i at genkende følelser i tale (Sberbank ejer en majoritetsandel). Smart Logger-tjenesten analyserer kundernes og operatørernes stemme og ordforråd, taletid og pauser for at finde ud af, om tilfredsheden med tjenesten er.

Underholdning sfære

Systemer til følelsesgenkendelse kan bruges til at måle publikums reaktion på en film. Disney i 2017 udførte i samarbejde med forskere et eksperiment: installeret kameraer i en biograf og forbundne dyb læringsalgoritmer for at vurdere seernes følelser. Systemet kunne forudsige folks reaktioner ved at observere dem i bare et par minutter. Under eksperimentet indsamlede vi et imponerende datasæt: 68 markører fra hver 3.179 seere. I alt opnåedes 16 millioner ansigtsbilleder.

Til samme formål har YouTube-videohosting oprettet sin egen AI kaldet YouFirst. Det giver videobloggere og virksomheder mulighed for at teste indhold, inden de udsendes til platformen. Brugere klikker på et specielt link, accepterer at skyde en video og se videoen. På dette tidspunkt bestemmer det neurale netværk deres reaktioner og sender dataene til kanalsejeren.

Blandt russiske virksomheder kan reaktioner på videoer analyseres for eksempel af Neurobotics. Virksomheden har udviklet EmoDetect-programmet, der genkender glæde, tristhed, overraskelse, frygt, vrede, afsky og neutralitet. Programmet studerer op til 20 lokale ansigtstræk i fryserammer og en serie billeder. Systemet analyserer motorenheder og bruger FACS-ansigtskodningsteknologi. Det er muligt at optage video fra et webcam. EmoDetect API giver dig mulighed for at integrere produktet med eksterne applikationer.

Følelsesmæssig AI begynder også at blive anvendt i spillebranchen. Det hjælper med at personalisere spillet og tilføje mere interaktion med spilleren.

For eksempel hjalp det amerikanske emotionelle AI-firma Affectiva med at skabe den psykologiske thriller Nevermind. Spændingen afhænger af spillerens tilstand: plotet bliver mørkere, når han er under stress, og vice versa.

Image
Image

Uddannelse

Følelsesgenkendelse gælder også for uddannelse. Det kan bruges til at studere stemningen og opmærksomheden hos studerende i løbet af klassen.

Russiske udviklere har anvendt følelsesmæssig AI i Perm. Drivkraften for udviklingen af teknologi var de studerendes angreb på folkeskolestuderende og læreren. Rostelecom og opstarten New Vision har udviklet programmet Smart and Safe School til at overvåge børns følelsesmæssige tilstand. Dette vil hjælpe med at identificere asociale unge inden tragedie opstår.

Det var baseret på Paul Ekman-systemet. Neuralnetværket analyserede de mindste muskelbevægelser ved hjælp af 150 punkter i ansigtet. En stor mængde data blev samlet i løbet af lektionen: 5-6 tusind rammer for hver elev. Programmet studerede datasættet og beregnede hvert barns følelsesmæssige tilstand. Ifølge skaberne var nøjagtigheden 72%.

HR

Følelsesmæssig AI kan være nyttig i arbejde med personalet. Det hjælper med at bestemme medarbejderens tilstand, bemærke hans træthed eller utilfredshed i tide og til at omfordele opgaver mere effektivt.

Derudover hjælper teknologi med rekruttering. Ved hjælp af følelsesmæssig AI kan du tjekke en kandidat til et job eller fange en løgn under en samtale.

Det amerikanske firma HireVue bruger kunstig intelligens til at evaluere kandidater. Ansøgeren gennemgår et videointervju, og det neurale netværk bestemmer hans tilstand ved hjælp af nøgleord, stemmeintonation, bevægelser og ansigtsudtryk. AI fremhæver de egenskaber, der er vigtige for jobbet og giver karakterer, og HR-lederen vælger de rigtige kandidater.

London-baseret opstart Human bruger video til at identificere følelser og matche dem til karaktertræk. Efter videointervjuet modtager rekrutterere en rapport, der siger, hvor ærlig, nysgerrig, ophidset, entusiastisk eller selvsikker kandidaten var, og hvordan han svarede på spørgsmål.

Medicin

På dette område vil ikke kun ikke-kontakt, men også kontaktmetoder til bestemmelse af følelser være nyttige. De implementeres aktivt af udenlandske startups - for eksempel Affectiva og Brain Power. Virksomhedernes udvikling inkluderer AI-briller, der hjælper børn og voksne med autisme i at genkende andre menneskers følelser og udvikle sociale færdigheder.

Men neurale netværk kan hjælpe patienter uden bærbare sensorer. Forskere ved Massachusetts Institute of Technology har oprettet et neuralt netværk, der registrerer depression ved at analysere en persons tale. Resultatet af nøjagtighed var 77%. Og opstart Beyond Verbal bruger AI til at analysere patienters mentale helbred. I dette tilfælde vælger det neurale netværk kun stemmebiomarkører fra lydoptagelsen.

biler

Massachusetts Institute of Technology er ved at udvikle en AI kaldet AutoEmotive, der bestemmer førerens og passagerernes tilstand. Han vil ikke kun overvåge stressniveauet, men også prøve at reducere det - ved at spille blød musik, justere temperaturen i kabinen eller tage en mindre travl rute.

Begrænsninger i følelsesmæssig AI

Det neurale netværk kan ikke tage konteksten i betragtning

AI har lært at identificere grundlæggende menneskelige følelser og tilstande, men indtil videre klarer det sig ikke godt med mere komplekse situationer. Forskere bemærker, at ansigtsudtryk ikke altid viser nøjagtigt, hvordan en person virkelig føler. Hans smil kan være skråtstillet eller sarkastisk, og dette kan kun bestemmes ud fra sammenhæng.

NtechLab-eksperter mener, at det stadig er vanskeligt at bestemme årsagen til denne eller den anden følelse.

NtechLab understreger, at det ikke kun er nødvendigt at genkende ansigtsudtryk, men også menneskelige bevægelser. Forskellige data vil gøre emotionel AI meget mere effektiv. Daniil Kireev, en førende forsker hos VisionLabs produktudviklingsvirksomhed for ansigtsgenkendelse, er enig i dette. Efter hans mening øges nøjagtigheden af algoritmerne med en stor mængde data.

”Der er fejl, deres antal afhænger af mange faktorer: kvaliteten af træningsprøven, det træne neurale netværk, de data, som det endelige system fungerer på. Ved at tilføje oplysninger fra forskellige kilder - for eksempel tale - kan du forbedre systemets kvalitet. På samme tid er det vigtigt at forstå, at vi i ansigtet snarere bestemmer dens udtryk end den endelige følelse. Algoritmen kan prøve at bestemme den simulerede følelse, men for dette skal udviklingen af teknologi tage et lille skridt fremad,”siger Daniil Kireev.

Dårligt udstyr

Eksterne faktorer påvirker kvaliteten af algoritmerne. For at nøjagtigheden af følelsesgenkendelse skal være høj, skal videokameraer og mikrofoner være af høj kvalitet. Derudover er resultatet påvirket af belysning, placering af kameraet. Ifølge Daniil Kireev komplicerer ukontrollerede forhold processen med at bestemme en persons stater.

For at emotionel AI skal udvikle sig, har du brug for hardware. Hvis du finder godt udstyr og indstiller det korrekt, vil resultaterne være nøjagtige. Og når det bliver mere tilgængeligt og udbredt, vil følelsesgenkendelsesteknologier forbedres og implementeres mere aktivt.

”Systemets nøjagtighed afhænger af mange faktorer. Den vigtigste er kvaliteten af stillbilleder fra kameraet, som gives til systemet til genkendelse. Kvaliteten af stillbilleder påvirkes igen af kameraets indstillinger og egenskaber, matrix, belysning, placering af enheden, antallet af ansigter i rammen. Med den rigtige konfiguration af hardware og software er det muligt at opnå nøjagtigheden af den opdagede følelse op til 90-95%,”bemærker Vitaly Vinogradov, produktchef for skyvideoovervågning og videoanalyseservice Ivideon.

Teknologiperspektiv

Nu i Rusland vinder emotionel AI kun fart. Startups udvikler teknologi og markedsfører deres produkter, og kunder tester dem med forsigtighed.

Men Gartner estimerer, at i 2024 vil mere end halvdelen af onlineannoncer blive foretaget ved hjælp af emotionel AI. Computersyn, der bruges til at opdage følelser, bliver en af de vigtigste teknologier i de næste 3-5 år. Og MarketsandMarkets forudsiger, at markedet for følelsesanalyse vil fordobles i 2024 - fra $ 2,2 milliarder til $ 4,6 milliarder.

Derudover viser store virksomheder interesse for følelsesgenkendelse - for eksempel Procter & Gamble, Walmart, VTB, Rosbank, Sberbank og Alfa-Bank. Og indenlandske startups udvikler pilotprojekter, der vil blive færdige løsninger til erhvervslivet i fremtiden.

Evgeniya Khrisanfova