Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Man Det? - Alternativ Visning

Indholdsfortegnelse:

Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Man Det? - Alternativ Visning
Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Man Det? - Alternativ Visning

Video: Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Man Det? - Alternativ Visning

Video: Folk Stoler Ikke På Kunstig Intelligens. Hvordan Fikser Man Det? - Alternativ Visning
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, Kan
Anonim

Kunstig intelligens kan allerede forudsige fremtiden. Politiet bruger det til at udarbejde et kort, der viser, hvornår og hvor kriminalitet kan forekomme. Læger bruger det til at forudsige, hvornår en patient kan få et slagtilfælde eller hjerteanfald. Forskere forsøger endda at give AI fantasien, så den kan forudse uventede begivenheder.

Mange beslutninger i vores liv kræver gode forudsigelser, og AI-agenter er næsten altid bedre til dem end mennesker. Men for alle disse teknologiske fremskridt mangler vi stadig tillid til de forudsigelser, som kunstig intelligens giver. Folk er ikke vant til at stole på AI og foretrækker at stole på menneskelige eksperter, selvom disse eksperter tager fejl.

Image
Image

Hvis vi vil have kunstig intelligens til gavn for mennesker, er vi nødt til at lære at stole på den. For at gøre dette skal vi forstå, hvorfor folk er så vedholdende i at nægte at stole på AI.

Stol på Dr. Robot

IBMs forsøg på at præsentere et supercomputerprogram for onkologer (Watson for Oncology) mislykkedes. AI har lovet at levere højkvalitetsbehandlingsanbefalinger til 12 kræftformer, der tegner sig for 80% af verdens tilfælde. Til dato har mere end 14.000 patienter modtaget anbefalinger baseret på hans beregninger.

Men da lægerne først stødte på Watson, befandt de sig i en ret vanskelig situation. På den ene side, hvis Watson leverede retningslinjer for behandling, der matchede deres egne meninger, så lægeprofessionen ikke meget værdi i AI-anbefalingerne. Supercomputeren fortalte simpelthen dem, hvad de allerede vidste, og disse anbefalinger ændrede ikke den faktiske behandling. Dette kan have givet læger ro i sindet og tillid til deres egne beslutninger. Men IBM har endnu ikke bevist, at Watson faktisk øger overlevelsesraten for kræft.

Salgsfremmende video:

Image
Image

På den anden side, hvis Watson fremsatte anbefalinger, der var i strid med ekspertudtalelse, konkluderede lægerne, at Watson var inkompetent. Og maskinen kunne ikke forklare, hvorfor dens behandling ville fungere, fordi dens maskinlæringsalgoritmer var for komplekse til at mennesker kunne forstå. Følgelig førte dette til endnu mere mistillid, og mange læger ignorerede simpelthen AI-anbefalingerne og stole på deres egen erfaring.

Som et resultat meddelte IBM Watsons Chief Medical Partner, MD Anderson Cancer Center, for nylig, at det annullerede programmet. Det danske hospital sagde også, at det opgav programmet, efter at det opdagede, at onkologer var uenige med Watson ved to ud af tre lejligheder.

Problemet med Watson onkologi var, at lægerne simpelthen ikke stolede på ham. Folks tillid afhænger ofte af vores forståelse af, hvordan andre mennesker tænker, og vores egen oplevelse, som bygger tillid til deres mening. Dette skaber en psykologisk følelse af sikkerhed. AI er derimod relativt nyt og uforståeligt for mennesker. Det tager beslutninger baseret på et sofistikeret analysesystem for at identificere potentielle skjulte mønstre og svage signaler fra store datamængder.

Selvom det kan forklares i tekniske termer, er beslutningsprocessen for AI normalt for kompleks for de fleste at forstå. At interagere med noget, vi ikke forstår, kan forårsage angst og skabe en følelse af tab af kontrol. Mange mennesker forstår simpelthen ikke, hvordan og med hvad AI fungerer, fordi det sker et eller andet sted bag skærmen i baggrunden.

Af samme grund er de mere opmærksomme på tilfælde, hvor AI er forkert: tænk på Googles algoritme, der klassificerer folk i farve som gorillaer; Microsoft chatbot, der blev nazist på mindre end en dag; Tesla-køretøj i autopilottilstand, hvilket medfører dødelig ulykke. Disse uheldige eksempler har fået uforholdsmæssig medieopmærksomhed og fremhævet dagsordenen om, at vi ikke kan stole på teknologi. Maskinindlæring er ikke 100% pålidelig, delvis fordi mennesker designer den.

En splittelse i samfundet?

De følelser, som kunstig intelligens fremkalder, går dybt ind i menneskets natur. Forskere gennemførte for nylig et eksperiment, hvor de undersøgte mennesker, der så film om kunstig intelligens (fantasi) om emnet automatisering i hverdagen. Det viste sig, at uanset om AI blev portrætteret på en positiv eller negativ måde, så blot at se en filmisk repræsentation af vores teknologiske fremtid polarisere deltagernes holdninger. Optimister bliver endnu mere optimistiske, og skeptikere lukker endnu mere.

Dette antyder, at folk er partisk mod AI baseret på deres egen ræsonnement, en dybtliggende tendens til bekræftelsesforstyrrelse: tendensen til at søge eller fortolke information på en sådan måde, at det bekræfter allerede eksisterende begreber. Da AI i stigende grad fremgår af medierne, kan det fremme dybe splittelser i samfundet, en kløft mellem dem, der bruger AI og dem, der afviser det. En overvejende gruppe mennesker kan få en stor fordel eller et handicap.

Tre veje ud af AI-tillidskrisen

Heldigvis har vi nogle tanker om, hvordan vi skal håndtere tillid til AI. Erfaring med AI alene kan dramatisk forbedre folks holdning til denne teknologi. Der er også beviser for, at jo oftere du bruger bestemte teknologier (såsom Internettet), jo mere stoler du på dem.

En anden løsning kan være at åbne den sorte boks med maskinindlæringsalgoritmer og få dem til at arbejde mere gennemsigtigt. Virksomheder som Google, Airbnb og Twitter offentliggør allerede gennemsigtighedsrapporter om regeringsforespørgsler og videregivelser. Denne form for praksis i AI-systemer hjælper folk med at få den nødvendige forståelse af, hvordan algoritmer tager beslutninger.

Forskning viser, at inddragelse af mennesker i AI-beslutningstagning også vil øge tilliden og gøre det muligt for AI at lære af menneskelig erfaring. Undersøgelsen viste, at folk, der fik mulighed for at ændre algoritmen en smule, følte sig mere tilfredse med resultaterne af dens arbejde, sandsynligvis på grund af en følelse af overlegenhed og evnen til at påvirke fremtidige resultater.

Vi behøver ikke at forstå de indviklede indre funktioner i AI-systemer, men hvis vi giver folk endda lidt information og kontrol over, hvordan disse systemer implementeres, vil de have mere selvtillid og et ønske om at omfavne AI i deres daglige liv.

Ilya Khel

Anbefalet: