Kunstig Intelligens Viste Sig At Være En Racist - Alternativ Visning

Kunstig Intelligens Viste Sig At Være En Racist - Alternativ Visning
Kunstig Intelligens Viste Sig At Være En Racist - Alternativ Visning

Video: Kunstig Intelligens Viste Sig At Være En Racist - Alternativ Visning

Video: Kunstig Intelligens Viste Sig At Være En Racist - Alternativ Visning
Video: Er jeg dum? [CC] 2024, April
Anonim

En undersøgelse foretaget af forskere fra Massachusetts Institute of Technology har afsløret detaljerne i processen med dataanalyse med kunstig intelligens, som ofte ledes af sexistiske og racistiske stereotyper i beslutningsprocessen. Flere systemer, der deltog i eksperimentet, viste modtagelighed for menneskelig fordom.

Den britiske avis "The Daily Mail" skriver, at efter at have modtaget resultaterne af undersøgelsen, forpligtede holdet af forskere sig til at omprogrammere den kunstige intelligens og fjerne tidligere problemer. Ifølge Irene Chen, der arbejder ved Massachusetts Institute of Technology, har computerforskere en tendens til at skynde sig, at den eneste måde at eliminere elementer af racisme og sexisme i algoritmer til kunstig intelligens er at forbedre softwarekoden. Kvaliteten af algoritmer er direkte proportional med de data, de bruger. Undersøgelser udført af Chen med David Sontag og Fredrik D. Johannson viser, at flere tilgængelige data radikalt kan ændre ting til det bedre.

I et eksperiment så teamet på et system, der forudsagde en persons indkomst baseret på tilgængelig information. Analyse har vist, at algoritmen i 50% af tilfældene er tilbøjelig til at forudsige, at en kvindes indkomst i gennemsnit vil være mindre end en mands. Ved at øge mængden af tilgængelige data 10 gange fandt forskerne, at faktoren for en sådan fejl faldt med 40%.

I undersøgelsen af det system, der bruges på hospitaler og forudsiger overlevelse af patienter, der gennemgår alvorlig kirurgi, var præcisionen af forudsigelser endvidere meget lavere for Mongoloid-løbet end for kaukasiere og negroider. Forskere hævder imidlertid, at brugen af den avancerede analyseteknik kan reducere forudsigelsesnøjagtigheden markant for patienter, der ikke hører til Mongoloid-racet. Dette viser, at flere tilgængelige data muligvis ikke altid korrigerer algoritmefejl. I stedet skal forskere modtage mere information om diskriminerede grupper.

Den nye metode rejser et andet spørgsmål til maskinlæringsforskere om, hvordan man effektivt kan analysere data uden eksisterende forskelsbehandling.

Hvordan fungerer maskinlæring i AI-drevne systemer?

Kunstige intelligenssystemer er baseret på kunstige neurale netværk (ANN'er), som ekstrapolerer den opbevaring af information og læring, som den menneskelige hjerne bruger til mekaniske systemer. ANN'er træner for at finde mønstre i tilgængelige informationskilder, herunder tale, tekst og billeder. At forbedre nøjagtigheden af dataanalyse er en af de grundlæggende forudsætninger, der ligger forud for den seneste udvikling inden for kunstig intelligens.

"Regelmæssig" kunstig intelligens bruger inputdataene til at fortælle algoritmen om analyseemnet, der arbejder med en enorm mængde information.

Salgsfremmende video:

Praktiske applikationer af maskinlæring inkluderer Google-oversættelsestjenester, ansigtsgenkendelse fra Facebook-fotos og filtre på Snapchat, der scanner ansigter, før de anvender visuelle effekter online.

Dataregistreringsprocessen er ofte tidskrævende og er normalt begrænset af informationsstrømmen om et aspekt af objektet, der undersøges. En ny type ANN - et generativt adversarialt neuralt netværk - modsætter sig mulighederne for to forskellige robotter med kunstig intelligens på én gang, hvilket provoserer et mindre intelligent system til at lære på bekostning af det andet uden menneskelig deltagelse. Denne teknik forbedrer drastisk effektiviteten og hastigheden ved maskinlæring samtidig med at kvaliteten af dataanalysen øges.

Oliy Kurilov

Anbefalet: