AI Kan ændre Vores Liv For Evigt - Men Vi Er I øjeblikket På En Mørk Sti - Alternativ Visning

AI Kan ændre Vores Liv For Evigt - Men Vi Er I øjeblikket På En Mørk Sti - Alternativ Visning
AI Kan ændre Vores Liv For Evigt - Men Vi Er I øjeblikket På En Mørk Sti - Alternativ Visning

Video: AI Kan ændre Vores Liv For Evigt - Men Vi Er I øjeblikket På En Mørk Sti - Alternativ Visning

Video: AI Kan ændre Vores Liv For Evigt - Men Vi Er I øjeblikket På En Mørk Sti - Alternativ Visning
Video: REAL RACING 3 LEAD FOOT EDITION 2024, April
Anonim

Kunstig intelligens (AI) omformer allerede verden på synlige måder. Data driver vores globale digitale økosystem, og AI-teknologier afslører mønstre i data.

Smarttelefoner, smarte hjem og smarte byer påvirker den måde, vi lever og interagerer på, og kunstige intelligenssystemer er i stigende grad involveret i ansættelse af beslutninger, medicinsk diagnostik og bedømmelse. Om dette scenarie er utopisk eller dystopisk er op til os.

De potentielle risici ved AI er anført mange gange. Dræberrobotter og massiv arbejdsløshed er almindelige problemer, mens nogle mennesker endda frygter udryddelse. Mere optimistiske fremskrivninger hævder, at AI vil tilføje $ 15 billioner til den globale økonomi inden 2030 og til sidst føre os til en slags social nirvana.

Vi er bestemt nødt til at overveje, hvilken indflydelse sådanne teknologier har på vores samfund. Et hovedspørgsmål er, at AI-systemer forstærker de eksisterende sociale skævheder - til en ødelæggende virkning.

Flere berygtede eksempler på dette fænomen har fået bred opmærksomhed: moderne automatiserede maskineoversættelsessystemer og billedgenkendelsessystemer.

Disse problemer opstår, fordi sådanne systemer bruger matematiske modeller (såsom neurale netværk) til at definere mønstre i store træningsdatasæt. Hvis disse data bliver alvorligt forvrænget på forskellige måder, vil iboende fejl uundgåeligt blive undersøgt og gengivet af træne systemer.

Partiske autonome teknologier er problematiske, fordi de potentielt kan isolere grupper som kvinder, etniske minoriteter eller ældre og derved forværre eksisterende sociale ubalancer.

Hvis AI-systemer fx er uddannet fra politiets arrestationsdata, duplikeres alle bevidste eller ubevidste fordomme, der manifesteres i eksisterende arrestordninger, af det "politiske fremsyn" AI-system, der er uddannet fra disse data.

Salgsfremmende video:

I erkendelse af de alvorlige konsekvenser af dette har forskellige velrenommerede organisationer for nylig anbefalet, at alle kunstige intelligenssystemer trænes i objektive data. Etiske retningslinjer offentliggjort tidligere i 2019 af Europa-Kommissionen antydede følgende anbefaling:

Når data indsamles, kan de indeholde socialt konstruerede fejl, unøjagtigheder. Dette skal løses inden træning af AI på ethvert datasæt.

Alt dette lyder rimeligt nok. Desværre er det undertiden simpelthen ikke muligt at sikre, at visse datasæt er uvildige inden træning. Et konkret eksempel bør præcisere dette.

Alle moderne maskinoversættelsessystemer (som Google Translate) lærer af sætningspar.

Det anglo-franske system bruger data, der forbinder engelske sætninger ("hun er høj") med ækvivalente franske sætninger ("elle est grande").

Der kunne være 500 millioner sådanne par i et givet træningsdatasæt, og derfor kun en milliard individuelle sætninger. Alle kønsbias skal fjernes fra denne type datasæt, hvis vi skal forhindre, at der genereres resultater såsom følgende i systemet:

Den franske oversættelse blev oprettet ved hjælp af Google Translate den 11. oktober 2019 og er forkert: "Ils" er et maskuløst flertal på fransk og vises her på trods af, at konteksten tydeligt indikerer, at der henvises til på kvinder.

Dette er et klassisk eksempel på et automatiseret system, der foretrækker den mandlige standardstandard på grund af bias i træningsdata.

Generelt er 70 procent af de generiske udtaler i oversættelsesdatasættene maskuline og 30 procent er feminine. Dette skyldes, at tekster, der bruges til sådanne formål, oftere henviser til mænd end kvinder.

For at undgå at gentage de eksisterende fejl i oversættelsessystemet, ville det være nødvendigt at udelukke specifikke sæt sæt fra dataene, så de maskuline og feminine pronomen mødes i et forhold på 50/50 på både den engelske og den franske side. Dette vil forhindre systemet med at tildele større sandsynligheder til maskuline pronomen.

Og selv hvis den resulterende delmængde af dataene er fuldt kønsbalanceret, vil de stadig være skrå på forskellige måder (f.eks. Etnisk eller alder). I sandhed ville det være vanskeligt at fjerne alle disse fejl fuldstændigt.

Hvis en person kun bruger fem sekunder på at læse hver enkelt milliard sætning i AI-træningsdata, vil det tage 159 år at teste dem alle - og det antager viljen til at arbejde hele dagen og natten uden frokostpauser.

Alternativ?

Derfor er det urealistisk at kræve, at alle træningsdatasæt er uvildige, før AI-systemer er bygget. Sådanne krav på højt niveau antager normalt, at "AI" betegner en homogen klynge af matematiske modeller og algoritmiske tilgange.

Faktisk kræver forskellige AI-opgaver helt forskellige typer systemer. Og fuldstændigt undervurdering af denne mangfoldighed maskerer de virkelige problemer forbundet med for eksempel stærkt forvrængede data. Dette er uheldigt, da det betyder, at andre løsninger på dataforstyrrelsesproblemet overses.

F.eks. Kan forspændinger i et trænet maskinoversættelsessystem reduceres markant, hvis systemet tilpasses, efter at det er blevet trænet i et stort, uundgåeligt partisk datasæt.

Dette kan gøres ved hjælp af et meget mindre, mindre forvirret datasæt. Derfor kan de fleste af dataene være meget partiske, men et trænet system er ikke nødvendigt. Desværre diskuteres disse metoder sjældent af dem, der udvikler retningslinjer og juridiske rammer for AI-forskning.

Hvis AI-systemer simpelthen forværrer eksisterende sociale ubalancer, er de mere tilbøjelige til at modvirke end at fremme positive sociale ændringer. Hvis de AI-teknologier, vi i stigende grad bruger på daglig basis, var langt mindre partiske end vi er, kunne de hjælpe os med at genkende og konfrontere vores egne lurer fordomme.

Det er selvfølgelig, hvad vi skal stræbe efter. Derfor er AI-designere nødt til at tænke meget mere omhyggeligt over de sociale implikationer af systemerne, de opretter, mens de, der skriver om AI, er nødt til at forstå mere dybtgående, hvordan AI-systemer faktisk designes og bygges.

For hvis vi virkelig nærmer os en teknologisk idyll eller en apokalypse, ville førstnævnte være at foretrække.

Victoria Vetrova