Hvorfor Er Kunstig Intelligens At Bedømme Kriminelle Farlige? - Alternativ Visning

Indholdsfortegnelse:

Hvorfor Er Kunstig Intelligens At Bedømme Kriminelle Farlige? - Alternativ Visning
Hvorfor Er Kunstig Intelligens At Bedømme Kriminelle Farlige? - Alternativ Visning

Video: Hvorfor Er Kunstig Intelligens At Bedømme Kriminelle Farlige? - Alternativ Visning

Video: Hvorfor Er Kunstig Intelligens At Bedømme Kriminelle Farlige? - Alternativ Visning
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, Kan
Anonim

Kunstig intelligens hjælper allerede med at bestemme din fremtid på en eller anden måde. Når du søger efter noget på en søgemaskine, skal du bruge en tjeneste som Netflix, eller en bank vurderer dit prioritetsberettigede. Men hvad sker der, hvis kunstig intelligens skal afgøre, om du er skyldig eller ej, i retten? Mærkeligt nok kan det i nogle lande allerede ske. For nylig blev den amerikanske højesteret John Roberts spurgt, om han kunne forestille sig en dag, hvor "smarte maskiner, styret af kunstig intelligens, vil hjælpe med at finde beviser eller endda til at træffe retslige beslutninger." Han svarede: "Denne dag er allerede kommet, og han hjælper de retlige myndigheder betydeligt i sagen."

Måske henviste Roberts til den nylige sag om Eric Loomis, der blev dømt til seks års fængsel på anbefaling af hemmelig software fra et privat firma. Loomis, der allerede havde en kriminel historie og blev dømt for at flygte fra politiet i en stjålet bil, hævder nu, at hans ret til procedure blev krænket, da hverken han eller hans repræsentanter var i stand til at gennemgå eller udfordre anbefalingsalgoritmen.

Rapporten blev udarbejdet af Compas-softwaren, som sælges af Notrpointe til skibe. Programmet inkorporerer en ny tendens inden for AI-forskning: at hjælpe dommere med at træffe "bedre" (eller i det mindste mere datadrevne) afgørelser i retten.

Mens de specifikke detaljer i Loomis-sagen forbliver lukkede, indeholder den bestemt diagrammer og tal, der definerer Loomis 'liv, adfærd og sandsynlighed for tilbagefald. Disse inkluderer alder, race, kønsidentitet, vaner, browserhistorik og nogle målinger på kraniet. Ingen ved mere præcist.

Det er kendt, at anklageren i sagen fortalte dommeren, at Loomis demonstrerede "en høj risiko for tilbagevenden, vold, forudgående retssag." Dette er standard, når det kommer til domfældelse. Dommeren var enig og sagde til Loomis, at "Compas identificerede ham som en person med stor risiko for samfundet."

Wisconsin-højesteret dømte Loomis og tilføjede, at Compas-rapporten tilføjede værdifulde oplysninger til hans beslutning, men bemærkede, at uden ham afsagde han den samme dom. Selvfølgelig kan du ikke kontrollere dette med sikkerhed. Hvilke kognitive forstyrrelser kan der være, når et allmægtigt “smart” system som Compas er involveret i rådgivning af dommere om, hvad de skal gøre?

Ukendt brug

Salgsfremmende video:

Lad os være ærlige, der er ikke noget "ulovligt" ved, hvad Wisconsin-domstolen gjorde - dette er bare et eksempel. Andre domstole kan og vil gøre det samme.

Desværre ved vi ikke, i hvilket omfang AI og andre algoritmer bruges til domfældelse. Det menes, at nogle domstole "tester" systemer som Compas i lukkede retter, men kan ikke kræve et partnerskab. Der er også en opfattelse af, at flere AI-startups udvikler sådanne smarte systemer.

Image
Image

Imidlertid starter eller slutter brugen af AI i lovgivningen ikke med en sætning, det starter med en efterforskning. Storbritannien har allerede udviklet VALCRI-systemet, der udfører tidskrævende analytisk arbejde på få sekunder - sniger sig gennem masser af data som tekster, laboratorierapporter og politidokumenter for at fremhæve ting, der kan kræve yderligere efterforskning.

UK West Midlands Police vil teste VALCRI i løbet af de næste tre år ved hjælp af anonyme data, der indeholder over 6,5 millioner poster. En lignende test udføres af politiet i Antwerpen i Belgien. Tidligere har AI- og deep learning-projekter, der involverer massive datasæt, imidlertid været problematiske.

Fordele for de få

Teknologi har leveret mange nyttige hjælpemidler til retssale, lige fra kopimaskiner til DNA-ekstraktion fra fingeraftryk til sofistikerede overvågningsteknikker. Men dette betyder ikke, at nogen teknologi er en forbedring.

Mens brugen af AI i efterforskninger og domme potentielt kan spare tid og penge, skaber det akutte problemer. En Compas-rapport fra ProPublica gjorde det klart, at sorte fejlagtigt af programmet blev anset for at være mere tilbagevendende end hvide. Selv de mest sofistikerede AI-systemer kan arve racemæssige og kønsmæssige fordomme hos dem, der skaber dem.

Desuden, hvad er pointen med at skifte beslutningstagning (i det mindste delvist) om spørgsmål, der er unikke for mennesker, til en algoritme? Der er en vis vanskelighed i USA, når juryer prøver deres jævnaldrende. Juridiske standarder har aldrig været benchmark, så disse juryprocesser betragtes som de mest demokratiske og effektive overbevisningssystemer. Vi laver fejl, men med tiden akkumulerer vi viden om, hvordan vi ikke laver dem ved at forfine systemet.

Kompas og lignende systemer repræsenterer en sort boks i det juridiske system. Der skulle ikke være sådan. Juridiske systemer afhænger af kontinuitet, gennemsigtighed i information og evne til at gennemgå. Samfundet ønsker ikke et system, der tilskynder løbet til at oprette AI-startups, der fremstiller hurtige, billige og eksklusive løsninger. En hastigt lavet AI vil være forfærdelig.

En opdateret open source-version af Compas ville være en forbedring. Men først skal retssystemets standarder hæves, inden vi begynder at skifte ansvar til fordel for algoritmer.

ILYA KHEL