I 2040 Kan Kunstig Intelligens Revolutionere Principperne Om Nuklear Sikkerhed - Alternativ Visning

I 2040 Kan Kunstig Intelligens Revolutionere Principperne Om Nuklear Sikkerhed - Alternativ Visning
I 2040 Kan Kunstig Intelligens Revolutionere Principperne Om Nuklear Sikkerhed - Alternativ Visning

Video: I 2040 Kan Kunstig Intelligens Revolutionere Principperne Om Nuklear Sikkerhed - Alternativ Visning

Video: I 2040 Kan Kunstig Intelligens Revolutionere Principperne Om Nuklear Sikkerhed - Alternativ Visning
Video: Potentialet i kunstig intelligens 2024, Kan
Anonim

En nyligt offentliggjort undersøgelse fra RAND Corporation konkluderede, at i 2040 kunne kunstig intelligens (AI) radikalt ændre begrebet nuklear afskrækkelse.

En AI-drevet "dommedagsmaskine" virker usandsynlig, men de reelle risici ved AI for nuklear sikkerhed ligger i AI's evne til at få folk til at træffe uberettigede, potentielt apokalyptiske beslutninger.

Under den kolde krig opretholdt begrebet sikret gensidig ødelæggelse en rystende fred mellem supermagterne og argumenterede for, at ethvert angreb ville resultere i ødelæggende gengældelse. Som et resultat sikrede HLG-konceptet strategisk stabilitet og fungerede nøgternt på begge sider i deres beredskab til handlinger, der faktisk kunne udvikle sig til en atomkrig.

RAND-publikationen siger, at AI i de kommende årtier er ret i stand til at ødelægge begrebet sikret gensidig ødelæggelse og derved undergrave den strategiske stabilitet i vores verden. Mere sofistikerede sensorer gør det sandsynligt, at "gengældelsesvåben" - for eksempel atomubåde og mobile missiler - kan identificeres og ødelægges.

Nationerne kan blive fristet til at søge aktiver i første strejke, som om det var en fordel i forhold til deres rivaler, selvom de ikke har til hensigt at slå først. Dette undergraver stabiliteten, da selv hvis den side, der er i stand til at angribe først, ikke vil benytte denne mulighed, kan dens modstander ikke være sikker på det.

”Forbindelsen mellem atomkrig og AI er ikke ny, faktisk er historierne sammenflettet,” siger Edward Geist, medforfatter til artiklen og hos RAND. "Oprindeligt blev meget af AI-forskningen udført med støtte fra militæret i forfølgelsen af deres mål."

Som et eksempel nævnte han et "adaptivt planlagt overlevelseseksperiment" udført i 1980'erne, der havde til formål at bruge AI til at kombinere intelligens med målretning mod atomvåben.

I tilfælde af usikkerhed kunne AI forbedre stabiliteten i den strategiske situation ved at forbedre nøjagtigheden af den indsamlede intelligens og dens analyse.

Salgsfremmende video:

Forskere mener, at AI i udviklingsprocessen vil blive mindre tilbøjelig til at begå fejl sammenlignet med mennesker, hvilket betyder, at det vil være en faktor af stabilitet på lang sigt.

Vadim Tarabarko