Forskere Har Forklaret, Hvordan Et Våbenløb Vil Føre Til En "Terminator-style War" - Alternativ Visning

Forskere Har Forklaret, Hvordan Et Våbenløb Vil Føre Til En "Terminator-style War" - Alternativ Visning
Forskere Har Forklaret, Hvordan Et Våbenløb Vil Føre Til En "Terminator-style War" - Alternativ Visning

Video: Forskere Har Forklaret, Hvordan Et Våbenløb Vil Føre Til En "Terminator-style War" - Alternativ Visning

Video: Forskere Har Forklaret, Hvordan Et Våbenløb Vil Føre Til En "Terminator-style War" - Alternativ Visning
Video: Køb af nyt eller brugt haglgevær 2024, Marts
Anonim

I en ny rapport talte eksperter fra Cornell University om risikoen forbundet med den stadig mere aktive introduktion af kunstig intelligens i atomvåben, ifølge Daily Mail. Ifølge forskere kan maskiner "komme ud af kontrol" og provokere en "apokalyptisk krig", så de vigtigste beslutninger i brugen af atomvåben er stadig bedre overladt til personen.

Forskere advarer om, at overførslen af kontrol over atomvåben til kunstig intelligens kan ende i en "terminator-stil" apokalyptisk krig.

I deres nye rapport hævder eksperter fra det amerikanske Ivy League Cornell University, at et stigende skift mod automatisering og robotisering kunne føre til det faktum, at maskiner "kommer ud af kontrol" og erklærer krig mod menneskeheden - ligesom i en række science fiction. film "Terminator" med Arnold Schwarzenegger.

Ifølge eksperter, der prøver at "indhente De Forenede Stater med hensyn til militært potentiale", begynder Rusland og Kina at stole oftere på kunstig intelligenssteknologi, som i fremtiden kan udgøre risici, som ikke engang er kendt for verden. Således er Moskva allerede begyndt at arbejde på den ubemandede Poseidon undervands atomtorpedo, tidligere kendt som Status-6.

Derudover kan lande beslutte at bruge kunstig intelligens mere aktivt i tidlige advarselssystemer. Og her, som forskerne minder om, viser historien os, at risikoen også kan være store. Mange mennesker kender hændelsen i 1983, da den sovjetiske officer Stanislav Petrov ignorerede systemets signal om at skyde amerikanske missiler. Petrov indså, at signalet var falsk og dermed reddede verden fra en mulig atomkrig mellem De Forenede Stater og Rusland.

Eksperter anerkender, at computerisering af nukleare våben i en eller anden form kan forbedre pålideligheden og stabiliteten af sådanne systemer. Kunstig intelligens kan indsamle data og udføre analyse, som derefter kan bruges af militære ledere.

”Ved modernisering af nukleare arsenaler skal ledelse bestræbe sig på at bruge edb-systemer til at reducere risikoen for utilsigtede ulykker, falske positive og øge den menneskelige kontrol med atomvåbenoperationer,” anbefaler forskerne.

Anbefalet: