Kan Kina Og Rusland Vinde Race For Kunstig Intelligens? - Alternativ Visning

Kan Kina Og Rusland Vinde Race For Kunstig Intelligens? - Alternativ Visning
Kan Kina Og Rusland Vinde Race For Kunstig Intelligens? - Alternativ Visning

Video: Kan Kina Og Rusland Vinde Race For Kunstig Intelligens? - Alternativ Visning

Video: Kan Kina Og Rusland Vinde Race For Kunstig Intelligens? - Alternativ Visning
Video: Artificial Intelligence and Extinction of Human Race with bad English 2024, Kan
Anonim

I oktober valgte Beijing Institute of Technology, en af landets førende militære forskningsinstitutioner, 31 teenagere blandt mere end 5.000 ansøgere. Ifølge de kinesiske myndigheder vil disse unge mennesker udvikle en ny generation af våben udstyret med kunstig intelligens (AI) - dette kan omfatte mikroskopiske robotter, computervirus, ubåde, droner, tanke.

Planer som dette er en kraftig påmindelse om den retning, i hvilken hovedvåbenløbet kan udfoldes. Stigningen i computerkraft og forbedringen af programmer med selvlæringsalgoritmer skaber nye muligheder for både krig og regering.

Konsulentvirksomhed PwC estimerer, at bidraget fra AI-drevne systemer til den globale økonomi kunne nå $ 15,7 billioner inden 2030, hvor Kina og USA sandsynligvis vil være de førende aktører. Den største bekymring for regeringerne er imidlertid de potentielle militære implikationer. På den ene side er der frygt for at hænge bagefter, på den anden side er der frygt for, at ikke-testede teknologier kan medføre nye farer.

Pentagon-embedsmænd har bedt Defense Innovation Council - en samling af højtstående Silicon Valley-embedsmænd, der leverer teknisk rådgivning til det amerikanske militær - om at udvikle et sæt etiske retningslinjer for anvendelse af AI i krig. Sidste måned annoncerede Frankrig og Canada oprettelsen af en international ekspertgruppe til at diskutere lignende spørgsmål. Indtil nu har vestlige stater været af den opfattelse, at vitale beslutninger i en konflikt altid skal træffes af mennesker, og computere og algoritmer simpelthen letter deres implementering. Nogle lande - især Rusland og Kina - overvejer imidlertid en anden vej.

Sidste år rapporterede Rusland fordobling af sin investering i AI. Tidligere denne måned blev det annonceret, at Moskva vil offentliggøre en ny national AI-strategi køreplan i midten af 2019, som af russiske embedsmænd ses som nøglen til at dominere cyberområdet og informationsoperationer. Allerede påståede russiske "troldfarme" antages at bruge automatiserede feeds på sociale medier til at fremme desinformation.

Eksperter hævder, at opbygning af et avanceret AI-system kræver den rigtige behandlingskraft, tilstrækkelige træningsdata og dygtige kunstnere. Som de mest magtfulde autoritære stater i verden har Rusland og Kina lignende kapaciteter og agter at bruge AI både til at opretholde regeringspositioner på deres territorium og til at besejre fjender uden for det.

Beijing bruger allerede massiv automatiseret overvågning, herunder ansigtsgenkendelsessoftware, til at dæmme op for dissens, især i den Uyghur muslimske nordvest. Det er sandsynligt, at sådanne systemer bliver mere magtfulde, når teknologien forbedres. Når det gælder overvågning af sine borgeres kommunikation, er Kina (som Rusland) meget mindre i tvivl og reguleringsmekanismer end vestlige stater.

Vestlige demokratier og især Amerika har traditionelt været mere dygtige end diktaturer til at bruge nye teknologier. Når det gjaldt AI, stod imidlertid Washingtons bestræbelser på at bygge bro mellem Silicon Valley og militæret over for en række udfordringer. I juni tvang Google-medarbejdere virksomheden til at trække sig ud af en kontraktfornyelse med Pentagon. Mange videnskabsmænd er tilbageholdende med at arbejde på forsvarsprojekter af frygt for, at de til sidst vil oprette ukontrollerbare morderobotter.

Salgsfremmende video:

De Forenede Stater og dets allierede udvikler imidlertid deres egne autonome våben. Så i oktober meddelte Microsoft roligt, at den agter at sælge til Pentagon alle avancerede AI-systemer, der kræves for at "skabe et stærkt forsvar." Ledere fra den amerikanske luftvåben siger, at deres klassificerede fremtidige langtids strejkefly, designet til at erstatte stealth B-2-bombefly, vil være i stand til at operere med eller uden besætning. Det vestlige militær investerer mere og mere i selvkørende lastbiler og andre forsyningskøretøjer og forsøger at tildele dem mere "beskidte, kedelige og farlige" opgaver på slagmarken uden at risikere menneskeliv.

Det skal bruges "sværme" af droner, når adskillige ubemandede luftfartøjer styrer sig selv. Når det kommer til drone versus dronekampe, har vestlige ledere ikke noget problem med at lade ubemandede systemer tage deres egne beslutninger. Men hvis mennesker er involveret i kamp, kræver det amerikanske forsvarsministerium, at beslutninger træffes af mennesker. Imidlertid kan sådan kontrol blive mere og mere vanskelig, især hvis fjendens automatiske systemer træffer beslutninger meget hurtigere end mennesker.

Det forventes, at store kinesiske ubemandede ubåde, der kan bære våben, i begyndelsen af 2020'erne befinder sig i verdenshavene. Deres mål vil være fjendens styrker i omstridte områder som Sydkinesiske Hav. Sådanne skibe kan rejse store afstande uden at blive bemærket i lange perioder. I øjeblikket hævder kinesiske forskere, at det vil være op til mennesker at beslutte om angrebet, men måske er dette ikke helt sandt. Pentagon rapporterede i januar i januar, at Rusland også bygger store ubemandede atomubåde, der muligvis er i stand til at bære atomvåben.

Derudover favoriserer både Moskva og Beijing ubemandede robottanke, hvor Rusland allerede tester sin seneste udvikling i Syrien. Sådanne systemer kan markant komplicere vestlige kommandører ved at træffe beslutninger om at fastlægge mål på slagmarken på grund af manglende forståelse for, om folk er i kampudstyr. Fejl kan føre til indtræden af en konflikt eller dens skarpe forværring.

Efter det angivne program fra Beijing Institute of Technology blev angiveligt udvalgt de teenagere, der udtrykte "beredskab til kamp." Denne prioritering kan være meget farlig, da teknologien er undertestet og destruktiv.

Natalia Golovakha