Killer Robotter - Det Er Ikke Længere En Fantasi, Men En Realitet - Alternativ Visning

Indholdsfortegnelse:

Killer Robotter - Det Er Ikke Længere En Fantasi, Men En Realitet - Alternativ Visning
Killer Robotter - Det Er Ikke Længere En Fantasi, Men En Realitet - Alternativ Visning

Video: Killer Robotter - Det Er Ikke Længere En Fantasi, Men En Realitet - Alternativ Visning

Video: Killer Robotter - Det Er Ikke Længere En Fantasi, Men En Realitet - Alternativ Visning
Video: REAL RACING 3 LEAD FOOT EDITION 2024, April
Anonim

Det skal indrømmes, at robotik har taget et ret skridt i de senere år. Våben oprettet af forsvarsselskaber bliver smartere, kunstig intelligenssystemer er forbundet til dem, robotter får fuld autonomi og så videre. Dette betyder, at en morder robot kan blive en realitet før vi tror. I det mindste er det, hvad repræsentanter for RAH, en non-profit organisation med base i Holland og går ind for verdensfred, mener. De meddelte dette i deres rapport offentliggjort i magasinet Quartz.

Hvorfor bygge mordrobotter?

Killer robotter er designet til at tage beslutninger om at tage eller bevare livet på egen hånd uden menneskelig kontrol. Specialister fra Det Russiske Kunstakademi kaldte dette alarmerende tegn "den tredje revolution i krig" efter opfindelsen af kruttet og atombomben. Både aktivister og stater opfordrer til oprettelse af et sæt internationale regler for oprettelse af sådanne våben eller endda et direkte forbud mod deres anvendelse. Men nogle lande, herunder De Forenede Stater, Kina og Den Russiske Føderation, har endnu ikke taget noget skridt i denne sag.

RAX-specialister har identificeret mindst 30 globale våbenproducenter, der ikke har en politik mod udviklingen af ovennævnte våbensystemtyper. Disse inkluderer amerikanske forsvarsfirmaer Lockheed Martin, Boeing og Raytheon, kinesiske regeringskonglomerater AVIC og CASC, israelske firmaer IAI, Elbit og Rafael, Russian Rostec og tyrkisk STM.

Samtidig mener aktivister ikke, at den militære anvendelse af et eller andet kunstigt intelligenssystem er et problem. Problemet er netop, at sådanne systemer kan komme uden for menneskelig kontrol.

For eksempel udvikler det amerikanske militær allerede en kanon med kunstig intelligens, som uafhængigt vil vælge og ramme mål, såvel som tanks med kunstig intelligens, som vil være i stand til at "identificere og ramme mål tre gange hurtigere end nogen anden." Og STM, det tyrkiske statsforsvarsfirma, er allerede i fuld gang med at producere en AI-drevet robot kaldet KARGU. Komplet med ansigtsgenkendelsesfunktioner kan KARGU autonomt vælge og angribe mål ved hjælp af koordinater, der er forud valgt af operatøren. Det rapporteres, at Tyrkiet har til hensigt at bruge KARGU i Syrien.

PAX er mest bekymrede over den potentielle implementering af AI i stødende systemer, der vil udvælge og angribe mål på egen hånd uden menneskelig tilsyn. Gruppen undrer sig over, hvordan disse våben vil skelne mellem militære og civile. Desuden ved advokater stadig ikke, hvem der er ansvarlige, hvis autonome våben overtræder international lov.

Salgsfremmende video:

Den tyrkiske drone KARGU sporer målet og ødelægger det, falder ovenfra som en kamikaze
Den tyrkiske drone KARGU sporer målet og ødelægger det, falder ovenfra som en kamikaze

Den tyrkiske drone KARGU sporer målet og ødelægger det, falder ovenfra som en kamikaze.

I modsætning til Google eller Amazon, der har været udsat for både offentlige og interne reaktioner på deres arbejde med militære systemer, handler virksomheder som Lockheed Martin og Raytheon udelukkende med militæret, så de får minimal reaktion fra partnere. såvel som fra almindelige mennesker, da de fleste af udviklingen forbliver klassificeret indtil et vist punkt.

Mens udviklingen af autonome våben fortsætter, mener RAX, at der stadig er en måde at forhindre en mulig katastrofe på. Gruppen sagde, at fremstillingsvirksomheder kan spille en kritisk rolle i dette og skal modsætte sig produktion af fuldt autonome dødelige våben. Hvad angår AI-aktiverede våbensystemer, siger PAX-embedsmænd, at forsvarsfirmaer skal følge et sæt regler, der endnu ikke er udviklet. Men ingen opfordrer til helt at opgive AI.

Vladimir Kuznetsov