Forskere Har Foreslået En Måde At Forhindre Verdens Ende På Grund Af Robotter I Fremtiden - Alternativ Visning

Forskere Har Foreslået En Måde At Forhindre Verdens Ende På Grund Af Robotter I Fremtiden - Alternativ Visning
Forskere Har Foreslået En Måde At Forhindre Verdens Ende På Grund Af Robotter I Fremtiden - Alternativ Visning

Video: Forskere Har Foreslået En Måde At Forhindre Verdens Ende På Grund Af Robotter I Fremtiden - Alternativ Visning

Video: Forskere Har Foreslået En Måde At Forhindre Verdens Ende På Grund Af Robotter I Fremtiden - Alternativ Visning
Video: Fremtidens Robotter & Cyborgs | Borgerløn? 2024, April
Anonim

Mange mennesker frygter en robotopstand i fremtiden og opfordrer til at stoppe udviklingen af kunstig intelligens for at undgå et negativt scenario i fremtiden. Men i branchen, der er forbundet med udviklingen af robotik, er et stort antal mennesker og penge involveret, så ingen vil stoppe udviklingen af sådanne teknologier. Kunne vi stå over for en apokalypse på grund af vores skabelser, og er der en måde at forhindre opstanden af maskinerne på?

For nogen tid siden offentliggjorde Science Alert en artikel af eksperter fra videnskabens verden, der talte om udviklingen af en speciel algoritme, der vil hjælpe med at forhindre ukontrolleret opførsel af robotter med kunstig intelligens i fremtiden. Ifølge forskere kan robotter simpelthen ikke skade mennesker på grund af denne metode.

Forskerne kaldte selv deres algoritme Seldonian. Men hvad er dens betydning? Algoritmer vil være i stand til at analysere uacceptabel opførsel for maskiner og vil maksimalt beskytte folk mod de negative handlinger fra robotter, men algoritmerne indeholder ikke begrebet god og dårlig opførsel, så ikke alle eksperter tror på de beskyttende funktioner i algoritmer.

Udviklerne af det nye system fortalte om driften af algoritmen ved hjælp af et af eksemplerne, som er at kontrollere en insulinpumpe ved hjælp af et automatiseret system. Hvis mængden af insulin i patientens blod reduceres til et ekstremt lavt niveau, antyder algoritmerne de handlinger, der er nødvendige for at redde personen.

For en tid siden udtrykte et antal forskere bekymring over udviklingen af atomvåben baseret på kunstig intelligens. Hvis sådanne systemer træffer deres egne beslutninger, kan dette forårsage en apokalypse på Jorden. Glem ikke handlingerne fra hackere, der kan hacke sådanne systemer, og ingen beskyttelsesalgoritmer vil hjælpe i dette tilfælde. Således kan det overvejes, at der ikke er nogen ideel beskyttelse mod trusler fra den moderne verden inden for udvikling af robotter og kunstig intelligens.

Anbefalet: