Er Kunstig Intelligens Altid Objektiv Og ønsker At Behage En Person - Alternativ Visning

Indholdsfortegnelse:

Er Kunstig Intelligens Altid Objektiv Og ønsker At Behage En Person - Alternativ Visning
Er Kunstig Intelligens Altid Objektiv Og ønsker At Behage En Person - Alternativ Visning

Video: Er Kunstig Intelligens Altid Objektiv Og ønsker At Behage En Person - Alternativ Visning

Video: Er Kunstig Intelligens Altid Objektiv Og ønsker At Behage En Person - Alternativ Visning
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, Kan
Anonim

Hvordan computere tager underlige beslutninger

Kunstig intelligens udvikler sig så hurtigt, at mange begynder at føle ængstelse: hvis det snart vil være i stand til at opleve følelser og tage sine egne beslutninger. Uanset om det er en bot, et autonomt køretøj eller en beslutningstager inden for erhverv og videnskab: kunstig intelligens trænger ind i alle områder af vores liv og samfund. Maskinhjerner betragtes som logiske, umærkede og uvildige, men praksis viser, at de ikke altid beslutter alt med et åbent sind.

Image
Image

Kunstig intelligens er uundværlig, hvor det er vigtigt at genkende mønstre i store datamængder og træffe beslutninger baseret på dem. Men i fremtiden kunne kunstige intelligenssystemer også bruges i områder, hvor vores velbefindende og endda vores liv er direkte afhængige af konklusioner - inden for medicin, valg af job, udstedelse af lån og retfærdighed.

Hvor objektivt og moralsk korrekt træffer kunstig intelligens en beslutning? Kan vi virkelig stole på maskinhjernen til at tage sådanne potentielt vigtige beslutninger?

Kunstig intelligens bruges på alle områder

Selv nu bruges adaptive algoritmer på mange områder af vores daglige liv. Der er digitale assistenter til at forstå stemmekommandoer og spørgsmål. På Internettet hjælper webbots med at vedligeholde og kontrollere websteder, så de er vanskelige at skelne fra mennesker. Selv når falske nyheder og billedmanipulationer opdages, er kunstige intelligenssystemer involveret.

Salgsfremmende video:

Image
Image

AI-systemer gør også deres job i industri, erhvervslivet og endda regeringen. De optimerer og kontrollerer produktionsprocesser, regulerer logistikken for containerhavne og store lagre eller fører regnskabsregistre. Forsikringsselskaber og banker har allerede de første intelligente programmer til at kontrollere indsendte ansøgninger eller træffe beslutninger om betalinger. Hos Ikea, Deutsche Telekom og mange andre virksomheder, UNICEF eller biblioteker, er virtuelle assistenter involveret i kundeservice.

Stor mængde data behandlet til træning

Alt dette er muligt takket være muligheden for AI-systemer til hurtigt at analysere enorme mængder data, til at identificere mønstre og korrelationer. F.eks. Lærer algoritmen fra utallige fotos af kæledyr med matchende navne. Efter en træningsperiode kan systemet vælge helt nye fotografier af den ønskede art. Den genkender forskellene på egen hånd.

Image
Image

Mange andre AI-systemer bruger tekst som basis for læring. De vurderer den kontekst, som et ord står i, og studerer dets semantiske betydning, samt forhold til lignende ord eller synonymer. Disse semantiske forhold oversætter programmer til matematiske udtryk og lærer således endda komplekse semantiske kontekster.

Det er kun takket være denne evne, at kunstig intelligens for eksempel kan evaluere medicinske data og medicinske poster og udlede karakteristika for kliniske billeder fra dem. Baseret på disse resultater bruges AI-systemer allerede som diagnostiske hjælpemidler, de kan genkende forskellige typer kræft, tegn på Alzheimers sygdom, selvmordsforhold og farlige sukkerniveauer i diabetes.

Men så attraktiv som det lyder, har mere og mere AI en stor ulempe. Jo yderligere kunstig intelligens, der trænger ind i praktisk talt alle sfærer i vores samfund, jo større er de potentielle konsekvenser af dens beslutninger. Den økonomiske eller faglige fremtid for en person eller endda hans liv afhænger af hans dømmekraft.

AI-løsninger, der kan koste liv

For eksempel, hvis en AI fejldiagnostiserer i medicin uden at blive afhørt, kan patienten gennemgå en forkert behandling eller endda dø. Militæret bruger et autonomt våbensystem, der træffer de forkerte beslutninger. F.eks. Kan AI ikke skelne en flugtende ven fra en fjende, den uskyldige dør.

Image
Image

AI-algoritmer bruges allerede i domstole i USA. De forudsiger sandsynligheden for recidivisme for lovovertrædere i retten. Deres vurdering har ofte indflydelse på domstolens afgørelse og følgelig af den dømtes dom.

Hvis AI beslutter lån

Ligeledes kan en beslutning inden for finansiering og forsikring påvirke, om en person får et lån eller ej. Disse systemer trænes normalt ved brug af databaser.

Image
Image

Og her er AI på udkig efter mønstre: hvilke mennesker normalt betaler deres lån tilbage, og hvilke ikke? Han udvikler sine vurderingsprocedurer og træffer de passende beslutninger. Især betyder dette, at folk med det forkerte opholdssted eller deres erhverv ikke vil modtage lån, uanset hvor meget de er villige til at betale på trods af disse omstændigheder.

Ved en sådan fordeling af ansvarsområder med computere vil en person kun være en assistent i udførelsen af beslutninger om cyberhjerner. Og dette sker allerede.

Hvem er ansvarlig for fejltagelser?

Et andet problem i udviklingen af AI: jo mere komplekse beslutningsprincipperne er, desto vanskeligere er det for mennesker at forstå dem. Det rejser også spørgsmålet om, hvem der er ansvarlig for fejl.

Tilfælde af ulykker, når du kører biler på autopilot er blevet hyppigere: Hvem har skylden for, at nogle situationer ikke er gemt i hukommelsen eller AI drager de forkerte konklusioner. Eller måske drager han sine egne konklusioner? Der er allerede sådanne eksempler.

At spille bots har udviklet deres egne regler i løbet af spillet

For denne undersøgelse tilladte forskerne 100 smarte bots at interagere med hinanden i et koncessionsspil. Hver af dem skal beslutte, om de donerer noget til nogen fra deres hold eller til en deltager i spillet udefra.

Image
Image

Overraskende er, at bots med tiden er blevet mere og mere udelukket fra grupper udenfor og kun donerer til deres teammedlemmer.

Image
Image

Årsagen til dette: smarte bots tilpassede deres spilstrategi og kopierede opførslen fra de kammerater, der rejste mest penge og var de mest succesrige. Således dukkede grupper af bots op, der opførte sig på samme måde og konsekvent udelukkede ikke-relaterede spildeltagere. Ved konstant at skabe noget, der beregner, analyserer og træffer beslutninger hurtigere end det, vil menneskeheden en dag miste kontrollen over dens oprettelse, hvis handlinger den ikke vil være i stand til at holde styr på.

Ifølge forskere er dette indlysende: kunstig intelligens har ikke brug for kunstig data for at være partisk, det er nok at have andre maskiner omkring sig. Fordi selv dette kan skabe et gruppesind, der er kendt fra menneskelige samfund. Derfor skal folk ved hjælp af AI overlade beslutningen til sig selv.

Vasilik Svetlana