Det Største Problem I Skabelsen Af kunstig Intelligens Kaldes - Alternativ Visning

Det Største Problem I Skabelsen Af kunstig Intelligens Kaldes - Alternativ Visning
Det Største Problem I Skabelsen Af kunstig Intelligens Kaldes - Alternativ Visning

Video: Det Største Problem I Skabelsen Af kunstig Intelligens Kaldes - Alternativ Visning

Video: Det Største Problem I Skabelsen Af kunstig Intelligens Kaldes - Alternativ Visning
Video: Kunstig Intelligens - Behandling af sygdomme 2024, September
Anonim

Kunstige efterretningseksperter Kevin Warwick og Huma Shah har fundet et alvorligt problem i Turing-testen. Testen bestemmer, om kunstig intelligens er i stand til at tænke som et menneske. En pressemeddelelse om britiske forskeres arbejde er tilgængelig på TechXplore. Videnskabelig artikel offentliggjort i Journal of Experimental & Theoretical Artificial Intelligence.

Cybernetics har fundet, at hvis maskinen tager til en slags analog til den femte ændring (til den amerikanske forfatning), dvs. at den forbliver tavs under hele testen, så vil den bestå testen. I dette tilfælde vil kunstig intelligens, der simpelthen nægter at besvare dommerens spørgsmål, blive genkendt som en tænkende væsen. Imidlertid kan enhver primitiv maskine, der ikke besidder intelligens, være tavs, så Turing-testen holder op med at arbejde under disse forhold.

Testen til at teste kunstige intelligenss tænkningsevner blev foreslået i 1950 af den engelske matematiker og kryptograf Alan Turing. Ifølge videnskabsmanden er det den eneste måde at finde ud af, om en maskine er i stand til menneskelig tænkning. Også kendt som Imitation Game, beder testen en menneskelig dommer om blindt at stille skriftlige spørgsmål til to emner: et andet menneske og en kunstig intelligens. Baseret på de modtagne svar skal du afgøre, hvem af dem der er hvem. Hvis dette mislykkes, genkendes maskinen som tænkning.

Warwick og Shah undersøgte de faktiske testbånd fra Lebner-konkurrencen, hvor den kunstige intelligens nægtede at "tale" med dommeren. I begge tilfælde kunne dommeren ikke afgøre, om han havde at gøre med en maskine eller en person. Emnet kunne være en person, der valgte ikke at besvare spørgsmål, kunstig intelligens eller en maskine, der simpelthen ikke er i stand til at besvare. I de undersøgte test var det den tredje mulighed, der fandt sted.

Forskere har kaldt dette problem for den "femte ændring" analogt med ændringsforslaget til den amerikanske forfatning, der siger, at en person ikke skal tvinges til at vidne mod sig selv.

Lebner-konkurrencen er den vigtigste platform for gennemførelse af Turing-tests. Det involverer udviklere af chatbots og virtuelle samtalepartnere. Konkurrencekritikere bemærkede, at de vindende programmer var designet til med vilje at vildlede dommerne ved bevidst at lave stavefejl og andre tricks.