Kunstig Intelligens Er Blevet Lært At Bedrage Anden Kunstig Intelligens - Alternativ Visning

Kunstig Intelligens Er Blevet Lært At Bedrage Anden Kunstig Intelligens - Alternativ Visning
Kunstig Intelligens Er Blevet Lært At Bedrage Anden Kunstig Intelligens - Alternativ Visning

Video: Kunstig Intelligens Er Blevet Lært At Bedrage Anden Kunstig Intelligens - Alternativ Visning

Video: Kunstig Intelligens Er Blevet Lært At Bedrage Anden Kunstig Intelligens - Alternativ Visning
Video: Kunstig Intelligens: Vil Robotterne Overtage Jorden? 2024, April
Anonim

Forskere ved Massachusetts Institute of Technology (MIT) har udviklet en teknik til at narre tekstanalyse af kunstig intelligens (AI), rapporterede Wired Feb.23.

Forskere har bemærket, at en lille ændring i en sætning, der er forståelig for en person, kan vildlede AI. De udviklede en algoritme til at erstatte ord med synonymer og narre AI's genkendelsestekst. Nuancen er, at den angribende algoritme selv bruger AI til at vælge synonymer.

Som et eksempel er udtrykket "Karaktererne, kastet i umuligt forfulgte situationer, fuldstændig fremmedgjort af virkeligheden." ("Tegn, der spilles i utroligt foruroligede situationer, er helt ude af kontakt med virkeligheden"), hvilket er en negativ anmeldelse af filmen.

Hvis vi erstatter ordene i det med synonymer, så er udtrykket "Karaktererne, kastet i umuligt konstruerede omstændigheder, fuldstændigt fremmedgjort af virkeligheden" ("Karakterer, der spilles under utroligt dygtige omstændigheder, er helt adskilt fra virkeligheden"), betragter AI anmeldelsen som positiv.

Andre typer AI-systemer kan også narre; i dette tilfælde blev sårbarhederne hovedsageligt demonstreret i billed- og talegenkendelsessystemer.

Forskerne bemærkede, at sådanne subtile dataforvrængninger kan vildlede AI og bruges til at angribe systemer, hvilket bliver vigtigt, når AI spreder sig inden for områderne finans, sundhedspleje og andre.