Robotter Vil Skabe De Mest Sandsynlige Informationsfalske - Alternativ Visning

Robotter Vil Skabe De Mest Sandsynlige Informationsfalske - Alternativ Visning
Robotter Vil Skabe De Mest Sandsynlige Informationsfalske - Alternativ Visning

Video: Robotter Vil Skabe De Mest Sandsynlige Informationsfalske - Alternativ Visning

Video: Robotter Vil Skabe De Mest Sandsynlige Informationsfalske - Alternativ Visning
Video: Mobile robotter opdrages med kunstig intelligens 2024, Kan
Anonim

Forestil dig, at et vidunderbarn en dag ville opfinde en teknologi, der gør det muligt for mennesker eller materielle genstande at passere gennem vægge, og lægge instruktioner på Internettet om, hvordan man billigt kan bygge en sådan mirakelmaskine fra almindeligt tilgængelige husholdningsmaterialer. Hvordan ville verden ændre sig?

Mange industrier vil sandsynligvis blive markant mere produktive. At kunne gå gennem vægge i stedet for at skulle bruge døre ville gøre det lettere for folk at bevæge sig rundt på kontorer, flytte varer på lager og udføre utallige daglige husholdningsopgaver. Imidlertid kunne de negative konsekvenser opveje de positive. At holde værdigenstande under lås og nøgle ville miste al betydning. Enhver kunne let komme ind på lageret, komme ind i et pengeskab eller et hus.

De fleste af de metoder, vi bruger til at beskytte privat ejendom, involverer mure på den ene eller anden måde, så alle ville være ubrugelige natten over. Tyve ville handle straffri, indtil samfundet kom på alternative måder til at forhindre sådanne forbrydelser. Resultatet af en sådan udvikling af begivenheder kan være et økonomisk sammenbrud eller et socialt kaos.

Ovenstående illustrerer et generelt princip: teknologisk innovation er ikke altid gavnligt for samfundet, i det mindste på kort sigt. Teknologier er i stand til at skabe negative eksternaliteter, eksternaliteter. Dette økonomiske udtryk betyder skade forårsaget af tredjeparter eller parter. Hvis disse negative eksternaliteter opvejer nytten af selve teknologien, gør opfindelsen faktisk verden værre, ikke bedre, i det mindste et stykke tid.

Maskinindlæring, især en variation kendt som dyb læring, er uden tvivl det hotteste teknologiske gennembrud på planeten. Det giver computere mulighed for at udføre mange opgaver, som tidligere kun mennesker kunne udføre: genkende billeder, køre biler, handle på aktiemarkedet og meget mere. Dette har givet anledning til bekymring hos nogle mennesker om, at maskinlæring kan gøre mennesker unødvendige og ubrugelige på arbejdspladsen. Og dette er faktisk muligt, men der er en langt mere alvorlig fare fra maskinindlæring, der hidtil ikke har fået nok opmærksomhed. Pointen er, at hvis maskiner er i stand til at lære, så kan de lære at lyve.

Folk i dag kan forfalske billeder som fotografier, men det er en besværlig og kompleks proces. Og forfalskning af et stemme- eller videobillede ligger generelt uden for en almindelig persons evner. Men snart, takket være maskinindlæring, vil det sandsynligvis være let at oprette troværdige falske videobilleder af andres ansigt og give et indtryk af, at personen taler med deres egen stemme. Der er allerede en teknologi til synkronisering af læbebevægelser, som bogstaveligt talt kan lægge ord i en persons mund. Dette er bare toppen af isbjerget. Snart vil 12-årige være i stand til at skabe fotorealistiske og troværdigt lydende falske billeder af politikere, forretningsledere, deres slægtninge eller venner i deres soveværelser i deres soveværelser og sige alt, hvad de kan forestille sig.

Dette i sig selv fremkalder noget åbenlyst misbrug. Politiske hoaxes, den såkaldte "falske nyhed" eller "informationsudstopning", vil sprede sig som skovbrande. Naturligvis vil bedrag blive opdaget så hurtigt som muligt - ingen digital teknologi kan være så god, at anden teknologi ikke vil være i stand til at opdage falske. Men dette vil først ske, efter at den skadelige idé allerede er trængt ind i sindet på mennesker, der tror på den. Forestil dig en perfekt opspindet falsk video af præsidentkandidater, der råber racemæssige anklager eller tilstår alvorlige forbrydelser.

Dette er dog kun begyndelsen. Forestil dig potentialet til at manipulere aktiemarkedet. Antag, at nogen cirkulerede en falsk video, hvor Teslas administrerende direktør Elon Musk indrømmer, at Tesla-biler ikke er sikre. Videoen går online, og firmaets aktie går ned. Snart efter opdagelsen af en falsk, vil deres pris komme sig, men i løbet af denne tid vil manipulatorer være i stand til at tjene store penge og spille for at reducere Tesla-aktier.

Salgsfremmende video:

Og dette er langt fra det mest ekstreme scenario. Forestil dig sådan en skovl, der skaber en realistisk falsk video af præsident Donald Trump, der siger, at en strejke på nordkoreanske mål er nært forestående, og post derefter den video, hvor nordkoreanerne kan se den. Hvad er chancerne for, at den nordkoreanske ledelse vil indse, at dette er falsk, inden de skal beslutte at starte en krig?

De, der har tendens til at betragte sådanne ekstreme scenarier som en alarmist, vil med rimelighed påpege, at enhver falsk kan opdages, da de samme maskinindlæringsteknologier vil blive brugt til at opdage dem som til oprettelse. Men dette betyder ikke, at vi ikke er i fare for at befinde os i en verden fyldt med allestedsnærværende forfalskninger. Når forfalskningerne bliver troværdige nok til, at folk ikke kan opdage dem alene, vil vi for evigt miste tilliden til det, vi ser og hører. I stedet for at stole på vores egne sanser vil vi blive tvunget til at stole på algoritmer, der bruges til at opdage forfalskninger og godkende information. Gennem evolution har vi lært at stole på vores egne følelser,og overførslen af disse funktioner til maskinens intelligens kan være for drastisk for de fleste mennesker.

Dette kan være dårlige nyheder for økonomien. Forretnings- og handelsnetværk er bygget på tillid og kommunikation. Hvis maskinindlæring en dag kaster en endeløs storm af illusioner og falder ind i den offentlige informationssfære, vil murene skabt af evolutionen for at skelne virkelighed fra fiktion sammen. I dette tilfælde kan niveauet af tillid til samfundet hurtigt falde, hvilket ikke vil bremse og påvirke menneskehedens globale trivsel negativt.

Af denne grund bør regeringen sandsynligvis tage nogle skridt for at sikre, at digital forfalskning straffes hårdt. Desværre er det usandsynligt, at den nuværende administration vil tage et sådant skridt ud af kærlighed til smalle partynyheder. Og regeringer som Rusland er sandsynligvis endnu mindre tilbøjelige til at bremse sådan praksis. I sidste ende udgør kombinationen af dårlig regeringsførelse med stærke nye teknologier en langt større trussel mod det menneskelige samfund end selve teknologierne.

Af Noah Smith - Bloomberg News-spaltist

Igor Abramov