Hvilke Farer Ved Neurale Netværk Undervurderer Vi? - Alternativ Visning

Indholdsfortegnelse:

Hvilke Farer Ved Neurale Netværk Undervurderer Vi? - Alternativ Visning
Hvilke Farer Ved Neurale Netværk Undervurderer Vi? - Alternativ Visning

Video: Hvilke Farer Ved Neurale Netværk Undervurderer Vi? - Alternativ Visning

Video: Hvilke Farer Ved Neurale Netværk Undervurderer Vi? - Alternativ Visning
Video: Kan Googles kunstige intelligens gætte hvad vi tegner? Quick, draw! 2024, Kan
Anonim

Har du nogensinde mødt en person på gaden, der ville være en til en som dig? Tøj, ansigt, gang, måde at kommunikere på, vaner er helt identiske med dine. Det er som at blive scannet og udskrevet på en printer. Lyder lidt uhyggeligt, ikke? Forestil dig nu, at du har set en video, hvor en sådan person fortæller noget om sig selv. I bedste fald vil du prøve at huske, når du gik på en sådan måde, at du ikke husk noget, men du kunne sige dette på kameraet. Selvom alt dette lyder som simpelt resonnement, men teknologien er allerede meget tæt på at skabe sådanne mennesker. De findes allerede, men snart vil der være mange flere.

Hvor kommer falsken fra?

Nu er der allerede for mange ting, der ofte kaldes forfalskninger. De er overalt. De kan findes på fotografier, i nyhederne, i produktionen af varer og i informationstjenester. Det er lettere at sige, hvor der ikke er nogen fænomener ledsaget af dette ord. Mens du kan bekæmpe dem. Du kan studere billedets oprindelse, kontrollere de særlige træk ved et mærkevareprodukt fra en falsk og dobbeltkontrol nyhederne. Skønt nyheder er et separat emne.

I dag ønsker en indholdsforbruger ikke at vente og kræver øjeblikkelig produktion fra dens skaber, nogle gange er han ikke engang interesseret i kvaliteten, det vigtigste er at hurtigt. Det er her, situationer opstår, når nogen sagde noget, og de andre uden at kontrollere det fjernede det fra deres websteder og aviser. I nogle tilfælde tager det lang tid at dreje denne bold tilbage og bevise, at det hele var forkert.

Der er ingen mening i at forklare, hvorfor det hele er gjort. På den ene side er der dem, der bare vil grine af situationen, på den anden side dem, der virkelig ikke vidste, at de havde forkert. Et særskilt sted, omtrent i midten, er besat af dem, for hvilke det er trite at profitere. Dette kan være påvirkningsinteresser på forskellige niveauer, inklusive det politiske. Nogle gange er dette formålet med at tjene penge. For eksempel at så panik på aktiemarkedet og gennemføre rentable transaktioner med værdipapirer. Men ofte skyldes dette fjendtlighed over for en person (virksomhed, produkt osv.) For at nedbringe ham. Et simpelt eksempel er at "droppe" i klassificeringen af en film eller institution, som ikke er ønskelig for nogen. Naturligvis kræver dette en hær af dem, der vil gå og ikke lide (nogle gange endda bots), men det er en anden historie.

Hvad er dyb læring?

Salgsfremmende video:

For nylig lyder dette udtryk mere og mere ofte. Nogle gange er han ikke engang relateret til sagen og forveksles med noget andet. Så softwareproduktet ser mere imponerende ud.

Tror ikke, at konceptet og de grundlæggende principper for maskinlæring kun optrådte for få år siden. Faktisk er de så mange år gamle, at mange af os ikke engang blev født da. De grundlæggende principper for dyb læringssystemer og de matematiske modeller for deres arbejde blev kendt tilbage i 80'erne af forrige århundrede.

På det tidspunkt havde de ikke så meget mening på grund af manglen på en vigtig komponent. Det var høj computerkraft. Først i midten af 2000'erne dukkede der op systemer, der kan hjælpe med at arbejde i denne retning og tillade beregning af alle de nødvendige oplysninger. Nu har maskiner udviklet sig endnu mere, og nogle systemer med maskinsyn, stemmesyn og nogle andre fungerer så effektivt, at de undertiden endda overgår en persons muligheder. Selvom de endnu ikke er "fængslet" i ansvarlige retninger, hvilket gør dem til en tilføjelse til menneskelige evner, mens de opretholder kontrollen over dem.

Image
Image

Hvad er Deepfake? Hvornår optrådte Deepfake?

Det er let at gætte, at Deepfake er et lille teaterstykke om ord, der er forbundet med Deep Learning og de meget forfalskninger, som jeg talte om ovenfor. Det vil sige, Deepfake skal tage falske til et nyt niveau og losse en person i denne vanskelige forretning, så de kan skabe falskt indhold uden at spilde energi.

Først og fremmest vedrører sådanne forfalskninger video. Det vil sige, enhver person kan sidde foran kameraet, sige noget, og hans ansigt bliver erstattet af en anden person. Det ser skræmmende ud, fordi man faktisk bare skal fange en persons grundlæggende bevægelser, og det vil ganske enkelt være umuligt at skelne mellem en falsk. Lad os se, hvordan det hele startede.

Det første generative adversarial netværk blev oprettet af en studerende ved Stanford University. Det skete i 2014, og den studerendes navn var Ian Goodfellow. Faktisk pittede han to neurale netværk mod hinanden, hvoraf det ene var involveret i generationen af menneskelige ansigter, og det andet analyserede dem og talte lignende eller ej. Så de trænede hinanden, og en dag begyndte det andet neurale netværk at blive forvirret og tage de genererede billeder på rigtig. Det er dette stadigt mere komplekse system, der føder Deepfake.

Nu er en af hovedpromotørerne af ideen om Deepfake Hao Li. Han gør ikke kun dette, men også mange andre. For dette blev han gentagne gange tildelt forskellige priser, herunder uofficielle priser. For øvrig er han en af dem, der skal takkes for udseendet af animoji i iPhone X Hvis du er interesseret, kan du fortrolige dig med det mere detaljeret på hans websted. I dag er han ikke hovedemnet for diskussion.

Vi huskede ham kun, fordi han på World Economic Forum i Davos viste sin ansøgning, som giver dig mulighed for at erstatte ansigtet til en person, der sidder foran kameraet med ethvert andet ansigt. Han viste især, hvordan systemet fungerer på eksemplet med ansigterne til Leonardo DiCaprio, Will Smith og andre berømte mennesker.

Det ser lidt uhyggeligt ud. På den ene side kan du kun beundre de moderne teknologier, der giver dig mulighed for at scanne et ansigt, ændre det til et andet på farten og fremstille et nyt billede. Alt dette tager et split sekund, og systemet bremser ikke engang ned. Det vil sige, det tillader ikke kun at behandle den færdige video og udskifte ansigtet, men også at deltage i en sådan karakter i en slags live videokommunikation.

Fare for Deepfake. Hvordan ændrer jeg ansigtet på en video?

Du kan tale så meget, som du kan lide, at denne teknologi er nødvendig, det er meget cool, og du behøver ikke at blegne. Du kan endda gå til det ekstreme og begynde at sige, at dette er positionen for en hård gammeldags, der simpelthen er bange for alt nyt, men der er virkelig flere farer end fordele.

Med sådan teknologi, især hvis det er open source, vil enhver være i stand til at surfe og optage enhver video. Det er ikke dårligt, hvis det bare beskæmmer noens ære og værdighed, meget værre, hvis det er en erklæring afgivet på vegne af en vigtig person. For eksempel kan du ved at optage en video kun 30-40 sekunder lang på vegne af Tim Cook nedbringe næsten hele den amerikanske it-sfære, ledet af Apple. Aktiemarkedet vil blive ramt så hårdt, at det får panik blandt investorer. Som et resultat vil tusinder af mennesker miste milliarder af dollars.

Enhver, der ikke kan lide denne måde at tjene penge på, siger, at det er det, de har brug for, lad dem gå til anlægget. Men under det tristeste scenarie vil der ikke være nogen plante efter dette. Derudover er det godt, at vi får en person, der snyder på udsving i værdien af værdipapirer. Det er nok bare at købe og sælge dem til tiden.

Situationen kan være endnu værre, hvis "jokeren" taler på vegne af lederen af en stor stat. Naturligvis bliver alt afsløret, men i løbet af denne tid kan du gøre en masse ubehagelige ting. På denne baggrund ville det blot være en uskyldig prank at erstatte en berømtheds ansigt med en skuespiller i en voksen film.

Med sådanne teknologier er det vigtigste at scanne, og så er det et spørgsmål om teknologi. I den sandeste forstand af ordet
Med sådanne teknologier er det vigtigste at scanne, og så er det et spørgsmål om teknologi. I den sandeste forstand af ordet

Med sådanne teknologier er det vigtigste at scanne, og så er det et spørgsmål om teknologi. I den sandeste forstand af ordet.

Du kan forestille dig den modsatte situation, når en rigtig person siger noget, og så forsikrer alle, at han blev indrammet. Hvordan man er i denne situation er heller ikke særlig klar. Dette vil bringe en sådan forvirring på nyhedsfeedsne, at det simpelthen ikke er muligt at dobbeltkontrolere det i en anden kilde. Som et resultat bliver det generelt uklart, hvad der er sandt og hvad der er falsk i denne verden. Et billede fremkommer fra film om en dyster fremtid, som Surrogates eller Terminator, hvor T-1000 præsenterede sig selv som andre mennesker og blandt andet kaldte John Conor på vegne af sin adoptivmor.

Nu taler jeg ikke engang om et andet misbrug, der tillader indsamling af falske beviser. På denne baggrund bliver alt det sjove ved legetøjet for tvivlsomt.

Hvordan finder jeg Deepfake op?

Problemet er ikke engang, at sådanne systemer skal forbydes, men at dette ikke længere er muligt. De er allerede der, og udviklingen af teknologier, inklusive læsning af ansigter, har ført til deres udseende og spredning af open source. Selv hvis vi forestiller os, at systemet i sin nuværende form ophører med at eksistere, må vi forstå, at det vil blive oprettet på ny. De vil bare endnu en gang lære neurale netværk at arbejde sammen, og det er det.

Indtil videre er ikke alt så skræmmende, og du kan bogstaveligt talt identificere en falsk med det blotte øje. Billedet er ens, men ret groft. Derudover har hun nogle gange nogle blandingsproblemer, især omkring ansigtets kanter. Men intet står stille, og det er slet ikke svært at udvikle det endnu mere. Den samme Hao Li er sikker på, at dette ikke vil tage mere end et par måneder, og at skabe "masker", som selv en computer ikke kan skelne, vil det tage flere år til. Derefter bliver der ingen tilbagevenden.

På den ene side kan den algoritme, som YouTube og Facebook allerede opretter, beskytte mod dette. Forresten åbnede sidstnævnte endda en konkurrence om udvikling af genkendelsesteknologi - Deepfake Detection Challenge ("Opgaven til at detektere deepfakes"). Præmiefonden for denne konkurrence er $ 10 millioner. Konkurrencen er allerede i gang og slutter i marts 2020. Du kan stadig have tid til at deltage.

At udskifte et ansigt i en video er ikke længere et problem
At udskifte et ansigt i en video er ikke længere et problem

At udskifte et ansigt i en video er ikke længere et problem.

Måske skyldes denne generøsitet en falsk video med Mark Zuckerberg selv. Hvis disse to ting hænger sammen, er fremkomsten af en sådan konkurrence ikke overraskende.

Hvis det udskiftede ansigt helt matcher originalen, vil modkraften, der er repræsenteret af et specielt neuralt netværk, være magtesløse. I dette tilfælde bliver hun nødt til at fange minimale forskelle i ansigtsudtryk, bevægelser og måde at tale på. I tilfælde af berømte mennesker vil et sådant problem løses på niveau med videotjenesten, da den samme YouTube ved, hvordan den konventionelle Donald Trump bevæger sig. Når det kommer til en mindre kendt person, bliver det vanskeligere. Skønt det også kan bevises ved at placere ham foran kameraet og have en afslappet samtale, mens det neurale netværk analyserer hans bevægelser. Det viser sig at være noget som at studere et fingeraftryk, men som vi kan se, vil dette igen føre til unødvendige vanskeligheder.

Syning af videoautentiseringssystemer i kameraer kan også omgås. Du kan få kameraet til at markere den optagne video og gøre det klart, at det ikke blev filmet gennem en separat applikation eller behandlet i et specielt program. Men hvad med videoer, der lige er blevet behandlet? For eksempel en redigeret samtale. Som et resultat får vi en video, hvor den originale nøgle ikke længere er.

Et par memes i slutningen
Et par memes i slutningen

Et par memes i slutningen.

Kan vi sige, at vi nu har tegnet et af scenarierne for en mørk fremtid? Generelt, ja. Hvis de teknologier, der blev skabt for at nå gode mål, kommer ud af hånden, kan de drages af sorg. Der er faktisk mange muligheder for sådanne farlige teknologier, men de fleste af dem er beskyttet. For eksempel nuklear fusion. Her har vi at gøre med kode, som enhver kan få.

Skriv i kommentarerne, hvordan du ser beskyttelse mod forfalskning, i betragtning af at maskeringssystemet var i stand til at gøre masker helt identiske med de originale ansigter. Og fordi de er på video, kan du ikke engang anvende dybde og lydstyrkegenkendelse på dem. Lad os desuden antage, at enhver kode og nøgle, der er integreret i billedet, kan blive hacket. Som de siger, ville det være til hvad. Nu kan vi diskutere, alt det indledende er der.

Artem Sutyagin