Hvordan Neurale Netværk Blev Lært At Forfalske Nyhedsbillede - Alternativ Visning

Indholdsfortegnelse:

Hvordan Neurale Netværk Blev Lært At Forfalske Nyhedsbillede - Alternativ Visning
Hvordan Neurale Netværk Blev Lært At Forfalske Nyhedsbillede - Alternativ Visning

Video: Hvordan Neurale Netværk Blev Lært At Forfalske Nyhedsbillede - Alternativ Visning

Video: Hvordan Neurale Netværk Blev Lært At Forfalske Nyhedsbillede - Alternativ Visning
Video: Власть (1 серия "Спасибо") 2024, April
Anonim

For at oprette forfalskninger bruges kunstige intelligenssystemer og teknologier til generering af video- og lydfalske.

For at skabe et "individuelt" nyhedsbillede for nogen af os og forfalske de medierapporter, der er valgt i det, er i dag indsatsen fra en programmør nok. Specialister i kunstig intelligens og cybersikkerhed fortalte Izvestia om dette. For nylig vurderede de, at dette krævede arbejde i flere hold. En sådan acceleration blev mulig med udviklingen af teknologier til angreb på neurale netværk og frembringelse af lyd- og video-forfalskninger ved hjælp af programmer til at skabe”dybe forfalskninger”. Avisen Izvestia gennemgik for nylig et lignende angreb, da tre libyske nyhedsportaler straks offentliggjorde en besked, der angiveligt dukkede op i et af emnerne. Ifølge eksperter kan man inden for 3-5 år forvente en invasion af robotmanipulatorer, som automatisk vil være i stand til at skabe mange forfalskninger.

Fagre nye verden

Der har været flere og flere projekter, der tilpasser informationsbilledet til opfattelsen af specifikke brugere. Et eksempel på deres arbejde var den nylige handling fra tre libyske portaler, der offentliggjorde nyheder, der angiveligt blev offentliggjort i udgaven af Izvestia den 20. november. Skaberne af den falske modificerede avisens forside og sendte en besked om forhandlingerne mellem feltmarskalk Khalifa Haftar og premierministeren for regeringen for National Accord (PNS) Fayez Sarraj. Falsken i Izvestia-font blev ledsaget af et foto af de to ledere taget i maj 2017. Etiketten med publikationens logo blev udskåret fra det faktiske udgivne nummer af 20. november og alle andre tekster på siden fra 23. oktober-udgaven.

Fra specialists synspunkt kan sådanne forfalskninger i en overskuelig fremtid udføres automatisk.

Image
Image

”Kunstig intelligenssteknologi er nu helt åben, og enheder til modtagelse og behandling af data miniaturiseres og bliver billigere,” sagde Yuri Vilsiter, doktor i fysiske og matematiske videnskaber, professor ved det russiske videnskabsakademi, leder af FSUE “GosNIIAS” -afdelingen, til Izvestia. - Derfor er det meget sandsynligt, at ikke engang staten og store virksomheder, men simpelthen privatpersoner i den nærmeste fremtid vil kunne aflyse og spionere efter os samt manipulere virkeligheden. I de kommende år vil det være muligt ved at analysere brugerpræferencer at påvirke ham gennem nyhedsfeeds og meget smarte forfalskninger.

Salgsfremmende video:

Ifølge Yuri Vilsiter findes der allerede teknologier, der kan bruges til en sådan indgriben i det mentale miljø. I teorien kan invasionen af manipulatorbots forventes om et par år, sagde han. Et begrænsende punkt her kan være behovet for at indsamle store databaser med eksempler på virkelige menneskers svar på kunstig stimuli med sporing af langsigtede konsekvenser. En sådan sporing vil sandsynligvis kræve flere års forskning, før målrettede angreb konsekvent er succesrige.

Synangreb

Alexei Parfentiev, leder af analyseafdelingen i SearchInform, er også enig med Yuri Vilsiter. Ifølge ham forudsiger eksperter allerede angreb på neurale netværk, skønt der næsten ikke findes sådanne eksempler.

- Forskere fra Gartner mener, at i 2022 vil 30% af alle cyberangreb være rettet mod at ødelægge de data, som det neurale netværk træner, og stjæle færdige maskinlæringsmodeller. Derefter kan for eksempel ubemærkede køretøjer pludselig begynde at fejle fodgængere med andre genstande. Og vi vil ikke tale om økonomisk eller omdømme risiko, men om almindelige menneskers liv og helbred, mener eksperten.

Angreb på computersynssystemer udføres som en del af forskningen nu. Formålet med sådanne angreb er at tvinge det neurale netværk til at registrere i billedet, hvad der ikke er der. Eller omvendt for ikke at se, hvad der var planlagt.

Image
Image

”Et af de aktivt udviklende emner inden for træning i neuralt netværk er de såkaldte adversarial attacker (“adversarial attack”- Izvestia),” forklarede Vladislav Tushkanov, en webanalytiker ved Kaspersky Lab. - I de fleste tilfælde er de rettet mod computersynssystemer. For at udføre et sådant angreb skal du i de fleste tilfælde have fuld adgang til det neurale netværk (de såkaldte hvidboksangreb) eller resultaterne af dets arbejde (sortboksangreb). Der er ingen metoder, der kan vildlede ethvert computersynssystem i 100% af tilfældene. Derudover er der allerede oprettet værktøjer, der giver dig mulighed for at teste neurale netværk for modstand mod modstridende angreb og øge deres modstand.

I løbet af et sådant angreb forsøger en angriber på en eller anden måde at ændre det genkendte billede, så det neurale netværk ikke fungerer. Ofte er der lagt støj på billedet, svarende til det, der opstår, når der fotograferes i et dårligt oplyst rum. En person bemærker normalt ikke sådan interferens godt, men det neurale netværk begynder at fungere. Men for at udføre et sådant angreb har angriberen brug for adgang til algoritmen.

Ifølge Stanislav Ashmanov, generaldirektør for Neuroset Ashmanov, er der i øjeblikket ingen metoder til at tackle dette problem. Derudover er denne teknologi tilgængelig for enhver: en gennemsnitlig programmør kan bruge den ved at downloade den nødvendige open source-software fra Github-tjenesten.

Image
Image

- Et angreb på et neuralt netværk er en teknik og algoritmer til at narre et neuralt netværk, der får det til at give falske resultater, og faktisk bryde det som en dørlås, - mener Ashmanov. - For eksempel er det nu ganske let at få ansigtsgenkendelsessystemet til at tro, at det ikke er dig, men Arnold Schwarzenegger foran det - dette gøres ved at blande tilsætningsstoffer, som ikke er synlige for det menneskelige øje, i de data, der kommer ind i det neurale netværk. De samme angreb er mulige for talegenkendelses- og analysesystemer.

Eksperten er sikker på, at det kun vil blive værre - disse teknologier er gået til masserne, svindlere bruger allerede dem, og der er ingen midler til beskyttelse imod dem. Da der ikke er nogen beskyttelse mod den automatiske oprettelse af video- og lydforfalskninger.

Dybe forfalskninger

Deepfake-teknologier baseret på Deep Learning (teknologier til dyb læring af neurale netværk. - Izvestia) udgør allerede en reel trussel. Video- eller lydforfalskninger oprettes ved at redigere eller overlægge ansigter fra berømte mennesker, der angiveligt udtaler den nødvendige tekst og spiller den nødvendige rolle i handlingen.

”Deepfake giver dig mulighed for at erstatte læbebevægelser og menneskelig tale med video, hvilket skaber en følelse af realisme af hvad der sker,” siger Andrey Busargin, direktør for afdelingen for innovativ brandbeskyttelse og intellektuel ejendom hos Group-IB. - Falske berømtheder “tilbyder” brugere på sociale netværk til at deltage i trækningen af værdifulde præmier (smartphones, biler, pengesummer) osv. Links fra disse videoer fører ofte til svigagtige og phishing-websteder, hvor brugerne bliver bedt om at indtaste personlige oplysninger, herunder bankkortoplysninger. Sådanne ordninger udgør en trussel for både almindelige brugere og offentlige personer, der er nævnt i reklamer. På grund af denne form for shenanigans bliver berømthedsbilleder forbundet med svindel eller annoncerede varer.og det er her vi oplever personlig brandskade,”siger han.

Image
Image

En anden trussel er forbundet med brugen af "falske stemmer" til telefonsvindel. F.eks. I Tyskland brugte cyberkriminelle stemmeforfølgning for at få chefen for et britisk datterselskab hurtigt til at overføre € 220.000 til kontoen for en ungarsk leverandør i en telefonsamtale, som udgav sig som en virksomhedschef. Lederen for det britiske firma mistænkte et trick, da hans "chef" bad om en anden postanvisning, men opkaldet kom fra et østrigsk nummer. På dette tidspunkt var den første tranche allerede overført til en konto i Ungarn, hvorfra pengene blev trukket tilbage til Mexico.

Det viser sig, at de nuværende teknologier giver dig mulighed for at oprette et individuelt nyhedsbillede fyldt med falske nyheder. Derudover vil det snart være muligt at skelne falske fra ægte video og lyd kun med hardware. Ifølge eksperter er foranstaltninger, der forbyder udvikling af neurale netværk, sandsynligvis ikke effektive. Derfor lever vi snart i en verden, hvor det konstant skal kontrolleres alt sammen.

”Vi er nødt til at forberede os på dette, og vi er nødt til at acceptere det,” understregede Yuri Vilsiter. - Menneskeheden er ikke første gang, der går fra den ene virkelighed til den anden. Vores verden, levevis og værdier adskiller sig radikalt fra den verden, hvor vores forfædre levede for 60.000 år siden, 5.000 år siden, 2.000 år siden og endda 200-100 år siden. I den nærmeste fremtid vil en person i vid udstrækning blive frataget privatlivets fred og derfor tvunget til ikke at skjule noget og handle ærligt. På samme tid kan intet i den omgivende virkelighed og i ens egen personlighed tages på tro, alt skal sættes spørgsmålstegn ved og konstant genkontrolleres. Men vil denne fremtidige virkelighed være skræmmende? Ikke. Det vil simpelthen være helt anderledes.

Anna Urmantseva