Du Ved Med Det Samme, At Dette Er Porno. Forstår Computeren? - Alternativ Visning

Indholdsfortegnelse:

Du Ved Med Det Samme, At Dette Er Porno. Forstår Computeren? - Alternativ Visning
Du Ved Med Det Samme, At Dette Er Porno. Forstår Computeren? - Alternativ Visning

Video: Du Ved Med Det Samme, At Dette Er Porno. Forstår Computeren? - Alternativ Visning

Video: Du Ved Med Det Samme, At Dette Er Porno. Forstår Computeren? - Alternativ Visning
Video: 💋 Это БДСМ вечеринка, БЕЗ ЦЕНЗУРЫ! 👄 Horror Porn 💑 (Хоррор Порно)?! 👾 LUST FROM BEYOND #3! 2024, Kan
Anonim

Tumblr meddelte tidligt i sidste måned, at det ville forbyde porno. Da den nye indholdspolitik trådte i kraft, ca. to uger senere - den 17. december - viste det sig, at der ville være problemer. Efter at have installeret et kunstigt intelligenssystem, der skulle forbanne al pornografi på webstedet, markerede det fejlagtigt uskyldige poster i 455,4 millioner blogs på webstedet blandt 168,2 milliarder stillinger: vaser, hekse, fisk og al den jazz.

Pornografi til kunstig intelligens

Mens det er uklart, hvilket automatisk filter Tumblr brugte eller oprettede sit eget - virksomheden svarede ikke på forespørgsler om emnet - er det klart, at det sociale netværk sidder fast mellem sin egen politik og teknologi. For eksempel har webstedets inkonsekvente holdning til "kvinder, der viser brystvorter" og kunstnerisk nøgenhed, for eksempel, ført til kontekstuelle beslutninger, der viser, at selv Tumblr ikke ved, hvad de skal forbyde på sin platform. Hvordan kan en hyppig virksomhed bestemme, hvad den betragter som uanstændig?

For det første er det vanskeligt at blokere risikabelt indhold, fordi det er vanskeligt at definere, hvad det er fra starten. Definitionen på uanstændighed er en bjørnefælde, der er mere end hundrede år gammel, allerede i 1896 vedtog USA først love, der regulerer uanstændighed. I 1964, i Jacobellis mod Ohio, om Ohio kunne forbyde visning af en Louis Malle-film, udstedte Højesteret den måske mest berømte definition af hardcore pornografi i dag:”Jeg vil ikke prøve at definere denne type materiale længere i dag, som, som jeg forstår, vil det blive inkluderet i den verbatiske beskrivelse; og jeg er måske aldrig i stand til at gøre det forståeligt,”sagde dommer Potter Stewart. "Men jeg ved, hvad det er, når jeg ser det, og den film, der er knyttet til denne sag, er det ikke."

Maskinlæringsalgoritmer har det samme problem. Dette er nøjagtigt problemet Brian Delorge, administrerende direktør for Picnix, et firma, der sælger specialiseret kunstig intelligens teknologi, forsøger at løse. Et af deres produkter, Iris, er en applikation på klientsiden til at opdage pornografi for at "hjælpe folk", som Delorge siger, "der ikke ønsker porno i deres liv." Han bemærker, at det særlige problem med porno er, at det kan være hvad som helst, en masse forskellige ting - og billeder, der ikke er pornografiske, kan have lignende elementer. Strandfestbilledet kan muligvis blokeres, ikke fordi det har mere hud på det end kontorfoto, men fordi det er på kanten.”Derfor er det meget vanskeligt at træne en billedgenkendelsesalgoritme til at gøre alt på én gang,” siger DeLorge."Når definitionen bliver vanskelig for mennesker, har computeren også svært." Hvis folk ikke kan blive enige om, hvad porno er, og hvad ikke, kan en computer endda håbe på at vide forskellen?

For at lære en AI at opdage porno er den første ting, du skal gøre, at fodre den med porno. Masser af pornografi. Hvor kan jeg få det? Nå, det første, folk gør, er at downloade en masse vidos fra Pornhub, XVideos, siger Dan Shapiro, medstifter af Lemay.ai, en startup, der skaber AI-filtre til sine klienter. "Dette er et af disse grå områder af den juridiske karakter - hvis du f.eks. Lærer af andres indhold, hører det da til dig?"

Efter at programmerere har downloadet masser af porno, skærer de ikke-pornografiske optagelser ud af videoen for at sikre, at de optagelser, de bruger, ikke blokerer for levering af pizzaer. Platformer betaler folk, for det meste uden for USA, for at tagge sådan indhold; jobbet er lavt betalt og kedeligt, som at gå ind i en captcha. De sidder bare og bemærker: dette er porno, dette er dette. Du er nødt til at filtrere lidt, fordi al porno kommer ud med en etiket. Læring er bedre, hvis du ikke kun bruger fotografier, men store dataprøver.

Salgsfremmende video:

”Ofte skal du ikke bare filtrere pornoen, men det ledsagende materiale,” siger Shapiro. "Som falske profiler med en pigens foto og telefon." Han henviser til sexarbejdere, der leder efter klienter, men det kan være noget, der ikke er helt lovligt. "Dette er ikke porno, men det er den slags ting, du ikke ønsker at se på din platform, ikke?" En god automatiseret moderator lærer af millioner - hvis ikke titusinder af millioner - prøveindhold, hvilket kan spare dig for masser af arbejdstimer.

”Du kan sammenligne det med forskellen mellem et barn og en voksen,” siger Matt Zeiler, administrerende direktør og grundlægger af Clarifai, en computervisionsstart, der udfører denne form for billedfiltrering for erhvervskunder.”Jeg kan sige det helt sikkert - for et par måneder siden havde vi en baby. De ved ikke noget om verden, alt er nyt for dem. " Du skal vise barnet (algoritmen) en masse ting, så han forstår noget.”Millioner og millioner af eksempler. Men som voksne - når vi har skabt så meget kontekst om verden og forstået, hvordan den fungerer - kan vi lære noget nyt fra blot et par eksempler. " (Ja, at lære en AI at filtrere voksenindhold er som at vise et barn en masse porno.) Virksomheder som Clarifai vokser hurtigt i dag. De har en god database over verden, de kan fortælle hunde fra katte, klædte fra nøgen. Zeilers firma bruger sine modeller til at træne nye algoritmer til sine klienter - da den originale model behandlede en masse data, ville personaliserede versioner kun kræve, at nye datasæt fungerer.

Det er dog vanskeligt for algoritmen at få det rigtigt. Det klarer sig godt med indhold, der tydeligvis er pornografisk; men en klassifikator markerer muligvis forkert en undertøjsannonce som off-limit, fordi billedet har mere læder end, f.eks. et kontor. (Ifølge Zeiler er det meget vanskeligt med bikinier og undertøj). Dette betyder, at marketingfolk bør fokusere på disse edge cases i deres arbejde og prioritere de vanskelige at klassificere modeller.

Hvad er den sværeste del?

"Anime porno," siger Zeiler. "Den første version af vores nøgenhedsdetektor brugte ikke tegneseriepornografi til uddannelse." Mange gange begik AI det forkert, fordi det ikke genkendte hentai.”Efter at have arbejdet med dette for klienten, injicerede vi en masse af hans data i modellen og forbedrede nøjagtigheden af tegneseriefilteret, samtidig med at vi opretholdt nøjagtigheden af rigtige fotografier,” siger Zeiler.

Teknologien, der er blevet lært til at snuse ud porno, kan også bruges til andre ting. Teknologierne bag dette system er bemærkelsesværdigt fleksible. Dette er mere end anime bryster. Puslespil fra alfabetet bruges for eksempel vidt som en automatisk kommentator-moderator i en avis. Denne software fungerer på lignende måde som billedklassificeringsmaskiner, bortset fra at den sorteres efter toksicitet snarere end nøgenhed. (Toksicitet i tekstkommentarer er lige så vanskelig at bestemme som pornografi på billeder.) Facebook bruger denne form for automatisk filtrering til at opdage selvmordsbeskeder og terrorrelateret indhold og har forsøgt at bruge denne teknologi til at opdage falske nyheder på sin massive platform.

Alt dette afhænger stadig af menneskelig tilsyn; vi er bedre til at håndtere tvetydighed og tvetydig kontekst. Zeiler siger, at han ikke tror, at hans produkt har taget nogens job. Det løser problemet med internetskalering. Mennesker vil stadig træne AI ved at sortere og mærke indhold, så AI kan skelne det.

Dette er en fremtid for moderering: tilpassede, nøglefærdige løsninger, der leveres til virksomheder, der gør deres hele forretning ved at lære mere og mere avancerede klassifikatorer flere data. Ligesom Stripe og Square tilbyder ud-af-boksen-betalingsløsninger for virksomheder, der ikke selv ønsker at behandle dem, vil startups som Clarifai, Picnix og Lemay.ai gøre moderering online.

Dan Shapiro fra Lemay.ai er håbefuld.”Som med enhver teknologi er det stadig i færd med at blive opfundet. Så jeg tror ikke, vi vil give efter, hvis vi fejler. " Men vil AI nogensinde være i stand til at operere autonomt uden menneskelig tilsyn? Uklar.”Der er ingen lille mand i en snusboks, der filtrerer hvert skud,” siger han. "Du er nødt til at hente data overalt for at træne algoritmen på det."

Zeiler mener på den anden side, at kunstig intelligens en dag vil moderere alt på egen hånd. I sidste ende vil antallet af menneskelige interventioner blive reduceret til nul eller lidt indsats. Efterhånden vil menneskelig indsats blive til noget, som AI ikke kan gøre nu, som ræsonnement på højt niveau, selvbevidsthed - alt hvad mennesker har.

At genkende pornografi er en del af det. Identifikation er en relativt triviel opgave for mennesker, men det er meget vanskeligere at træne en algoritme til at genkende nuancer. At bestemme tærsklen, når et filter markerer et billede som pornografisk eller ikke-pornografisk, er også en vanskelig opgave, til dels matematisk.

Kunstig intelligens er et ufuldkommen spejl for, hvordan vi ser verden, ligesom pornografi er en afspejling af, hvad der sker mellem mennesker, når de er alene. Der er en vis sandhed i det, men der er ikke et fuldstændigt billede.

Ilya Khel