Rigtig Kunstig Intelligens Kan Oprettes Ved At Løse Tre Hovedproblemer - - Alternativ Visning

Indholdsfortegnelse:

Rigtig Kunstig Intelligens Kan Oprettes Ved At Løse Tre Hovedproblemer - - Alternativ Visning
Rigtig Kunstig Intelligens Kan Oprettes Ved At Løse Tre Hovedproblemer - - Alternativ Visning

Video: Rigtig Kunstig Intelligens Kan Oprettes Ved At Løse Tre Hovedproblemer - - Alternativ Visning

Video: Rigtig Kunstig Intelligens Kan Oprettes Ved At Løse Tre Hovedproblemer - - Alternativ Visning
Video: The Movie Great Pyramid K 2019 - Director Fehmi Krasniqi 2024, Kan
Anonim

På en konference om dyb maskinlæring i London i sidste måned blev et emne rejst flere gange: vigtigheden af at forstå, hvad vi virkelig gør. Mens virksomheder som Google fortsætter med at hævde, at vi alle lever i”det første århundrede af AI”, når maskinlæring lige er begyndt at opdage nye aktivitetsområder (som tale og billedgenkendelse), er de der virkelig står i spidsen for AI-forskning, forsøge at understrege, at der er mange flere udfordringer, der skal løses, inden den sande alder af AI ankommer. Selv hvis vi allerede har digitale assistenter, der kan tale som computere i sci-fi-film, betyder det ikke, at vi seriøst er tæt på at skabe reel kunstig intelligens.

I sidste ende er alle de problemer, der står i vejen for at skabe reel AI, som følger: i den mængde information, der skal investeres i dem; i vores manglende evne til at skabe en AI, der kunne klare lige så godt med flere opgaver på én gang; ja, faktisk har vi ingen idé om, hvordan sådanne systemer faktisk skal fungere. Teknologi til maskinindlæring er allerede i stand til at gøre vidunderlige ting i 2016, men disse ting kan undertiden være vanskelige at forklare, selv for skaberne selv. For ikke at nævne, hvor mange penge det hele koster. Lad os se nærmere på de kompleksiteter, som AI-ingeniører står overfor i dag.

Information først, derefter AI

Vi forstår alle perfekt, at AI skal have adgang til information for at studere verdenen omkring os, men vi forstår ikke helt præcist, hvor meget information der er behov for. Ifølge Neil Lawrence, professor ved Department of Machine Learning ved Sheffield University og medlem af AI-teknologiudviklingsholdet på Amazon, har disse systemer brug for hundreder og tusinder af gange mere information end et menneske for at lære at forstå verden og genkende visse objekter.

"Hvis du ser på alle de industrier og områder, hvor ingeniører har opnået en vis succes med maskin dyb læring, kan du med det samme se, hvor meget information der er brugt til at løse alle disse problemer," siger Lawrence og nævner som et eksempel de samme tale- og billedgenkendelsesteknologier.

Virksomheder som Google og Facebook har adgang til bjerge af information, hvilket naturligvis gør det lettere at oprette forskellige nyttige værktøjer (for eksempel de samme stemmesøgningsteknologier til Android).

For Lawrence er information nu hvad kul var i de første år af den industrielle revolution. Som et eksempel nævner Lawrence Thomas Newcomen, en engelskmand, der skabte i 1712 (faktisk 60 år før oprettelsen af en sådan maskine af James Watt) en primitiv version af en dampmaskine drevet af kul. Newcomens opfindelse var ikke perfekt. Sammenlignet med Watt's maskine viste det sig at være ineffektivt og for dyrt at bruge. For det meste kunne det kun bruges i kulminer, hvor den nødvendige mængde brændstof udgør maskinens mangler.

Et eksempel på Facebooks åbne billedgenkendelsesteknologi

Salgsfremmende video:

Image
Image

Lawrence mener, at der kunne være hundreder af disse nykommerne rundt omkring i verden, der udvikler deres egne maskinlæringsmodeller. Der er måske virkelig revolutionerende ideer blandt dem, men uden at deres teknologier får adgang til enorme databaser med information om dem, vil sandsynligvis ingen nogensinde vide det. Store virksomheder som Google, Facebook og Microsoft - de er de meget moderne "kulminearbejdere". De har adgang til en ubegrænset mængde information, så de kan oprette ineffektive maskinlæringssystemer og derefter forbedre dem. Små startups kan faktisk have gode ideer, men de vil aldrig opnå noget værd uden adgang til informationsbaser.

Dette problem bliver endnu tydeligere, når du ser på områder, hvor det bliver endnu vanskeligere at få de oplysninger, du har brug for. Tag for eksempel et sundhedsvæsenssystem, hvor AI kunne bruges til at udføre opgaver relateret til maskinsyn - finde og genkende ondartede tumorer på røntgenstråler. Men adgangen til sådanne data er normalt meget begrænset. Ifølge Lawrence er den vigtigste begrænsende faktor den aktuelle opfattelse af mennesker om, at det er uetisk for tredjepart at få adgang til denne form for information. Ifølge Lawrence ligger hovedproblemet ikke i at finde måder at sprede information på, men i hvordan man kan gøre maskinlæringssystemer mere effektive og lære at arbejde med mindre information. Og disse forbedringer i effektivitet kunne ifølge videnskabsmanden tage de samme 60 år.som tilfældet med Watt's bil.

Specialisering er en blindgyde. AI skal være i stand til at multitaske

En anden vigtig udfordring, der står over for udviklingen af virkelig dybe maskinlæringsmodeller, er det faktum, at alle vores nuværende AI-systemer faktisk er meget stumme. Ifølge Rya Hudsell, en forsker hos Googles DeepMind, kan disse systemer faktisk læres at udføre kattegenkendelsesopgaver, at lege med og samtidig være meget effektive til at udføre disse opgaver. Men "i øjeblikket i verden findes der ikke et enkelt fuldt neuralt netværk og metoder, der vil træne det til at genkende billeder, spille Space Invaders og overveje musik." Til gengæld er det neurale netværk, der er det centrale grundlag for at skabe dybe læringssystemer til maskiner.

Og dette problem er meget mere markant, end det ser ud ved første øjekast. Da DeepMind i februar sidste år meddelte, at det havde bygget et system, der kunne spille 49 Atari-spil, kunne det virkelig ses som en stor præstation. Men til sidst viste det sig, at når systemet er færdig med at gennemføre et spil, hver gang det skal omskoleres for at spille et andet. Hudsell bemærker, at vi ikke kan lære systemet at spille alle spil på én gang, da reglerne for hver vil blandes med hinanden og i sidste ende forstyrre opgaven. Hver gang du skal lære maskinen igen, og hver gang "glemmer", hvordan man spiller det forrige spil.

”For at skabe generel kunstig intelligens har vi brug for noget, der hjælper os med at lære en maskine at udføre flere opgaver på én gang. Nu kan vi ikke engang træne dem til at spille spil,”siger Hadsell.

Løsningen kan skjules i de såkaldte progressive neurale netværk - ved at kombinere uafhængige dybe læringssystemer i en enkelt helhed til mere effektivt arbejde med information. I en offentliggjort videnskabelig artikel, der vedrørte dette problem, talte Hadsell og hendes forskerhold om, hvordan deres progressive neurale netværk var i stand til at tilpasse sig i spillet Pong, betingelserne, hvor hver gang var noget anderledes (i det ene tilfælde var farverne ændret; i det andet var de forvirrede kontrol), meget hurtigere end det "almindelige" neurale netværk, som skulle trænes på ny hver gang.

Det grundlæggende princip i et progressivt neuralt netværk

Image
Image

Metoden har vist sig at være meget lovende og er for nylig blevet brugt til at indstille robotarme, hvilket fremskynder læringsprocessen fra en uge til kun en dag. Desværre har denne metode også sine begrænsninger. Hudsell bemærker, at i tilfælde af progressive neurale netværk, kan læringsprocessen ikke reduceres til blot at tilføje nye opgaver til deres hukommelse. Hvis du fortsætter med at kombinere sådanne systemer sammen, vil du før eller senere komme til "en for kompleks en model, der vil være umulig at spore." I dette tilfælde vil vi tale om et andet niveau. Det niveau, på hvilket forskellige opgaver generelt udføres på samme måde. At opbygge en AI, der er i stand til at designe stole og skabe en AI på niveauet for menneskelig intelligens, der er i stand til at skrive digte og løse forskellige ligninger, er ikke det samme.

AI kan kaldes AI, hvis vi kan vise, hvordan det fungerer

En anden skræmmende hindring er at forstå, hvordan kunstig intelligens vil nå frem til sine konklusioner, når man løser problemer. Neurale netværk er normalt uigennemtrængelige for observatøren. På trods af det faktum, at vi ved, hvordan de indsamles, og hvordan information flyder gennem dem, forbliver de beslutninger, de træffer, normalt uden forklaring.

Et fremragende eksempel på dette problem er Virginia Tech-eksperimentet. Forskerne har oprettet et sporingssystem til det neurale netværk, der registrerer, hvilke pixels i et digitalt billede computeren begynder at analysere fra. Forskerne viste de neurale netværksbilleder af soveværelset og stillede spørgsmålet: "Hvad hænger der på vinduerne?" Maskinen begyndte i stedet for at se direkte på vinduerne og analysere billederne fra gulvet. En seng kom ind i hendes synsfelt, og bilen svarede: "der er gardiner på vinduerne." Svaret viste sig at være korrekt, men kun fordi systemet blev "lært" at arbejde med en begrænset mængde data. Baseret på det viste billede konkluderede det neurale netværk, at hvis billedet viser et soveværelse, så skulle det sandsynligvis være gardiner på vinduerne. Så da en detalje kom ind i hendes synsfelt,som normalt findes i ethvert soveværelse (i dette tilfælde en seng), analyserede hun ikke billedet yderligere. Hun har måske ikke engang set denne seng, hun så gardinerne. Det er logisk, men meget overfladisk og tiltrukket. Plus, mange soveværelser har ikke gardiner!

Sporingsteknologi er kun et værktøj, der kan hjælpe os med at forstå, hvad der beder en maskine om at tage en bestemt beslutning, men der er bedre metoder, der kan tilføje mere logik og dyb analyse til maskinindlæringssystemer. Murray Shanahan, professor i kognitiv robotik ved Imperial College London, mener, at den bedste løsning på problemet er at revidere det gammeldags paradigme af AI - symbolsk AI eller GOFAI (Good Old-Fashioned Artificial Intelligence, "god gammel kunstig intelligens"). Dens paradigme koger sammen med det faktum, at absolut enhver opgave kan opdeles i grundlæggende logiske elementer, hvor hvert ord kun er et komplekst sæt enkle symboler. Ved at kombinere disse symboler - i handlinger, begivenheder, genstande og så videre - kan tanken syntetiseres. Bare forestil dig, at sådan udvikling blev udført i de dage, hvor computere var gigantiske kasser på størrelse med et rum, arbejdede på magnetbånd (arbejdet begyndte i midten af 50'erne og fortsatte indtil slutningen af 80'erne i det forrige århundrede).

Shanahans forslag er at kombinere GOFAI-symbolbeskrivelser og dyb læringsteknologier. Dette tillader ikke kun at fodre sådanne systemer med ny information og vente på, at de vil udlede bestemte adfærdsmønstre og problemløsning baseret på denne information, Shanahans tilgang er designet til at give sådanne systemer udgangspunkt for at forstå verden. Dette efter hans mening vil ikke kun løse problemet med AI-gennemsigtighed, men også problemet med overførbar læring beskrevet af Hadsell.

”Det er sikkert at sige, at Breakout ligner meget Pong, for i begge tilfælde bruges” platforme”og” bolde”, men set ud fra menneskets opfattelse og logik er de to helt forskellige spil. Og det er næsten umuligt at få paralleller mellem dem. Det er som at prøve at kombinere atomets struktur og strukturen i hele solsystemet."

Shanahan og hans kolleger ved Imperial College London arbejder i øjeblikket på en ny metode til maskinlæring (som de kalder dyb symbolsk stimuleret læring) og har allerede offentliggjort resultaterne af nogle små eksperimenter. Metoden er stadig i sin barndom, og derfor er det vanskeligt at sige endnu, om den skalerer til større systemer, der arbejder med forskellige typer data. Ikke desto mindre er der stadig chancer for, at denne metode vil vokse til noget mere. Når alt kommer til alt har dyb læring altid været den mest kedelige og kedelige del af AI-udviklingen, indtil forskere har fundet en måde at hurtigt få adgang til data og erhvervet massiv behandlingskraft. Meget muligt,det er tid til at gå tilbage til gamle AI-paradigmer og prøve dem i et nyt miljø.

NIKOLAY KHIZHNYAK