Hvad Sker Der Med Kunstig Intelligens? Analyse Af 16 625 Værker I De Sidste 25 år - Alternativ Visning

Indholdsfortegnelse:

Hvad Sker Der Med Kunstig Intelligens? Analyse Af 16 625 Værker I De Sidste 25 år - Alternativ Visning
Hvad Sker Der Med Kunstig Intelligens? Analyse Af 16 625 Værker I De Sidste 25 år - Alternativ Visning

Video: Hvad Sker Der Med Kunstig Intelligens? Analyse Af 16 625 Værker I De Sidste 25 år - Alternativ Visning

Video: Hvad Sker Der Med Kunstig Intelligens? Analyse Af 16 625 Værker I De Sidste 25 år - Alternativ Visning
Video: Kunstig Intelligens - Behandling af sygdomme 2024, September
Anonim

Stort set alt, hvad du hører om kunstig intelligens i dag, kommer fra dyb læring. Denne kategori af algoritmer arbejder med statistik for at finde mønstre i data og har vist sig at være ekstremt kraftfuld til at efterligne menneskelige færdigheder, såsom vores evne til at se og høre. I meget begrænset omfang kan det endda efterligne vores evne til at resonnere. Disse algoritmer understøtter Google-søgning, Facebook Newsfeed, Netflix-anbefalingsmotor og former industrier såsom sundhedsydelser og uddannelse.

Hvordan dyb læring udvikler sig

På trods af det faktum, at dyb læring praktisk talt på egenhånd bragte kunstig intelligens til offentligheden, repræsenterer det kun en lille blitz i menneskehedens historiske opgave at gengive sin egen intelligens. Det har været i spidsen for denne søgning i mindre end et årti. Hvis vi lægger hele områdets historie til side, er det let at forstå, at det snart også kan forsvinde.

De pludselige op- og nedture af forskellige metoder har længe karakteriseret AI-forskning, sagde han. Der har været intens konkurrence mellem forskellige ideer hvert årti. Derefter, fra tid til anden, skifter kontakten, og hele samfundet begynder at gøre en ting.

Vores kolleger hos MIT Technology Review ønskede at visualisere disse problemer og starter. Med henblik herpå henvendte de sig til en af de største databaser med åbne videnskabelige artikler kendt som arXiv. De downloadede uddrag fra i alt 16.625 artikler, der var tilgængelige i sektionen for kunstig intelligens gennem 18. november 2018 og spurgte de nævnte ord gennem årene for at se, hvordan feltet har udviklet sig.

Gennem deres analyse fremkom tre hovedtendenser: skiftet mod maskinlæring i slutningen af 90'erne og begyndelsen af 2000'erne, stigningen i popularitet af neurale netværk, der begyndte i begyndelsen af 2010'erne, og stigningen i forstærkningslæring i de sidste par år.

Salgsfremmende video:

Men først et par advarsler. For det første dateres arXiv-afsnittet med AI tilbage til 1993, og udtrykket "kunstig intelligens" stammer tilbage til 1950'erne, så selve databasen repræsenterer kun de sidste kapitler i feltets historie. For det andet udgør de dokumenter, der føjes til databasen hvert år, kun en brøkdel af det arbejde, der udføres på dette område i øjeblikket. ArXiv tilbyder imidlertid en fremragende ressource til at identificere nogle af de største forskningstendenser og til at se trækket mellem forskellige ideologiske lejre.

Maskinlæringsparadigmet

Det største skift forskerne fandt var bevægelsen væk fra videnbaserede systemer mod de tidlige 2000'ere. Sådanne computersystemer er baseret på ideen om, at det er muligt at kode al menneskelig viden i et regelsystem. I stedet for forskere henvendte sig til maskinlæring, den overordnede kategori af algoritmer, der inkluderer dyb læring.

Blandt de 100 nævnte ord faldt dem, der er forbundet med videnbaserede systemer - "logik", "begrænsninger" og "regel" mest. Og dem, der var relateret til maskinlæring - "data", "netværk", "præstation" - voksede mest.

Årsagen til denne ændring i vejret er meget enkel. I 80'erne voksede videnbaserede systemer popularitet blandt fans, takket være spændingen omkring ambitiøse projekter, der prøvede at genskabe sund fornuft i maskiner. Men da disse projekter blev udfoldet, stod forskerne overfor en stor udfordring: For mange regler skulle kodes for at systemet kunne gøre noget nyttigt. Dette førte til øgede omkostninger og betydeligt nedsat de igangværende processer.

Svaret på dette problem er maskinlæring. I stedet for at kræve, at folk manuelt koder hundreder af tusinder af regler, programmerer denne fremgangsmåde maskiner til automatisk at udtrække disse regler fra en bunke med data. Ligeledes er dette felt flyttet væk fra videnbaserede systemer og henvendt sig til forbedring af maskinlæring.

Boomen i neurale netværk

Inden for det nye paradigme om maskinlæring, skete overgangen til dyb læring ikke natten over. I stedet har en analyse af nøgleord vist, at forskere har testet mange metoder ud over neurale netværk, de vigtigste mekanismer for dyb læring. Andre populære metoder inkluderede bayesiske netværk, supportvektormaskiner og evolutionære algoritmer, som alle bruger forskellige tilgange til at finde mønstre i data.

I 1990'erne og 2000'erne var der stærk konkurrence mellem disse metoder. Så i 2012 førte et dramatisk gennembrud til en anden ændring i vejret. Under den årlige ImageNet-konkurrence om at fremskynde fremskridt inden for computervision opnåede en forsker ved navn Jeffrey Hinton sammen med sine kolleger ved University of Toronto den bedste billedgenkendelsesnøjagtighed med en fejlmargin på lidt over 10%.

Den dybe læringsteknik, han brugte, har givet en ny bølge af forskning først i visualiseringssamfundet og derefter videre. Efterhånden som flere og flere forskere begyndte at bruge det til at opnå imponerende resultater, er populariteten af denne teknik sammen med populariteten af neurale netværk skyrocket.

Væksten i forstærkningslæring

Analysen viste, at der et par år efter blomstret af dyb læring, har der været et tredje og sidste skift i AI-forskning.

Ud over de forskellige maskinindlæringsmetoder er der tre forskellige typer: overvåget læring, uovervåget læring og forstærkende læring. Overvåget læring, som involverer indføring af mærkede data til maskinen, er den mest anvendte og har også de mest praktiske applikationer i dag. I de seneste par år har forstærkende læring, der efterligner dyrs indlæringsproces gennem gulerødder og pinde, straffe og belønninger, imidlertid ført til en hurtig stigning i referencer i værkerne.

Ideen i sig selv er ikke ny, men den har ikke fungeret i mange årtier.”Overvåget læringsspecialister lo af forstærkende læringsspecialister,” siger Domingos. Men som med dyb læring, bragte et vendepunkt pludselig metode frem.

Det øjeblik kom i oktober 2015, da DeepMinds AlphaGo, trænet med forstærkning, besejrede verdensmesteren i det gamle spil. Virkningen på forskersamfundet var øjeblikkelig.

De næste ti år

MIT Technology Review giver kun det seneste øjebliksbillede af konkurrencen blandt ideer, der kendetegner AI-forskning. Det illustrerer imidlertid inkonsekvensen i stræben efter duplikering af intelligens.”Det er vigtigt at forstå, at ingen ved, hvordan man løser dette problem,” siger Domingos.

Mange af de metoder, der har været i brug i 25 år, dukkede op på samme tid i 1950'erne og har ikke kunnet matche udfordringerne og succeserne i hvert årti. Neurale netværk toppede f.eks. I 60'erne og lidt i 80'erne, men døde næsten før de genvundne deres popularitet takket være dyb læring.

Hvert årti har med andre ord set dominansen af en anden teknik: neurale netværk i slutningen af 50'erne og 60'erne, forskellige symbolske forsøg i 70'erne, videnbaserede systemer i 80'erne, Bayesiske netværk i 90'erne, referencevektorer i nul og neurale netværk igen i 2010'erne.

2020'erne vil ikke være anderledes, siger Domingos. Dette betyder, at æraen med dyb læring snart kan være forbi. Men hvad der derefter vil ske - en gammel teknik i en ny herlighed eller et helt nyt paradigme - dette er genstand for hård kontrovers i samfundet.

Ilya Khel