Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens Til Videnskabelig Opdagelse - Alternativ Visning

Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens Til Videnskabelig Opdagelse - Alternativ Visning
Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens Til Videnskabelig Opdagelse - Alternativ Visning

Video: Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens Til Videnskabelig Opdagelse - Alternativ Visning

Video: Hvorfor Forskere Ikke Bør Stole På Kunstig Intelligens Til Videnskabelig Opdagelse - Alternativ Visning
Video: Seth Shostak: ET is (probably) out there — get ready 2024, Kan
Anonim

Vi lever i en gylden tidsalder af videnskabelige data, omgivet af store reserver af genetisk information, medicinsk billeddannelse og astronomiske data. De nuværende muligheder for maskinlæringsalgoritmer gør det muligt for kunstig intelligens at studere disse data så hurtigt og på samme tid meget omhyggeligt, hvilket ofte åbner døren til potentielt nye videnskabelige opdagelser. Vi bør dog ikke blindt have tillid til resultaterne af videnskabelig forskning udført af AI, siger Rice University-forsker Genever Allen. I det mindste ikke på det nuværende udviklingsniveau for denne teknologi. Ifølge videnskabsmanden ligger problemet i det faktum, at moderne AI-systemer ikke har evnen til kritisk at vurdere resultaterne af deres arbejde.

Ifølge Allen kan AI-systemer, der bruger maskinindlæringsmetoder, det vil sige, når læring forekommer i processen med at anvende løsninger på mange lignende problemer og ikke blot ved at indføre og følge nye regler og forskrifter, stole på at tage nogle beslutninger. Mere præcist er det meget muligt at tildele opgaver til AI til løsning af problemer i de områder, hvor det endelige resultat let kan kontrolleres og analyseres af personen selv. Som et eksempel kan vi tage, sige, at tælle antallet af krater på månen eller forudsige efterskud efter et jordskælv.

Dog er nøjagtigheden og effektiviteten af mere komplekse algoritmer, der bruges til at analysere meget store mængder data til at finde og bestemme tidligere ukendte faktorer eller forhold mellem forskellige funktioner "meget vanskeligere at verificere," bemærker Allen. Således kan umuligheden af at verificere de data, der matches af sådanne algoritmer, føre til forkerte videnskabelige konklusioner.

Tag for eksempel præcisionsmedicin, hvor specialister analyserer patientmetadata for at finde specifikke grupper af mennesker med lignende genetiske egenskaber for at udvikle effektive behandlinger. Nogle AI-programmer designet til at sile gennem genetiske data er faktisk effektive til at identificere grupper af patienter med en lignende disponering, for eksempel til udvikling af brystkræft. De viser sig imidlertid at være fuldstændig ineffektive til at identificere andre typer kræft, for eksempel kolorektal. Hver algoritme analyserer dataene forskelligt, så når man kombinerer resultater, kan der ofte være en konflikt i klassificeringen af patientprøven. Dette får forskere til at undre sig over, hvilken AI i sidste ende har tillid til.

Disse modsigelser opstår på grund af det faktum, at algoritmer til dataanalyse er designet på en sådan måde, at de overholder instruktionerne i disse algoritmer, som ikke efterlader plads til ubeslutsomhed, usikkerhed, forklarer Allen.

Forskere kan ikke lide usikkerhed. Imidlertid er traditionelle metoder til bestemmelse af måleusikkerheder udviklet i de tilfælde, hvor det er nødvendigt at analysere data, der er specielt valgt til at evaluere en bestemt hypotese. Dette er ikke, hvordan AI-programmer til data mining arbejder. Disse programmer er ikke drevet af nogen vejledende idé og analyserer simpelthen datasæt indsamlet uden noget særligt specifikt formål. Derfor udvikler mange AI-forskere, inklusive Allen selv, nu nye protokoller, der tillader næste generations AI-systemer at evaluere nøjagtigheden og reproducerbarheden af deres opdagelser.

Salgsfremmende video:

Forskeren forklarer, at en af de nye minedriftmetoder vil være baseret på begrebet resampling. For eksempel, hvis et AI-system formodes at gøre en vigtig opdagelse, for eksempel identificerer grupper af patienter, der er klinisk vigtige for forskning, skal denne opdagelse vises i andre databaser. Det er meget dyrt for forskere at oprette nye og større datasæt til validering af AI-sampling. Derfor er det ifølge Allan muligt at bruge en fremgangsmåde, hvor "det eksisterende datasæt vil blive brugt, hvor informationen blandes tilfældigt på en sådan måde, at den efterligner en helt ny database." Og hvis AI igen og igen kan bestemme de karakteristiske træk, der gør det muligt at udføre den nødvendige klassificering,”så vil det være muligt at overvejeat du har en rigtig opdagelse i dine hænder,”tilføjer Allan.

Nikolay Khizhnyak