Ny Teknologi Fra IBM Har Gjort Det Muligt At Fremskynde AI-træning 4 Gange - - Alternativ Visning

Ny Teknologi Fra IBM Har Gjort Det Muligt At Fremskynde AI-træning 4 Gange - - Alternativ Visning
Ny Teknologi Fra IBM Har Gjort Det Muligt At Fremskynde AI-træning 4 Gange - - Alternativ Visning

Video: Ny Teknologi Fra IBM Har Gjort Det Muligt At Fremskynde AI-træning 4 Gange - - Alternativ Visning

Video: Ny Teknologi Fra IBM Har Gjort Det Muligt At Fremskynde AI-træning 4 Gange - - Alternativ Visning
Video: Introduction To Artificial Intelligence Coursera Week 4 Quiz Answers 2024, Kan
Anonim

Beregningseffektiviteten af kunstig intelligens er som et dobbeltkantet sværd. På den ene side skal det lære temmelig hurtigt, men jo mere det neurale netværk "accelererer", jo mere forbruger det energi. Dette betyder, at det simpelthen kan blive ulønnsomt. Imidlertid kan en vej ud af situationen gives af IBM, der har demonstreret nye metoder til undervisning i AI, som gør det muligt for det at lære flere gange hurtigere med det samme niveau af ressource- og energiomkostninger.

For at opnå disse resultater måtte IBM opgive beregningsmetoder ved hjælp af 32-bit og 16-bit teknikker, udvikle en 8-bit teknik samt en ny chip til at arbejde med den.

Alle IBM-udviklinger blev præsenteret på NeurIPS 2018 i Montreal. Virksomhedens ingeniører talte om to udviklinger. Den første kaldes "dyb maskinlæring af neurale netværk ved hjælp af 8-bit flydende punktnumre." I det beskriver de, hvordan det lykkedes dem at reducere den aritmetiske præcision til applikationer fra 32-bit til 16-bit på en sådan måde og gemme den på en 8-bit-model. Eksperter hævder, at deres teknik fremskynder træningstiden for dybe neurale netværk med 2-4 gange sammenlignet med 16-bit-systemer. Den anden udvikling er "8-bit multiplikation i hukommelse med projiceret faseovergangshukommelse." Her afslører eksperter en metode, der kompenserer for den lave troværdighed af analoge AI-chips ved at give dem mulighed for at forbruge 33 gange mindre strøm end sammenlignelige digitale AI-systemer.

Vladimir Kuznetsov