Stephen Hawking Kalder Kunstig Intelligens Den Største Fejl I Historien - Alternativ Visning

Stephen Hawking Kalder Kunstig Intelligens Den Største Fejl I Historien - Alternativ Visning
Stephen Hawking Kalder Kunstig Intelligens Den Største Fejl I Historien - Alternativ Visning

Video: Stephen Hawking Kalder Kunstig Intelligens Den Største Fejl I Historien - Alternativ Visning

Video: Stephen Hawking Kalder Kunstig Intelligens Den Største Fejl I Historien - Alternativ Visning
Video: The Movie Great Pyramid K 2019 - Director Fehmi Krasniqi 2024, September
Anonim

Den berømte britiske fysiker Stephen Hawking sagde i en artikel inspireret af science fiction-filmen "Transcendence" med Johnny Depp, at undervurdering af truslen fra kunstig intelligens kan være den største fejl i menneskets historie.

I en artikel, der er skrevet sammen med datalogiprofessor Stuart Russell fra University of California i Berkeley og fysikprofessorer Max Tegmark og Frank Wilczek fra MIT, peger Hawking på nogle fremskridt inden for kunstig intelligens, og bemærker selvkørende biler, Siris stemmeassistent og supercomputeren. vinderen af manden i Jeopardy TV quiz-spillet.

”Alle disse resultater lyser på baggrund af hvad der venter os i de kommende årtier. Den vellykkede oprettelse af kunstig intelligens vil være den største begivenhed i menneskets historie. Desværre kan det vise sig at være det sidste, hvis vi ikke lærer at undgå risici,”citeres Hawking af den britiske avis The Independent.

Professorerne skriver, at det i fremtiden kan ske, at ingen og intet kan stoppe maskiner med umenneskelig intelligens fra selvforbedring. Og dette vil starte processen med den såkaldte teknologiske singularitet, hvilket betyder ekstrem hurtig teknologisk udvikling. I filmen med Depps deltagelse bruges ordet "transcendens" i denne forstand.

Forestil dig en sådan teknologi, der overgår mennesker og driver finansmarkeder, videnskabelig forskning, mennesker og udvikling af våben ud over vores forståelse. Hvis den kortvarige effekt af kunstig intelligens afhænger af, hvem der kontrollerer den, afhænger langtidseffekten af, om den overhovedet kan kontrolleres.

Det er vanskeligt at sige, hvilke konsekvenser kunstig intelligens kan have på mennesker. Hawking mener, at der er lidt seriøs forskning, der er afsat til disse spørgsmål uden for sådanne non-profit organisationer som Cambridge Center for Study of Existential Risici, Institute for the Future of Humanity og forskningsinstitutter for maskine-intelligens og fremtidig liv.

Ifølge ham skal vi hver især spørge os selv, hvad vi kan gøre nu for at undgå fremtidens værste tilfælde.

Anbefalet: