Menneskehed Skal 'Fængsel' Farligt Ai Undgås Doom, Siger Ekspert

{h1}

Mennesker kunne afværge "dommedagen" ved at opbygge et virtuelt fængsel, der muligvis fanger farlig kunstig intelligens fanget.

Super intelligente computere eller robotter har truet menneskets eksistens mere end en gang i science fiction. Sådanne dommedagsscenarier kunne forhindres, hvis mennesker kan skabe et virtuelt fængsel for at indeholde kunstig intelligens, før det vokser farligt selvbevidst.

At holde den kunstige intelligens (AI) -genie fanget i den trylleflaske kunne gøre en apokalyptisk trussel til et magtfuldt orakel, der løser menneskehedens problemer, sagde Roman Yampolskiy, computerforsker ved University of Louisville i Kentucky. Men vellykket indeslutning kræver omhyggelig planlægning, så en smart AI ikke blot kan true, bestikke, forføre eller hakke sin vej til frihed.

"Det kan opdage nye angrebsstier, lancere sofistikerede socialtekniske angreb og genbruge eksisterende hardwarekomponenter på uforudsete måder", siger Yampolskiy. "Sådan software er ikke begrænset til infektion af computere og netværk - det kan også angribe menneskelige psyke, bestikkelse, udpressning og hjernevask dem, der kommer i kontakt med det."

Et nyt forskningsfelt, der sigter på at løse AI-fængselsproblemet, kunne have sidevinster til forbedring af cybersikkerhed og kryptografi, foreslog Yampolskiy. Hans forslag blev beskrevet i marts-udgaven af ​​Journal of Consciousness Studies.

En dræberrobot fra 2009-filmen

En morderobot fra 2009-filmen "Terminator Salvation" - præcis den slags fremtid, vi ikke ønsker at se.

Kredit: Warner Bros.

Hvordan fælde Skynet

En startløsning kan fælde AI'en i en "virtuel maskine", der kører inde i en computers typiske operativsystem - en eksisterende proces, der øger sikkerheden ved at begrænse AI's adgang til værtscomputers software og hardware. Det stopper en smart AI fra at gøre ting som at sende skjulte Morse kode meddelelser til menneskelige sympatisører ved at manipulere en computers kølevifter.

At sætte AI'et på en computer uden internetadgang ville også forhindre ethvert "Skynet" -program fra at overtage verdens forsvarskanaler i stil med "Terminator" -filmene. Hvis alt andet fejler, kan forskere altid sænke AI's "tænkning" ved at spole computerens hastigheder tilbage, regelmæssigt trykke på "reset" -knappen eller lukke computerens strømforsyning for at holde en AI i kontrol.

Sådanne sikkerhedsforanstaltninger behandler AI som et særligt smart og farligt computervirus eller malware-program, men uden den sikre viden om, at nogle af trinene virkelig ville fungere.

"Catch-22 er, at indtil vi har fuldt udviklet superintelligent AI, kan vi ikke fuldt ud teste vores ideer, men for at kunne udvikle et sådant AI skal vi have sikkerhedsforanstaltninger," fortalte Yampolskiy InnovationNewsDaily. "Vores bedste bud er at bruge indesluttede foranstaltninger mod subhuman AI-systemer og opdatere dem efter behov med stigende kapacitet hos AI."

Computerforsker Roman Yampolskiy har foreslået at bruge en

Computer videnskabsmand Roman Yampolskiy har foreslået at bruge en "@" version af biohazarad eller stråling advarselsskilt til at indikere en farlig kunstig intelligens.

Kredit: Jeremy Hsu TechMediaNetwork

Send aldrig et menneske for at beskytte en maskine

Selv afslappet samtale med en menneskelig vagt kunne give en AI mulighed for at bruge psykologiske tricks, såsom befriending eller chanting. AI kan tilbyde at belønne et menneske med perfekt helbred, udødelighed eller måske endda bringe tilbage døde familie og venner. Alternativt kan det true at gøre forfærdelige ting til mennesket, når det "uundgåeligt" undslipper.

Den sikreste tilgang til kommunikation kan kun give AI mulighed for at reagere på flere forskellige måder for at hjælpe med at løse specifikke videnskabs- eller teknologiproblemer, forklarede Yampolskiy. Det ville udnytte AI's magt som et superintelligent oracle.

Trods alle sikkerhedsforanstaltninger tror mange forskere, at det er umuligt at holde en smart AI låst for evigt. Et tidligere eksperiment fra Eliezer Yudkowsky, en forsker ved Singularity Institute for Artificial Intelligence, foreslog, at kun menneskelig intelligens kunne undslippe fra et "AI Box" scenario - selvom Yampolskiy påpegede, at testen ikke var lavet i de mest videnskabelig måde.

Stadig argumenterer Yampolskiy stærkt for at holde AI flaske op snarere end rushing headlong for at frigøre vores nye maskine overlords. Men hvis AI når det punkt, hvor det stiger ud over den menneskelige videnskabelige forståelse for at udbrede kræfter som forkendelse (viden om fremtiden), telepati eller psykokinesi, er alle væddemål slukket.

"Hvis sådan software klarer sig selvforbedring til niveauer, der er betydeligt mere end menneskelig intelligens, kan den type skade, det gør, virkelig overstige vores evne til at forudsige eller fuldt ud forstå," siger Yampolskiy.

Denne historie blev leveret af InnovationNewsDaily, et søsterwebsted til WordsSideKick.com. Du kan følge InnovationNewsDaily Senior Writer Jeremy Hsu på Twitter @ScienceHsu. Følg InnovationNewsDaily på Twitter @News_Innovation, eller på Facebook.


Video Supplement: .




DA.WordsSideKick.com
All Rights Reserved!
Reproduktion Af Materialer Tilladt Kun Prostanovkoy Aktivt Link Til Webstedet DA.WordsSideKick.com

© 2005–2019 DA.WordsSideKick.com