"Musk & firma" palub mitte joosta tehisintellektiga, et vältida võidujooksu "Terminaatori" stsenaariumi poole

Mittetulundusühingu avaldatud avatud kirjaga Elu Tuleviku Instituut Elon Musk ja tuhat muud teadlast on löönud häirekella tehisintellekti ohud. Suurima mõjuga lause on see, mis esitab teadusringkondadele tugeva küsimuse: "Tehisintellekt kujutab endast sügavaid riske ühiskonnale ja inimkonnale ning seetõttu oleks kõige arenenumate süsteemide väljaõpetamiseks vajalik vähemalt kuuekuuline paus."

Elon Musk ja teised teadlased nõuavad valitsuste tegevuse lõpetamist või moratooriumi, et vältida kardetudTerminaatori stsenaarium, et võimaldada jagatud turvaprotokollide väljatöötamist.

Apple'i kaasasutaja allkirjastas kirja Steve Wozniak vaid ka need Pinterest e Skype, samuti tehisintellekti startupide asutajad Stabiilsus AI e Tegelased.ai. Kirjale kirjutas alla üle tuhande juhi ja eksperdi üle maailma.

Musk ei taha demoniseerida uus ja arenev tehnoloogia ka seetõttu, et see soovib täiustada intelligentset aju Neuralinkiga pärast seda, kui on vallutanud ruumi SpaceX-iga ja autotööstuse Teslaga. Musk on investeerinud suuri rahalisi investeeringuid Microsoftiga seotud tehisintellekti ettevõtetesse, et olla kursis arenenuma tulevikuga, mida igaüks soovib olla strateegiliselt heidutav ja atraktiivne.

Praegu valmistavad aga muret kõige arenenumad süsteemid GPT-4, OpenAI vestlusbot, mis on võimeline rääkima nalju ja sooritama hõlpsalt eksameid, näiteks juristiks saamise eksameid, kirjutab Ansa.

"Võimsaid tehisintellektisüsteeme tuleks arendada ainult siis, kui ollakse kindel, et nende mõju on positiivne ja riskid juhitavad.", on kirjas rõhutatud. Sõnum on pragmaatiline, kui see räägib "põgenenud kiirus, et arendada ja juurutada võimsaid digitaalseid mõtteid, mida keegi, isegi mitte nende loojad, ei suuda mõista, ennustada ega kontrollida.

Hiina on USA-d juba hoiatanud: "tehisintellekt ei muutu vahendiks ega relvaks tehnototalitaarse orwelliliku jälgimise täiustamiseks".

Tehisintellekt võib viia maailma hävitamiseni, kutsudes esile paljusid ulmefilme, ja sel põhjusel, et vältida katastroofilisi tagajärgi, nõuavad hi-tech suurnimed kuuekuulist pausi, et seda kasutada. "ühisprotokollide ühine arendamine ja rakendamine", mis tagavad süsteemide "turvalisuse" väljaspool igasugust põhjendatud kahtlust. Kirjas kutsutakse AI laboreid üles keskenduma sellele, et teha rohkemtäpne, läbipaistev, usaldusväärne ja õiglane" praegused süsteemid, selle asemel, et liikuda veelgi võimsamate vahendite väljatöötamise poole. “Ettevõte on peatanud teiste potentsiaalselt katastroofiliste tagajärgedega tehnoloogiate kasutamise – jätkab kirja –. Me saame seda ka sel juhul teha. Nautigem pikka AI-suve ja ärge tormake sügisesse ettevalmistuseta."

Kirja täistekst

Inimeste jaoks konkurentsivõimelise intelligentsusega tehisintellektiga süsteemid võivad kujutada endast sügavaid riske ühiskonnale ja inimkonnale, nagu näitavad ulatuslikud uuringud ja tunnistavad parimad tehisintellekti laborid. Nagu öeldud laialdaselt heaks kiidetud Asilomari tehisintellekti põhimõttedTäiustatud tehisintellekt võib kujutada endast põhjalikku muutust Maa elu ajaloos ning seda tuleks kavandada ja hallata proportsionaalse hoole ja ressurssidega. Kahjuks sellisel tasemel planeerimine ja haldamine ei toimu, kuigi viimastel kuudel on tehisintellekti laborid olnud suletud võidujooksus, et arendada ja juurutada üha võimsamaid digitaalseid mõtteid, millest keegi – isegi mitte nende loojad – aru ei saa. ennustada või usaldusväärselt kontrollida.

Kaasaegsed AI-süsteemid muutuvad nüüd üldiste ülesannete täitmisel inimestele konkurentsivõimeliseks ja me peame endalt küsima: Peaks laseme masinatel oma infokanalid propaganda ja ebatõega üle ujutada? Peaks automatiseerime ära kõik tööd, sealhulgas täitvad? Peaks arendame välja mitteinimlikud meeled, mis võivad lõpuks arvulisemalt ületada, kavaldada, vananeda ja meid asendada? Peaks riskime kaotada kontroll oma tsivilisatsiooni üle? Selliseid otsuseid ei tohi delegeerida mittevalitud tehnoloogiajuhtidele. Võimsaid tehisintellektisüsteeme tuleks arendada alles siis, kui oleme kindlad, et nende mõju on positiivne ja nende riskid on juhitavad. See usaldus peab olema hästi põhjendatud ja suurenema koos süsteemi võimalike mõjude ulatusega. OpenAI-d hiljutine avaldus tehisintellekti kohta, nendib see "Mingil hetkel võib olla oluline saada sõltumatu ülevaade enne tulevaste süsteemide koolitamise alustamist ja kõige arenenumate jõupingutuste jaoks leppida kokku uute mudelite loomisel kasutatava arvutuse kasvutempo piiramises." Oleme nõus. See punkt on praegu.

Seetõttu kutsume kõiki tehisintellekti laboreid üles viivitamatult peatama vähemalt kuueks kuuks GPT-6-st võimsamate AI-süsteemide koolituse. See paus peaks olema avalik ja kontrollitav ning hõlmama kõiki võtmeisikuid. Kui sellist pausi ei saa kiiresti kehtestada, peaksid valitsused sekkuma ja kehtestama moratooriumi.

Tehisintellekti laborid ja sõltumatud eksperdid peaksid kasutama seda pausi, et ühiselt välja töötada ja rakendada täiustatud tehisintellekti kavandamise ja arendamise jaoks jagatud ohutusprotokolle, mida sõltumatud väliseksperdid rangelt auditeerivad ja kontrollivad. Need protokollid peaksid tagama, et neile järgivad süsteemid on ilma mõistliku kahtluseta ohutud. See teeb mitte tähendab pausi tehisintellekti arendamises üldiselt, vaid tagasiastumist ohtlikust võidujooksust üha suuremate ettearvamatute uute võimalustega musta kasti mudelite poole.

Tehisintellekti uurimis- ja arendustegevus tuleks uuesti keskenduda sellele, et muuta tänapäeva võimsad ja tipptasemel süsteemid täpsemaks, turvalisemaks, tõlgendatavamaks, läbipaistvamaks, vastupidavamaks, ühtsemaks, usaldusväärsemaks ja lojaalsemaks.

Paralleelselt peavad tehisintellekti arendajad tegema koostööd poliitikakujundajatega, et järsult kiirendada tugevate tehisintellekti juhtimissüsteemide väljatöötamist. Need peaksid hõlmama vähemalt: tehisintellektile pühendunud uusi ja võimekaid reguleerivaid asutusi; suure võimekusega tehisintellektisüsteemide ja arvutusvõimekuse suurte kogumite järelevalve ja jälgimine; päritolu- ja vesimärgisüsteemid, mis aitavad eristada tõelist sünteetilisest ja jälgida mudeli lekkeid; tugev auditeerimis- ja sertifitseerimisökosüsteem; vastutus tehisintellekti põhjustatud kahju eest; tehniliste tehisintellekti ohutusuuringute tugev riiklik rahastamine; ja hästi varustatud institutsioonid, et tulla toime dramaatiliste majanduslike ja poliitiliste häiretega (eriti demokraatias), mida tehisintellekt põhjustab.

Inimkond saab AI abil nautida õitsvat tulevikku. Olles suutnud luua võimsaid tehisintellektisüsteeme, saame nüüd nautida „AI suve”, mille käigus lõikame kasu, kujundame need süsteemid selgeks kõigi hüvanguks ja anname ühiskonnale võimaluse kohaneda. Ühiskond on peatanud muud tehnoloogiad, millel on ühiskonnale potentsiaalselt katastroofilised tagajärjed. Siin saame seda teha. Nautigem pikka tehisintellekti suve, mitte kiirustagem ette valmistamata kukkuma.

"Musk & firma" palub mitte joosta tehisintellektiga, et vältida võidujooksu "Terminaatori" stsenaariumi poole

| UUDISED ", EVIDENCE 1 |