"Musk & Company" pyytää olemaan juoksematta tekoälyn kanssa välttääkseen kilpailun kohti "Terminaattori" -skenaariota

Järjestön julkaisemalla avoimella kirjeellä Elämän instituutin tulevaisuus Elon Musk ja tuhat muuta tutkijaa ovat antaneet hälytyksen tekoälyn vaaroista. Eniten vaikuttava lause on se, joka asettaa tiedeyhteisölle vahvan kysymyksen: "Tekoäly aiheuttaa suuria riskejä yhteiskunnalle ja ihmiskunnalle ja tästä syystä vaatisi vähintään kuuden kuukauden tauko edistyneimpien järjestelmien koulutukseen".

Elon Musk ja muut tutkijat vaativat hallitusten lopettamista tai moratoriota välttääkseen pelättyjen "Terminaattorin skenaario, jotta voidaan kehittää jaettuja suojausprotokollia.

Applen toinen perustaja allekirjoitti kirjeen Steve Wozniak mutta myös niitä Pinterest e Skype, sekä tekoälyn startup-yritysten perustajat Vakaus AI e Hahmot.ai. Yli tuhat johtajaa ja asiantuntijaa ympäri maailmaa allekirjoitti kirjeen.

Musk ei halua demonisoida uusi ja nouseva teknologia myös siksi, että se haluaa parantaa älykkäitä aivoja Neuralinkillä valloitettuaan avaruuden SpaceX:llä ja autoteollisuuden Teslan avulla. Musk on investoinut voimakkaasti Microsoftiin liittyviin tekoälyyrityksiin pysyäkseen edistyneen tulevaisuuden tahdissa, jota kaikki haluavat olla strategisesti pelottavia ja houkuttelevia.

Tilaa uutiskirjeemme!

Toistaiseksi edistyneimmät järjestelmät aiheuttavat kuitenkin huolta GPT-4, OpenAI-chatbot, joka pystyy kertomaan vitsejä ja läpäisemään helposti kokeet, kuten asianajajaksi ryhtymisen, kirjoittaa Ansa.

"Tehokkaita tekoälyjärjestelmiä tulisi kehittää vain, kun on luottamusta siihen, että niiden vaikutukset ovat myönteisiä ja niiden riskit hallittavissa", korostetaan kirjeessä. Lähetys on pragmaattinen, kun se puhuu "karannut kiire kehittää ja ottaa käyttöön tehokkaita digitaalisia mieliä, joita kukaan, eivät edes niiden tekijät, voi ymmärtää, ennustaa ja hallita.

Kiina on jo varoittanut Yhdysvaltoja: "tekoälystä ei tule työkalua tai asea tekno-totalitaarisen orwellilaisen valvonnan parantamiseksi".

Tekoäly voi johtaa maailman tuhoutumiseen herättämällä mieleen monia tieteiselokuvia, ja tästä syystä, välttääkseen pelkän ajatuksen katastrofaalisista seurauksista, huipputeknologian suuret nimet pyytävät kuuden kuukauden taukoa "yhteisten protokollien kehittäminen ja käyttöönotto", jotka takaavat järjestelmien "turvallisuuden" "kieltämättä". Kirjeessä kehotetaan tekoälylaboratorioita keskittymään tuottamaan enemmän "tarkkaa, läpinäkyvää, uskottavaa ja oikeudenmukaista” nykyiset järjestelmät sen sijaan, että juoksevat kohti entistä tehokkaampien keinojen kehittämistä. "Yhtiö on keskeyttänyt muiden teknologioiden käytön, joilla on mahdollisesti katastrofaalisia vaikutuksia – jatkaa kirjettä –. Voimme tehdä sen myös tässä tapauksessa. Nautitaan pitkästä tekoälykesästä, älkääkä ryntäkö syksyyn valmistautumattomana."

Kirjeen koko teksti

Tekoälyjärjestelmät, joissa on ihmisten kilpailevaa älykkyyttä, voivat muodostaa suuria riskejä yhteiskunnalle ja ihmiskunnalle, kuten laaja tutkimus osoittaa ja huipputekälylaboratoriot ovat myöntäneet. Kuten laajasti kannatetussa asiakirjassa todetaan Asilomar AI -periaatteetKehittynyt tekoäly voi edustaa syvällistä muutosta maapallon elämän historiassa, ja sitä tulisi suunnitella ja hallita oikealla huolella ja resursseilla. Valitettavasti tämän tasoinen suunnittelu ja hallinta ei toteudu, vaikka viime kuukausina tekoälylaboratoriot ovat joutuneet kilpailemaan hallitsemattomasti kehittääkseen ja ottaakseen käyttöön entistä tehokkaampia digitaalisia mieliä, joita kukaan – ei edes niiden tekijät – voi ymmärtää. ennustaa tai luotettavasti hallita.

Nykyaikaisista tekoälyjärjestelmistä on tulossa kilpailukykyisiä yleisissä tehtävissä, ja meidän on kysyttävä itseltämme: Pitäisi annamme koneiden täyttää tietokanavimme propagandalla ja valheella? Pitäisi automatisoimme pois kaikki työt, mukaan lukien täyttävät työt? Pitäisi kehitämme ei-inhimillisiä mieliä, jotka saattavat lopulta ylittää, olla älykkäämpiä, vanhentuneita ja korvata meidät? Pitäisi olemme vaarassa menettää hallinnan sivilisaatiossamme? Tällaisia ​​päätöksiä ei saa delegoida valitsemattomille teknologiajohtajille. Tehokkaita tekoälyjärjestelmiä tulisi kehittää vasta sitten, kun olemme varmoja, että niiden vaikutukset ovat myönteisiä ja niiden riskit ovat hallittavissa. Tämän luottamuksen on oltava hyvin perusteltu, ja sen tulee kasvaa järjestelmän mahdollisten vaikutusten suuruuden mukaan. OpenAI:t tuore lausunto yleisestä tekoälystä, toteaa, että "Jossain vaiheessa saattaa olla tärkeää saada riippumaton arviointi ennen tulevien järjestelmien kouluttamista ja edistyneimmissä ponnisteluissa sopia uusien mallien luomiseen käytetyn laskennan kasvunopeuden rajoittamisesta." Olemme samaa mieltä. Se kohta on nyt.

Näin ollen, kehotamme kaikkia tekoälylaboratorioita keskeyttämään välittömästi vähintään kuudeksi kuukaudeksi GPT-6:tä tehokkaampien tekoälyjärjestelmien koulutuksen. Tämän tauon tulee olla julkinen ja todennettavissa, ja sen tulee sisältää kaikki keskeiset toimijat. Jos tällaista taukoa ei voida panna täytäntöön nopeasti, hallitusten tulisi puuttua asiaan ja asettaa moratorio.

Tekoälylaboratorioiden ja riippumattomien asiantuntijoiden tulisi käyttää tätä taukoa kehittääkseen ja toteuttaakseen yhdessä joukon jaettuja turvaprotokollia edistyksellistä tekoälysuunnittelua ja kehitystä varten, jotka riippumattomat ulkopuoliset asiantuntijat tarkastavat ja valvovat tarkasti. Näiden protokollien tulee varmistaa, että niitä noudattavat järjestelmät ovat turvallisia ilman kohtuullista epäilystä. Tämä tekee emme tarkoittavat taukoa tekoälyn kehityksessä yleensä, vain askelta taaksepäin vaarallisesta kilpailusta yhä suurempiin, ennakoimattomiin black-box-malleihin, joissa on uusia ominaisuuksia.

Tekoälytutkimuksen ja -kehityksen tulisi keskittyä nykypäivän tehokkaiden, huippuluokan järjestelmien tekemiseen tarkempiksi, turvallisemmiksi, tulkittavissa oleviksi, läpinäkyvimmiksi, vankempiksi, kohdistetuiksi, luotettavimmiksi ja uskollisemmiksi.

Samanaikaisesti tekoälykehittäjien on työskenneltävä poliittisten päättäjien kanssa nopeuttaakseen dramaattisesti kestävien tekoälyn hallintajärjestelmien kehitystä. Näihin tulisi kuulua vähintään: tekoälyyn erikoistuneet uudet ja kykenevät sääntelyviranomaiset; erittäin suorituskykyisten tekoälyjärjestelmien ja suurien laskentakapasiteettien valvonta ja seuranta; alkuperä- ja vesileimajärjestelmät, jotka auttavat erottamaan todelliset synteettisistä ja jäljittämään mallin vuotoja; vankka auditointi- ja sertifiointiekosysteemi; vastuu tekoälyn aiheuttamista vahingoista; vahva julkinen rahoitus tekniselle tekoälyn turvallisuustutkimukselle; ja hyvin resursoidut laitokset selviytymään dramaattisista taloudellisista ja poliittisista häiriöistä (erityisesti demokratialle), joita tekoäly aiheuttaa.

Ihmiskunta voi nauttia kukoistavasta tulevaisuudesta tekoälyn avulla. Kun olemme onnistuneet luomaan tehokkaita tekoälyjärjestelmiä, voimme nyt nauttia "AI-kesästä", jossa saamme palkkiot, suunnittelemme näitä järjestelmiä selkeästi kaikkien hyödyksi ja annamme yhteiskunnalle mahdollisuuden sopeutua. Yhteiskunta on pysähtynyt muihin tekniikoihin, joilla on mahdollisesti katastrofaalisia vaikutuksia yhteiskunnalle. Voimme tehdä sen täällä. Nautitaan pitkästä tekoälykesästä, älkäämme kiirehtikö valmistautumattomana syksyyn.

"Musk & Company" pyytää olemaan juoksematta tekoälyn kanssa välttääkseen kilpailun kohti "Terminaattori" -skenaariota

| Uutiset ', EVIDENCE 1 |