"Musk & Company" vragen om niet met kunstmatige intelligentie te rennen om de race naar het "Terminator" -scenario te vermijden

Met een open brief gepubliceerd door de non-profitorganisatie Instituut voor de toekomst van het leven Elon Musk en duizend andere onderzoekers hebben alarm geslagen gevaren van kunstmatige intelligentie. De zin met de grootste impact is degene die een sterke vraag stelt aan de wetenschappelijke gemeenschap: "Kunstmatige intelligentie brengt grote risico's met zich mee voor de samenleving en de mensheid en daarom zou een pauze van ten minste zes maanden nodig zijn voor de training van de meest geavanceerde systemen".

Elon Musk en andere geleerden roepen op tot een stop of een moratorium op regeringen om de gevreesde 'Terminator-scenario, om de ontwikkeling van gedeelde beveiligingsprotocollen mogelijk te maken.

De mede-oprichter van Apple ondertekende de brief Steve Wozniak maar ook die van Pinterest e Skype, evenals de oprichters van startups op het gebied van kunstmatige intelligentie Stabiliteit AI e Personages.ai. Wereldwijd ondertekenden meer dan duizend managers en experts de brief.

Musk wil niet demoniseren een nieuwe en opkomende technologie ook omdat het het intelligente brein wil verbeteren met Neuralink na de ruimte te hebben veroverd met SpaceX en de auto met Tesla. Musk heeft zwaar financieel geïnvesteerd in Microsoft-gerelateerde AI-bedrijven om gelijke tred te houden met de meer geavanceerde toekomst die iedereen streeft om strategisch afschrikkend en aantrekkelijk te zijn.

Abonneer je op onze nieuwsbrief!

Vooralsnog baren de meest geavanceerde systemen echter zorgen GPT-4, de OpenAI-chatbot die grappen kan vertellen en gemakkelijk examens kan halen, zoals die om advocaat te worden, schrijft Ansa.

“Krachtige AI-systemen mogen alleen worden ontwikkeld als er vertrouwen is dat hun effecten positief zullen zijn en de risico’s beheersbaar”, wordt benadrukt in de brief. Het bericht is pragmatisch als het spreekt van een "haast om krachtige digitale geesten te ontwikkelen en in te zetten die niemand, zelfs niet hun makers, kan begrijpen, voorspellen en controleren.

China heeft de VS al gewaarschuwd: “kunstmatige intelligentie wordt geen hulpmiddel of wapen om techno-totalitaire Orwelliaanse bewaking te perfectioneren'.

Kunstmatige intelligentie zou kunnen leiden tot de vernietiging van de wereld door veel sciencefictionfilms op te roepen en om deze reden vragen de grote namen in de hi-tech om een ​​pauze van zes maanden om alleen maar te denken aan catastrofale gevolgen. de "gezamenlijke ontwikkeling en implementatie van gedeelde protocollen" die de "veiligheid" van de systemen "zonder enige redelijke twijfel" waarborgen. De brief roept AI-labs op zich te richten op het maken van meer'nauwkeurig, transparant, geloofwaardig en eerlijk" de huidige systemen in plaats van toe te rennen naar de ontwikkeling van nog krachtigere middelen. “Het bedrijf is gestopt met andere technologieën met mogelijk catastrofale gevolgen – vervolgt de brief -. Ook in dit geval kunnen we dat. Laten we genieten van een lange AI-zomer en niet onvoorbereid de herfst ingaan."

Volledige tekst van de brief

AI-systemen met mens-concurrerende intelligentie kunnen grote risico's vormen voor de samenleving en de mensheid, zoals blijkt uit uitgebreid onderzoek en erkend door vooraanstaande AI-laboratoria. Zoals vermeld in de alom onderschreven Asilomar AI-beginselenGeavanceerde AI zou een ingrijpende verandering in de geschiedenis van het leven op aarde kunnen betekenen en moet worden gepland en beheerd met passende zorg en middelen. Helaas gebeurt dit niveau van planning en beheer niet, ook al hebben AI-labs de afgelopen maanden een uit de hand gelopen race gezien om steeds krachtigere digitale geesten te ontwikkelen en in te zetten die niemand - zelfs hun makers niet - kan begrijpen. voorspellen of betrouwbaar controleren.

Hedendaagse AI-systemen worden nu mens-competitief bij algemene taken, en we moeten ons afvragen: Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren, inclusief de vervullende? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, te slim af zijn, achterhaald zijn en ons kunnen vervangen? Moeten riskeren we de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen technologieleiders. Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico's beheersbaar zullen zijn. Dit vertrouwen moet goed gerechtvaardigd zijn en toenemen met de omvang van de potentiële effecten van een systeem. OpenAI's recente verklaring over kunstmatige algemene intelligentie, zegt dat "Op een gegeven moment kan het belangrijk zijn om onafhankelijke beoordeling te krijgen voordat we beginnen met het trainen van toekomstige systemen, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van de rekenkracht die wordt gebruikt voor het maken van nieuwe modellen te beperken." Wij zijn het eens. Dat punt is nu.

daarom we roepen alle AI-labs op om per direct minimaal 6 maanden de training van AI-systemen krachtiger dan GPT-4 te pauzeren. Deze pauze moet openbaar en verifieerbaar zijn en alle belangrijke actoren omvatten. Als zo'n pauze niet snel kan worden ingevoerd, moeten regeringen ingrijpen en een moratorium instellen.

AI-labs en onafhankelijke experts zouden deze pauze moeten gebruiken om gezamenlijk een reeks gedeelde veiligheidsprotocollen te ontwikkelen en te implementeren voor geavanceerd AI-ontwerp en -ontwikkeling die streng worden gecontroleerd en gecontroleerd door onafhankelijke externe experts. Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden buiten redelijke twijfel veilig zijn. Dit wel niet betekent een pauze in de AI-ontwikkeling in het algemeen, slechts een stap terug van de gevaarlijke race naar steeds grotere onvoorspelbare black-box-modellen met opkomende mogelijkheden.

AI-onderzoek en -ontwikkeling moeten opnieuw worden gericht op het nauwkeuriger, veiliger, interpreteerbaar, transparanter, robuuster, afgestemder, betrouwbaarder en loyaler maken van de krachtige, geavanceerde systemen van vandaag.

Tegelijkertijd moeten AI-ontwikkelaars samenwerken met beleidsmakers om de ontwikkeling van robuuste AI-governancesystemen drastisch te versnellen. Deze moeten ten minste het volgende omvatten: nieuwe en capabele regelgevende instanties die zich toeleggen op AI; toezicht houden op en volgen van zeer capabele AI-systemen en grote pools van rekencapaciteit; herkomst- en watermerksystemen om echt van synthetisch te onderscheiden en modellekken op te sporen; een robuust audit- en certificeringsecosysteem; aansprakelijkheid voor door AI veroorzaakte schade; robuuste overheidsfinanciering voor technisch AI-veiligheidsonderzoek; en goed toegeruste instellingen om het hoofd te bieden aan de dramatische economische en politieke ontwrichtingen (vooral voor de democratie) die AI zal veroorzaken.

De mensheid kan genieten van een bloeiende toekomst met AI. Nu we erin geslaagd zijn krachtige AI-systemen te creëren, kunnen we nu genieten van een "AI-zomer" waarin we de vruchten plukken, deze systemen ontwikkelen in het voordeel van iedereen en de samenleving de kans geven zich aan te passen. De samenleving heeft andere technologieën stilgelegd met mogelijk catastrofale gevolgen voor de samenleving. Dat kunnen we hier. Laten we genieten van een lange AI-zomer, niet onvoorbereid de herfst in.

"Musk & Company" vragen om niet met kunstmatige intelligentie te rennen om de race naar het "Terminator" -scenario te vermijden

| NIEUWS ', BEWIJS 1 |