„Musk & Company” proszą, aby nie biegać ze sztuczną inteligencją, aby uniknąć wyścigu w kierunku scenariusza „Terminator”.

Z listem otwartym opublikowanym przez organizację non-profit Instytut Przyszłości Życia Elon Musk i tysiąc innych badaczy biło na alarm zagrożenia sztucznej inteligencji. Zdanie o największym wpływie to zdanie, które stawia społeczność naukową poważne pytanie: „Sztuczna inteligencja stwarza poważne zagrożenie dla społeczeństwa i ludzkości iz tego powodu potrzebna byłaby co najmniej sześciomiesięczna przerwa na szkolenie najbardziej zaawansowanych systemów”.

Elon Musk i inni uczeni wzywają do zaprzestania lub wprowadzenia moratorium na rządy, aby uniknąć przerażającego „Scenariusz Terminatora, aby umożliwić rozwój wspólnych protokołów bezpieczeństwa.

List podpisał współzałożyciel Apple Steve Wozniak ale także te z Pinterest e Skype, a także założyciele startupów zajmujących się sztuczną inteligencją Stabilność AI e Postacie.ai. List podpisało ponad tysiąc menedżerów i ekspertów z całego świata.

Musk nie chce demonizować nowa i rozwijająca się technologia również dlatego, że chce ulepszyć inteligentny mózg za pomocą Neuralink po podbiciu kosmosu za pomocą SpaceX i motoryzacji za pomocą Tesli. Musk dużo zainwestował finansowo w firmy AI powiązane z Microsoftem, aby nadążyć za bardziej zaawansowaną przyszłością, do której wszyscy aspirują, aby być strategicznie odstraszającym i atrakcyjnym.

Zapisz się do naszego newslettera!

Jednak na razie najbardziej zaawansowane systemy budzą niepokój GPT-4, chatbot OpenAI, który potrafi opowiadać dowcipy i łatwo zdawać egzaminy, takie jak ten na prawnika, pisze Ansa.

„Potężne systemy sztucznej inteligencji powinny być rozwijane tylko wtedy, gdy istnieje pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania”, podkreśla się w liście. Pismo jest pragmatyczne, gdy mówi o „niekontrolowany pęd do rozwoju i wdrażania potężnych cyfrowych umysłów, których nikt, nawet ich twórcy, nie jest w stanie zrozumieć, przewidzieć i kontrolować.

Chiny już ostrzegły USA: „sztuczna inteligencja nie staje się narzędziem ani bronią do doskonalenia techno-totalitarnej orwellowskiej inwigilacji".

Sztuczna Inteligencja mogłaby doprowadzić do zniszczenia świata, przywołując wiele filmów science fiction iz tego powodu, aby uniknąć choćby myśli o katastrofalnych konsekwencjach, wielkie nazwiska w hi-tech proszą o sześciomiesięczną przerwę do wykorzystania na "wspólne opracowywanie i wdrażanie wspólnych protokołów”, które zapewniają „bezpieczeństwo” systemów „ponad wszelką uzasadnioną wątpliwość”. List wzywa laboratoria sztucznej inteligencji do skupienia się na tworzeniu „więcej”dokładne, przejrzyste, wiarygodne i uczciwe” obecnych systemów, zamiast dążyć do opracowania jeszcze potężniejszych środków. “Firma wstrzymała się z innymi technologiami o potencjalnie katastrofalnych skutkach – kontynuuje list -. W tym przypadku też możemy to zrobić. Cieszmy się długim latem AI i nie spieszmy się z jesienią nieprzygotowani”.

Pełna treść listu

Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania i potwierdzone przez najlepsze laboratoria AI. Jak stwierdzono w powszechnie popieranym Zasady Asilomar AIZaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami. Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować.

Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w zadaniach ogólnych i musimy zadać sobie pytanie: Powinien pozwolimy maszynom zalać nasze kanały informacyjne propagandą i nieprawdą? Powinien zautomatyzujemy wszystkie zadania, w tym te spełniające? Powinien rozwijamy nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, zdezaktualizować i zastąpić nas? Powinien ryzykujemy utratę kontroli nad naszą cywilizacją? Takie decyzje nie mogą być przekazywane niewybieralnym liderom technologicznym. Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych skutków systemu. OpenAI niedawne oświadczenie dotyczące sztucznej inteligencji ogólnej, stwierdza, że „W pewnym momencie może być ważne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli”. Zgadzamy się. Ten punkt jest teraz.

Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4. Ta przerwa powinna być jawna i możliwa do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko uchwalona, ​​rządy powinny wkroczyć i wprowadzić moratorium.

Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny zapewniać ponad wszelką wątpliwość, że systemy, które się do nich stosują, są bezpieczne. To ma nie oznaczają ogólnie przerwę w rozwoju sztucznej inteligencji, jedynie cofnięcie się od niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli czarnej skrzynki z pojawiającymi się możliwościami.

Badania i rozwój sztucznej inteligencji powinny zostać ponownie skoncentrowane na uczynieniu dzisiejszych potężnych, najnowocześniejszych systemów dokładniejszymi, bezpieczniejszymi, łatwiejszymi do interpretacji, przejrzystymi, niezawodnymi, spójnymi, godnymi zaufania i lojalnymi.

Równolegle programiści AI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania AI. Powinny one obejmować co najmniej: nowe i zdolne organy regulacyjne zajmujące się sztuczną inteligencją; nadzór i śledzenie wysoce wydajnych systemów sztucznej inteligencji i dużych zasobów mocy obliczeniowej; systemy pochodzenia i znaków wodnych pomagające odróżnić prawdziwe od syntetycznych i śledzić wycieki modeli; solidny ekosystem audytu i certyfikacji; odpowiedzialność za szkodę wyrządzoną przez AI; solidne finansowanie publiczne badań technicznych nad bezpieczeństwem sztucznej inteligencji; oraz dobrze wyposażone instytucje do radzenia sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza w demokracji), które spowoduje sztuczna inteligencja.

Ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji. Po pomyślnym stworzeniu potężnych systemów sztucznej inteligencji możemy teraz cieszyć się „latem sztucznej inteligencji”, w którym czerpiemy korzyści, konstruując te systemy z wyraźną korzyścią dla wszystkich i dając społeczeństwu szansę na przystosowanie się. Społeczeństwo zatrzymało się na innych technologiach, które mogą mieć katastrofalne skutki dla społeczeństwa. Możemy to zrobić tutaj. Cieszmy się długim sztucznym latem, a nie pędźmy nieprzygotowani do jesieni.

„Musk & Company” proszą, aby nie biegać ze sztuczną inteligencją, aby uniknąć wyścigu w kierunku scenariusza „Terminator”.

| Aktualności ', EVIDENCE 1 |