Inteligența artificială funcționează în timp ce reglementarea încetinește

de Massimiliano D'Elia

La un an de la debutul revoluției tehnologice, legate de noile oportunități oferite de aplicațiile sistemelor studiate, prin algoritmi de inteligență artificială (AI), sunt evidențiate preocupări etice și de securitate, inclusiv riscuri precum dezinformarea și pierderea controlului asupra tehnologiei. Urmează despărțirea zvonuri iar înlăturările forțate din cadrul OpenAI, o companie lider în IA, între componentele filantropice și cele comerciale, este o consecință directă a acestei revoluții care afectează cetățenii de rând, companiile mari dar și statele care încearcă să evite utilizarea rău intenționată a IA de către grupările teroriste și infractorii cibernetici.

Fondatorul primei companii din sector, Open AI, Sam Altman, inițial orientat spre scop fara profit, a îndreptat atenția spre afaceri datorită noilor oportunități extraordinare de piață. Succesul primei platforme Chat GPT a amplificat, de fapt, contradicțiile unei structuri care, în ciuda obiectivului inițial era evitarea capitalismului nereglementat, s-a trezit guvernând o realitate angajată în maximizarea profitului.

OpenAI, prima organizație care a propus pe piață un model inovator de IA, numit ChatGPT, a trebuit așadar să facă față unei lupte interne sângeroase în cadrul consiliului de administrație, format atât din membrii componentei filantropice, cât și din cei ai componentei business-comercial. . Au apărut cu forță contradicții și viziuni divergente cu privire la etică și profit. În special, Altman, în ciuda preocupărilor etice, și-a schimbat treptat echilibrul afaceri, recunoscând oportunitățile extraordinare de piață oferite de inteligența artificială.

Recenta luptă internă la OpenAI este descrisă ca prima bătălie care definește viitorul AI, unde componenta comercială și orientată spre afaceri afaceri le-a surclasat pe cele asociative si nonprofit.

Cu toate acestea, acum trebuie să abordăm provocările imediate, cum ar fi riscul dezinformarii în alegerile din 2024 și pericolul scenariilor apocaliptice. Condiții extreme în care mașina (dotata cu superinteligență) ar putea prevala asupra deciziilor umane, amplificând conceptul Terminator, evocat în repetate rânduri de cei care rămân sceptici în fața acestei tehnologii neexplorate asupra căreia, potrivit opiniei împărtășite, trebuie impuse frâne de reglementare universale. evitați situațiile imprevizibile fără cale de întoarcere.

În ciuda eforturilor de colaborare dintre companii și guverne, ne îndreptăm totuși către următoarele termene electorale importante (SUA, UE și Taiwan) fără apărări adecvate. În Europa, de exemplu, există încă dezbateri despre Actul AI, un document care ar trebui să reglementeze dezvoltarea și utilizarea platformelor care exploatează modele de inteligență artificială. Între problemele legate de intimitatea cetățenilor și utilizarea fără discernământ a recunoașterii faciale, drumul este în sus, într-un moment în care se stabilește o nouă ordine mondială în urma conflictului intens dintre superputeri tradiționale și emergente.

Încercăm să reglementăm

Uniunea Europeană. Uniunea Europeană s-a angajat să devină un jucător cheie în reglementarea Inteligenței Artificiale (AI) prin „Legea AI”. Următorul trilog, programat pentru 6 decembrie 2023, va fi crucial pentru a determina posibilitatea aprobării textului până la sfârșitul lui 2023. În contextul „Procesul Hiroshima AI”, liderii G7 au anunțat unsprezece principii directoare și un Cod de conduită pentru dezvoltatorii AI.

Principiile directoare urmăresc să ofere îndrumări dezvoltatorilor, organismelor academice și sectoarelor public și privat implicate în dezvoltarea sistemelor AI avansate. Acestea includ măsuri pentru evaluarea și atenuarea riscurilor, transparența capacităților și limitărilor sistemelor și promovarea politicilor de guvernanță bazate pe riscuri. Codul de conduită detaliază îndrumări practice pentru dezvoltatorii de inteligență artificială, cu accent deosebit pe transparența modelului, publicarea de rapoarte și schimbul de informații în societatea civilă.

Codul de conduită, aplicabil pe bază voluntară, are o importanță semnificativă, deoarece este aplicabil imediat și se poate extinde la nivel global. Spre deosebire de Legea AI, Codul poate influența reglementarea IA într-un context de atenție crescândă și evaluări ale responsabilității de către companii.

Statele Unite ale Americii. Ordinul executiv al SUA, emis la 30 octombrie 2023 de președintele Joe Biden, abordează probleme cruciale legate de utilizarea în siguranță a inteligenței artificiale (IA). Impune transparență dezvoltatorilor, solicitând partajarea rezultatelor testelor cu guvernul și încredințând Institutul Național de Standarde și Tehnologie sarcina de a defini standarde pentru modele sigure de IA. În plus, se concentrează pe prevenirea dezinformării prin atribuirea către Departamentul comercial ghidul tehnic pentru a garanta autenticitatea conținutului generat de AI.

Ordinul abordează și problema părtinire cognitivă, încercând să evite discriminarea în sectoare sensibile. Este necesară o revizuire a criteriilor utilizate în sistemele AI pentru a identifica orice prejudecăți sau disparități. În plus, este de așteptat un studiu aprofundat privind impactul tehnologiilor asupra ocupării forței de muncă și a prelucrării cele mai bune practici pentru a atenua daunele potențiale și pentru a maximiza beneficiile.

Acord trinațional. În plus, există un acord informal între Italia, Franța și Germania din 19 noiembrie 2023 privind reglementarea modelelor de fundație în IA generativă. Acest acord, diferit de abordarea bazată pe risc a Legii AI, propune o autoreglementare obligatorie prin coduri de conduită. Dezvoltatorii AI sunt chemați să redacteze „carduri model” cu informații despre capacitățile și limitările modelelor. Un organism de guvernare AI va monitoriza aplicarea acestor coduri de conduită. Crucial este punctul care nu prevede sancțiuni pentru „prima abatere”, rezervându-se sancțiunile doar pentru încălcările sistematice ale codurilor de conduită. Acest acord poate influența negocierile privind Actul AI între statele membre, întârziind eventual punerea sa în aplicare.

Aboneaza-te la newsletter-ul nostru!

Inteligența artificială funcționează în timp ce reglementarea încetinește

| AVIZE |