Sztuczna inteligencja działa, a regulacje zwalniają

przez Massimiliano D'Elia

Rok po rozpoczęciu rewolucji technologicznej, związanej z nowymi możliwościami, jakie dają zastosowania badanych systemów, poprzez algorytmy sztucznej inteligencji (AI), uwydatniają się kwestie etyczne i związane z bezpieczeństwem, w tym zagrożenia takie jak dezinformacja i utrata kontroli nad technologią. Po rozstaniu plotki i przymusowe przesunięcia w ramach OpenAI, wiodącej firmy w dziedzinie sztucznej inteligencji, pomiędzy elementami filantropijnymi i komercyjnymi, jest bezpośrednią konsekwencją tej rewolucji, która dotyka zwykłych obywateli, duże firmy, ale także państwa, które starają się unikać złośliwego wykorzystania sztucznej inteligencji przez grupy terrorystyczne i cyberprzestępcy.

Założyciel pierwszej firmy w branży Open AI, Sam Altman, początkowo zorientowany na cel brak zysku, przesunął uwagę w stronę biznes ze względu na niezwykłe nowe możliwości rynkowe. Sukces pierwszej platformy ChatGPT w rzeczywistości wzmocniło sprzeczności struktury, która pomimo pierwotnego celu polegała na uniknięciu nieregulowanego kapitalizmu, rządziła rzeczywistością nastawioną na maksymalizację zysku.

OpenAI, pierwsza organizacja, która zaproponowała na rynku innowacyjny model sztucznej inteligencji o nazwie ChatGPT, musiała zatem stoczyć krwawą walkę wewnętrzną w zarządzie, składającym się zarówno z członków części filantropijnej, jak i części biznesowo-handlowej . Z całą mocą ujawniły się sprzeczności i rozbieżne wizje dotyczące etyki i zysku. W szczególności Altman, pomimo obaw etycznych, stopniowo przesuwał równowagę w kierunku biznes, uznając niezwykłe możliwości rynkowe, jakie oferuje sztuczna inteligencja.

Niedawną wewnętrzną walkę w OpenAI opisuje się jako pierwszą bitwę mającą na celu zdefiniowanie przyszłości sztucznej inteligencji, w której komponent komercyjny i zorientowany na biznes biznes zdeklasowała te stowarzyszeniowe i non-profit.

Musimy jednak teraz stawić czoła najpilniejszym wyzwaniom, takim jak ryzyko dezinformacji podczas wyborów w 2024 r. i niebezpieczeństwo wystąpienia apokaliptycznych scenariuszy. Ekstremalne warunki, w których maszyna (wyposażona w superinteligencję) może przeważać nad decyzjami człowieka, wzmacniając koncepcję Terminatora, wielokrotnie przywoływaną przez tych, którzy pozostają sceptyczni wobec tej niezbadanej technologii, na którą według powszechnej opinii należy nałożyć uniwersalne hamulce regulacyjne, aby unikaj nieprzewidywalnych sytuacji, z których nie ma odwrotu.

Pomimo wspólnych wysiłków firm i rządów zmierzamy jednak w stronę kolejnych ważnych terminów wyborczych (w USA, UE i Tajwanie) bez odpowiedniej obrony. Na przykład w Europie wciąż toczy się debata nad ustawą AI Act, dokumentem, który powinien regulować rozwój i wykorzystanie platform wykorzystujących modele sztucznej inteligencji. Pomiędzy problemami związanymi z prywatnością obywateli a masowym stosowaniem rozpoznawania twarzy droga jest pod górę w czasie, gdy w następstwie intensywnego konfliktu między tradycyjnymi i wschodzącymi supermocarstwami ustanawia się nowy porządek świata.

Próbujemy regulować

Unia Europejska. Unia Europejska zobowiązała się zostać kluczowym podmiotem w zakresie regulacji sztucznej inteligencji (AI) poprzez „ustawę o sztucznej inteligencji”. Kolejne rozmowy trójstronne, zaplanowane na 6 grudnia 2023 r., będą kluczowe dla ustalenia możliwości zatwierdzenia tekstu do końca 2023 r. W kontekście „Proces sztucznej inteligencji w Hiroszimie”przywódcy G7 ogłosili jedenaście zasad przewodnich i kodeks postępowania dla twórców sztucznej inteligencji.

Zasady przewodnie mają na celu zapewnienie wskazówek programistom, organom akademickim oraz sektorowi publicznemu i prywatnemu zaangażowanemu w rozwój zaawansowanych systemów sztucznej inteligencji. Obejmują one środki służące ocenie i łagodzeniu ryzyka, przejrzystość możliwości i ograniczeń systemów oraz promowanie zasad zarządzania opartego na ryzyku. Kodeks postępowania zawiera szczegółowe wskazówki dla twórców sztucznej inteligencji, ze szczególnym naciskiem na przejrzystość modeli, publikowanie raportów i udostępnianie informacji w społeczeństwie obywatelskim.

Kodeks postępowania, stosowany dobrowolnie, ma istotne znaczenie, ponieważ ma natychmiastowe zastosowanie i może zostać rozszerzony na cały świat. W przeciwieństwie do ustawy o sztucznej inteligencji, Kodeks może wpływać na regulację sztucznej inteligencji w kontekście zwiększania uwagi i ocen odpowiedzialności przedsiębiorstw.

USA. Amerykańskie rozporządzenie wykonawcze wydane 30 października 2023 r. przez prezydenta Joe Bidena porusza kluczowe kwestie związane z bezpiecznym wykorzystaniem sztucznej inteligencji (AI). Narzuca deweloperom przejrzystość, wymagając udostępniania rządowi wyników testów i powierzania im Narodowy Instytut Norm i Technologii zadanie zdefiniowania standardów bezpiecznych modeli AI. Ponadto koncentruje się na zapobieganiu dezinformacji poprzez przypisywanie do Departament Handlu przewodnik techniczny zapewniający autentyczność treści generowanych przez sztuczną inteligencję.

Zarządzenie porusza także kwestię błędy poznawcze, próbując uniknąć dyskryminacji we wrażliwych sektorach. Aby zidentyfikować wszelkie uprzedzenia lub rozbieżności, wymagany jest przegląd kryteriów stosowanych w systemach sztucznej inteligencji. Ponadto oczekuje się dogłębnego badania wpływu technologii na zatrudnienie i przetwarzanie najlepsze praktyki aby złagodzić potencjalne szkody i zmaksymalizować korzyści.

Porozumienie trójnarodowe. Ponadto istnieje nieformalne porozumienie między Włochami, Francją i Niemcami z dnia 19 listopada 2023 r. dotyczące uregulowania podstawowych modeli generatywnej sztucznej inteligencji. Porozumienie to, różniące się od podejścia opartego na ryzyku zawartego w ustawie o sztucznej inteligencji, proponuje obowiązkową samoregulację poprzez kodeksy postępowania. Twórcy sztucznej inteligencji proszeni są o opracowanie „karty wzorcowe” z informacją o możliwościach i ograniczeniach modeli. Organ zarządzający AI będzie monitorował stosowanie niniejszych kodeksów postępowania. Kluczowy jest zapis, który nie przewiduje sankcji za „pierwsze naruszenie”, zastrzegając sankcje jedynie za systematyczne naruszenia kodeksów postępowania. Porozumienie to może wpłynąć na negocjacje w sprawie ustawy o sztucznej inteligencji pomiędzy państwami członkowskimi, potencjalnie opóźniając jej uchwalenie.

Zapisz się do naszego newslettera!

Sztuczna inteligencja działa, a regulacje zwalniają

| OPINIE |