Etyka i sztuczna inteligencja

(Michele Gorga) Oceniając ścieżkę ludzkości od jej początków do dnia dzisiejszego, możemy osiągnąć pewność, że nasza rzeczywistość rozwoju technologicznego nie jest liniowa, ale wykładnicza, a to na mocy podstawowego prawa, które nosi nazwę prawo przyspieszenia zwrotów. Prawo, to drugie, które można zrozumieć tylko wtedy, gdy połączymy punkty na płaszczyźnie kartezjańskiej: na osi odciętych x (poziomo) ustawiamy czas, na osi rzędnych (pionowej) y poziom postępu technicznego osiągnięty w określonym terminie. Wynik nie jest jednak prostą mniej lub bardziej nachyloną, ale krzywą wykładniczą i na podstawie trendu, który możemy z niej wyprowadzić, możemy wierzyć, że za kilka lat stanie się linią prostą równoległą do rzędnej. Nie będzie więc już żadnego punktu styku z rzędną, a konsekwencją będzie to, że nie będziemy już znać odciętej, na której jesteśmy w każdym momencie, a zatem przejdziemy do warunku, który fizyka kwantowa nazywa osobliwością.

Przez „osobliwość” rozumiemy stan, w którym działają cztery podstawowe siły natury, to znaczy: grawitacja; elektromagnetyzm; silna siła, która jednoczy protony w jądrze atomu; słaba siła rządząca zasadą rozpadu radioaktywnego. Możemy zidentyfikować te siły za pomocą czterech odpowiadających im liter, czyli G genetyki; R robotyki; N nanotechnologii; I sztucznej inteligencji.

Postępując w kolejności, G "genetyki" pozwala nam zidentyfikować wszystkie żyjące istoty, kod genetyczny pozwoli nam udoskonalić rasę zgodnie z normotypem, że w danym momencie historycznym obowiązująca moralność i ideologia pozwoli na jej lądowanie i możliwość bycia dla człowieka tym, czym chce być, bez względu na to, kim jest, a zatem organizmami zmodyfikowanymi genetycznie na podstawie tego, na co pozwoli moralność i polityka we względnym okresie historycznym. Zwracając się do R „robotyki”, musimy mieć na myśli nie to, czym dziś jest robotyka, ale zaawansowane maszyny, które będą miały zarówno wiedzę o przestrzeni i czasie, jak i będą w stanie przejąć ludzkie aspekty, androidy, zdolne do posiadania świadomości emocjonalnej [7 ]. A więc robotyka to nie tylko maszyny napędzane inteligencją czy asystenci pracy, ale podmioty zdolne do nawiązania relacji zawodowych z człowiekiem. Konsekwencją, jaką robotyka będzie miała dla społeczeństwa i polityki, będą ruchy społeczne mające na celu uczynienie androidów i ogólnie całego stworzenia uznawanego przez świat zwierząt i roślin, środowisko itp., Również w tym przypadku moralność i polityka będą zmuszony zająć stanowisko.

Przechodząc do N jako „nanotechnologii”, musimy mieć na myśli nieskończenie mikro technologię, płynne elementy, które są w stanie natychmiast zmienić zewnętrzną i wewnętrzną rzeczywistość, zastępując i modyfikując samą przestrzeń ludzkiego istnienia. I wreszcie przez „sztuczną inteligencję” rozumiemy to, co historycznie można porównać do Świętego Graala - w sensie sztucznej inteligencji jako algorytmu życia i wiecznej wiedzy - lub Deus ex-machina [8], najbardziej niebezpieczną technologię i dla scenariuszy przyszłość, technologia tak inwazyjna, że ​​podważa system wartości i fundamenty ludzkiej cywilizacji i człowieka, tak jak to było historycznie określane w czasie.

W rzeczywistości sztuczna inteligencja opiera się na algorytmach, które mogą obejmować dominację, kontrolę, karierowiczość, konsumpcjonizm, konkurencję, wszystkie technologie, które piorunują dla starzenia się człowieka i które mogą podważyć samo istnienie ludzkości. I to właśnie sztuczna inteligencja, bardziej niż jakakolwiek inna technologia, rozwija się szybko w naszym społeczeństwie i w konsekwencji zmienia nasze życie poprzez poprawę usług zdrowotnych, zwiększenie wydajności rolnictwa, pomoc w złagodzeniu zmiany klimatyczne i poprawa wydajności systemów produkcyjnych poprzez analizę predykcyjną wraz ze wzrostem aspektów bezpieczeństwa. Jednocześnie jednak sztuczna inteligencja niesie ze sobą nowe zagrożenia związane z niejasnymi mechanizmami decyzyjnymi, możliwą dyskryminacją ze względu na płeć, ingerencją w życie prywatne czy wykorzystywaniem urządzeń wykorzystywanych do celów przestępczych. Technologia EI jest potężna, ponieważ stała się przejrzysta i wszyscy polegamy na urządzeniach, które możemy teraz zdefiniować jako nasze technologiczne i poznawcze protezy. Z tego powodu staliśmy się bardziej bezbronni przez tych, którzy używają technologii do nieetycznych celów lub do celów przestępczych.

To są powody, które doprowadziły do ​​potrzeby europejskiej koordynacji w zakresie dyscypliny IE i wynika to z implikacji ludzkich i etycznych nieodłącznie związanych ze sztuczną inteligencją, z potrzebą głębokiej refleksji w celu poprawy wykorzystania dużych przyznane za innowacje, które ze względu na konieczność wprowadzenia obowiązkowej dyscypliny regulacyjnej oraz inwestycje zmierzające do osiągnięcia podwójnego celu, jakim jest z jednej strony propagowanie powszechnego stosowania sztucznej inteligencji, az drugiej łagodzenie wszelkich możliwych ryzyko związane z nową technologią cyfrową.

Takie są głębokie przyczyny leżące u podstaw komunikatów z 25 kwietnia 2018 r. I 7 grudnia 2018 r., W których Komisja Europejska przedstawiła swoją wizję sztucznej inteligencji (AI), ochrzczonej jako etyka „AI” made in Europe, bezpieczny i awangardowy ”.

Wizja Komisji opiera się na trzech filarach: 1) zwiększeniu publicznych i prywatnych inwestycji w SI w celu promowania ich wykorzystania, 2) przygotowaniu na zmiany społeczno-gospodarcze oraz 3) zapewnieniu odpowiednich ram etycznych i prawnych w celu wzmocnienia wartości europejskich. Aby wesprzeć realizację tej wizji, Komisja powołała grupę ekspertów wysokiego szczebla ds. Sztucznej inteligencji, niezależną grupę, której zadaniem jest opracowanie dwóch dokumentów: 1) wytycznych etycznych dla sztucznej inteligencji oraz 2) zaleceń inwestycyjnych. i polityka.

W przypadku grupy, jeśli chodzi o dokument dotyczący wytycznych etycznych dla sztucznej inteligencji, należy mieć na uwadze, że systemy SI, oferując konkretne korzyści jednostkom i społeczeństwu, nadal wiążą się z ryzykiem i mają negatywne skutki, nawet trudne do przewidzenia. na przykład na temat demokracji, praworządności, sprawiedliwości rozdzielczej lub samego ludzkiego umysłu. Dlatego też, zdaniem grupy ekspertów, konieczne jest podjęcie odpowiednich działań ograniczających ryzyko w sposób proporcjonalny do ich zakresu oraz rozważenie metod zapewniających ich realizację. Przede wszystkim dla ekspertów konieczne jest wspieranie badań i innowacji wspierających ocenę systemów SI i osiąganie zgodności z wymogami, upowszechnianie wyników, szkolenie nowej generacji ekspertów w zakresie etyki AI. W konsekwencji jasno informuj interesariuszy o możliwościach i ograniczeniach systemu. Przejrzystość, ułatwiająca identyfikowalność i weryfikowalność systemów SI, w szczególności w krytycznych kontekstach lub sytuacjach, staje się niezbędna, a także angażowanie zainteresowanych stron przez cały cykl życia systemu SI oraz promowanie szkoleń i edukacji aby wszyscy interesariusze zostali przeszkoleni i poinformowani o godnej zaufania sztucznej inteligencji. Wychodząc od tego ostatniego, czyli potrzeby posiadania niezawodnej AI, należy podkreślić, że dla ludzi i firm niezawodność jest warunkiem koniecznym do rozwoju, dystrybucji i użytkowania samych systemów. W przeciwnym razie wykorzystanie powiązanych technologii mogłoby zostać utrudnione, a tym samym spowolnione zostałyby potencjalne korzyści społeczne i gospodarcze. Dlatego zaufanie do rozwoju, dystrybucji i wykorzystywania systemów SI dotyczy nie tylko nieodłącznych właściwości technologii, ale także jakości systemów technicznych i społecznych. Grupa robocza w ten sposób ustaliła w swoim pierwszym dokumencie wytyczne dla niezawodnej sztucznej inteligencji, zakładając, że powinna ona opierać się na trzech komponentach.

Zostały one zidentyfikowane: a) pod względem legalności sztuczna inteligencja, która jest sztuczną inteligencją podlegającą wszystkim prawom i regulacjom mającym zastosowanie w danej sprawie; b) etykę, AI należy rozumieć jako zbiór zasad kodeksu etycznego oraz powiązanych zasad i wartości etycznych, o których należy zawsze pamiętać; c) solidność, z technicznego i społecznego punktu widzenia, ponieważ systemy SI mogą powodować niezamierzone szkody nawet przy najlepszych intencjach. Teraz każdy z wyżej wymienionych komponentów jest sam w sobie konieczny, ale nie wystarczający do niezawodnej Sztucznej Inteligencji. Te trzy komponenty są skierowane przede wszystkim do interesariuszy i są wiążącymi wskazówkami, w jaki sposób wspomniane zasady etyczne mogą zostać wprowadzone w życie w systemach społecznych i technicznych.

Wychodząc od podejścia opartego na prawach podstawowych, przede wszystkim określa się zasady etyczne i powiązane wartości, których należy przestrzegać przy opracowywaniu, rozpowszechnianiu i stosowaniu systemów SI, aby następnie przejść do wskazówek dotyczących tworzenia niezawodnej SI. poprzez odrzucenie siedmiu wymagań, które powinny spełniać systemy SI i do których realizacji mogą być wykorzystywane metody techniczne i nietechniczne i które są określone: ​​1) - w interwencji człowieka i nadzorze; 2) - w zakresie solidności technicznej i bezpieczeństwa, 3) - w zakresie prywatności danych i zarządzania, 4) - w zakresie przejrzystości, 5) - w zakresie różnorodności, niedyskryminacji i sprawiedliwości, 6) - w zakresie dobrostanu społecznego i środowiskowego oraz 7) - w „odpowiedzialność. Wreszcie, grupa ekspertów zaproponowała listę kontrolną do oceny niezawodności sztucznej inteligencji, która może pomóc w realizacji siedmiu wymagań wymienionych powyżej. Wreszcie, w ostatniej części dokumentu, przykłady korzystnych szans i poważnych obaw, jakie budzą systemy SI, pomimo świadomości, że Europa ma wyłączną przewagę, wynikającą z jej zaangażowania w umieszczenie obywatela w centrum zainteresowania. własne działania.

Michele Gorga, prawnik i komponent obserwatorium ds. Koordynacji DPO AIDR

Etyka i sztuczna inteligencja

| Aktualności ', EVIDENCE 3 |