Etika a umelá inteligencia

(Michele Gorga) Hodnotením cesty ľudstva od jeho vzniku po súčasnosť môžeme dosiahnuť istotu, že naša realita technologického rozvoja nie je lineárna, ale exponenciálna, a to na základe základného zákona, ktorý sa nazýva zákon zrýchlenia návratnosti. Zákon, druhý, ktorý možno pochopiť, iba ak spojíme body na karteziánskej rovine: na osi x (horizontálne) nastavíme čas, na osi y (vertikálne) y úroveň technologického pokroku dosiahnutý k určitému dátumu. Výsledkom však nie je priamka viac-menej naklonená, ale exponenciálna krivka a na základe trendu, ktorý z nej môžeme odvodiť, sa môžeme domnievať, že sa z nej za pár rokov stane priamka rovnobežná s súradnicou. Takže už nebude existovať žiadny kontaktný bod s ordinátou a dôsledkom bude, že už nebudeme poznať úsečku, kde sme v každej chvíli, a preto skočíme do stavu, ktorý kvantová fyzika nazýva singularita.

Výrazom „jedinečnosť“ sa myslí stav, v ktorom pôsobia štyri základné prírodné sily, a to: gravitácia; elektromagnetizmus; silná sila, ktorá spája protóny v jadre v atóme; slabá sila, ktorá riadi princíp rádioaktívneho rozkladu. Tieto sily môžeme identifikovať pomocou štyroch zodpovedajúcich písmen, ktoré sú G genetiky; R robotiky; N nanotechnológie; I umelej inteligencie.

G „genetiky“ nám umožňuje identifikovať zo všetkých živých bytostí genetický kód, ktorý nám umožní zlepšiť rasu podľa normy, ktorá v danom historickom okamihu umožní jej morálku a ideológiu pristátie a schopnosť byť človekom tým, čím chce byť, bez ohľadu na to, čím je, a teda geneticky modifikované organizmy na základe toho, čo morálka a politika umožní v relatívnom historickom období. Pokiaľ ide o „robotiku“, musíme pochopiť nie to, čo je dnes robotika, ale pokročilé stroje, ktoré budú mať vedomosti o priestore a čase a budú schopné prijať ľudské aspekty, Androidy, schopné emocionálneho vedomia [7]. ]. Robotika teda nie je iba strojom alebo pracovným asistentom poháňaným spravodajskými službami, ale subjektmi, ktoré sú schopné profesionálne sa zaoberať ľuďmi. Dôsledkom, ktorý bude mať robotika na spoločnosť a politiku, budú sociálne hnutia zamerané na to, aby sa Androidy a vo všeobecnosti celé stvorenie uznávalo na svete zvierat a rastlín, na životné prostredie atď., V tomto prípade bude morálkou aj politikou. nútení postaviť sa.

Pri prechode na N pre „nano technológiu“ pre ňu musíme myslieť nekonečne mikro technológiu, tekuté prvky, ktoré sú okamžite schopné zmeniť vonkajšok a vnútro skutočnosti nahradením a úpravou samotného priestoru ľudskej existencie. Nakoniec pod pojmom „umelá inteligencia“ máme na mysli to, čo sa dá historicky porovnať so Svätým grálom, - v zmysle AI ako algoritmu života a večného poznania - alebo Deus ex-machina [8], najnebezpečnejšia technológia a pre scenáre budúcnosť, technológia tak invazívna, že podkopáva systém hodnôt a základy ľudskej civilizácie a človeka, ako sa historicky časom určovalo.

Umelá inteligencia je v skutočnosti založená na algoritmoch, ktoré môžu byť dominancie, kontroly, karierizmu, konzumu, konkurencie, všetkých podnetných technológií pre starnutie človeka a ktoré by mohli narušiť samotnú existenciu ľudstva. A práve umelá inteligencia sa v našej spoločnosti viac ako ktorákoľvek iná technológia rýchlo rozvíja a následne mení naše životy zlepšovaním služieb zdravotnej starostlivosti, zvyšovaním efektívnosti poľnohospodárstva a zmierňovaním následkov. zmeny podnebia a na zlepšenie efektívnosti výrobných systémov prostredníctvom prediktívnej analýzy so zvýšením bezpečnostných aspektov. Zároveň však umelá inteligencia so sebou prináša nové riziká, ktoré súvisia s neprehľadnými mechanizmami rozhodovania, možnou diskrimináciou na základe pohlavia, vniknutím do súkromného života alebo používaním zariadení používaných na trestné účely. Technológia EI je výkonná, pretože sa stala transparentnou a všetci sa spoliehame na zariadenia, ktoré teraz môžeme definovať ako naše technologické a kognitívne protézy. Z tohto dôvodu sme sa stali zraniteľnejšími u tých, ktorí používajú technológie na neetické účely alebo na trestné účely.

To sú dôvody, ktoré viedli k potrebe európskej koordinácie pre disciplínu IE, a to kvôli ľudským a etickým dôsledkom, ktoré sú súčasťou umelej inteligencie, s potrebou hlbokých úvah o zlepšení využívania veľkých inovácie, ktoré z dôvodu potreby povinnej regulačnej disciplíny a investícií zameraných na dosiahnutie dvojitého cieľa, a to podpory širokého využívania umelej inteligencie na jednej strane a na druhej strane zmiernenia všetkých možných cieľov riziká spojené s novou digitálnou technológiou.

To sú závažné dôvody, z ktorých vychádzajú oznámenia z 25. apríla 2018 a 7. decembra 2018, ktorými Európska komisia predstavila svoju víziu umelej inteligencie (AI), pokrstenej ako „AI“ vytvorenej v etike Európy, bezpečná a avantgardná “.

Vízia Komisie je založená na troch pilieroch: 1) zvýšenie verejných a súkromných investícií do umelej inteligencie s cieľom podporiť jej zavádzanie, 2) príprava na sociálno-ekonomické zmeny a 3) zabezpečenie vhodného etického a právneho rámca na posilnenie európskych hodnôt. Na podporu vykonávania tejto vízie Komisia zriadila skupinu odborníkov na vysokej úrovni pre umelú inteligenciu, nezávislú skupinu poverenú vypracovaním dvoch dokumentov: 1) etické pokyny pre AI a 2) investičné odporúčania a politika.

Pokiaľ ide o dokument o etických pokynoch pre AI, pre skupinu je potrebné mať na pamäti, že systémy AI, aj keď ponúkajú konkrétne výhody pre jednotlivcov a spoločnosť, stále zahŕňajú riziká a majú negatívne účinky, dokonca ťažko predvídateľné. , napríklad o demokracii, právnom štáte, distribučnej spravodlivosti alebo ľudskej mysli samotnej. Preto je podľa skupiny odborníkov potrebné prijať príslušné opatrenia na zníženie rizík primeraným ich rozsahu a zvážiť metódy zabezpečujúce ich implementáciu. V prvom rade je pre odborníkov potrebné podporovať výskum a inovácie na podporu hodnotenia systémov AI a dosiahnutia súladu s požiadavkami šírenia výsledkov, školenia novej generácie odborníkov na etiku AI. Preto jasne informujte zainteresované strany o možnostiach a obmedzeniach systému. Transparentnosť, uľahčenie sledovateľnosti a overiteľnosti systémov umelej inteligencie, najmä v kritických kontextoch alebo situáciách, sa stávajú nevyhnutnými, rovnako ako zapojenie zainteresovaných strán do celého životného cyklu systému umelej inteligencie a podpora odbornej prípravy a vzdelávania. aby boli všetky zúčastnené strany vyškolené a informované o dôveryhodnej AI. Vychádzajúc z toho, čo je potreba mať spoľahlivú AI, je potrebné zdôrazniť, že pre ľudí a spoločnosti je spoľahlivosť nevyhnutným predpokladom pre vývoj, distribúciu a používanie samotných systémov. Inak by sa mohlo zabrániť použitiu súvisiacich technológií, a tak by sa spomalili možné sociálne a ekonomické výhody. Dôvera vo vývoj, distribúciu a používanie systémov umelej inteligencie sa preto netýka iba vnútorných vlastností technológie, ale aj kvalít technických a sociálnych systémov. Pracovná skupina tak vo svojom prvom dokumente stanovila pokyny pre spoľahlivú umelú inteligenciu s tým, že by mala byť založená na troch zložkách.

Boli identifikované: a) v oblasti zákonnosti AI, ktorá je umelou inteligenciou a ktorá podlieha všetkým zákonom a predpisom uplatniteľným v konkrétnej veci; b) etika, AI sa má chápať ako súbor pravidiel etického kódexu a súvisiacich etických princípov a hodnôt, na ktoré treba neustále pamätať; c) robustnosť z technického a sociálneho hľadiska, pretože aj pri najlepšom úmysle môžu systémy umelej inteligencie spôsobiť neúmyselné škody. Teraz je každá z vyššie spomenutých zložiek sama osebe nevyhnutná, ale napriek tomu nepostačuje na spoľahlivú umelú inteligenciu. Tieto tri komponenty sú primárne zamerané na zainteresované strany a sú záväznými údajmi o tom, ako je možné uvedené etické princípy uplatniť v sociálnych a technických systémoch.

Vychádzajúc z prístupu založeného na základných právach, v prvom rade sa určujú etické princípy a súvisiace hodnoty, ktoré sa musia rešpektovať pri vývoji a distribúcii a používaní systémov umelej inteligencie, aby sa potom dalo prejsť na náznaky, ako vytvoriť spoľahlivú umelú inteligenciu. odmietnutím siedmich požiadaviek, ktoré by systémy AI mali spĺňať a pre ktorých implementáciu je možné použiť technické a netechnické metódy a ktoré sú identifikované: 1) - pri ľudskom zásahu a dohľade; 2) - v technickej a bezpečnostnej odolnosti, 3) - v oblasti súkromia a správy údajov, 4) -v transparentnosti, 5) -v rozmanitosti, nediskriminácii a spravodlivosti, 6) -v sociálnej a environmentálnej pohode a 7) -v „zodpovednosť. Na záver skupina expertov navrhla kontrolný zoznam na hodnotenie spoľahlivosti AI, ktorý môže pomôcť uviesť do prevádzky uvedených sedem požiadaviek. Napokon v poslednej časti dokumentu príklady výhodných príležitostí a vážnych obáv, ktoré systémy AI vyvolávajú, a to napriek vedomiu, že Európa má výlučnú výhodu, ktorá vyplýva z jej záväzku postaviť občana do centra vlastné činnosti.

Michele Gorga, zložka právnika a pozorovateľa pre koordináciu DPO AIDR

Etika a umelá inteligencia

| NOVINKY ", DOKLADY 3 |