Вештачка интелигенција ради док се регулација успорава

би Массимилиано Д'Елиа

Годину дана након почетка технолошке револуције, у вези са новим могућностима које нуде апликације проучаваних система, путем алгоритама вештачке интелигенције (АИ), наглашавају се етички и безбедносни проблеми, укључујући ризике као што су дезинформације и губитак контроле над технологијом. Следи раскид гласине и присилна уклањања унутар ОпенАИ, водеће компаније у АИ, између филантропске и комерцијалне компоненте, директна је последица ове револуције која погађа обичне грађане, велике компаније, али и државе које покушавају да избегну злонамерну употребу вештачке интелигенције од стране терористичких група и сајбер-криминалци.

Оснивач прве компаније у сектору, Опен АИ, Сам Алтман, у почетку оријентисан ка циљу нема профита, је скренуо пажњу ка посао због изванредних нових тржишних прилика. Успех прве платформе ЦхатГПТ оно је, у ствари, појачало контрадикције структуре која је, упркос првобитном циљу да се избегне нерегулисани капитализам, нашла у управљању реалношћу посвећеном максимизирању профита.

ОпенАИ, прва организација која је предложила иновативни АИ модел, назван ЦхатГПТ, на тржишту, стога је морала да се суочи са крвавом унутрашњом борбом унутар управног одбора, састављеног од чланова филантропске компоненте и чланова пословно-комерцијалне компоненте. . Насилно су се појавиле контрадикције и различите визије у погледу етике и профита. Конкретно, Алтман је, упркос томе што је имао етичке бриге, постепено померао равнотежу ка посао, препознајући изванредне тржишне могућности које нуди вештачка интелигенција.

Недавна унутрашња борба у ОпенАИ описана је као прва битка за дефинисање будућности АИ, где је комерцијална и пословно оријентисана компонента посао надмашио је асоцијативне и непрофитне.

Међутим, сада морамо да се позабавимо непосредним изазовима, као што су ризик од дезинформација на изборима 2024. и опасност од апокалиптичних сценарија. Екстремни услови у којима би машина (опремљена суперинтелигенцијом) могла да превагне над људским одлукама, појачавајући концепт Терминатора, који изнова изазивају они који остају скептични пред овом неистраженом технологијом на којој, према заједничком мишљењу, морају бити наметнуте универзалне регулаторне кочнице. избегавајте непредвидиве ситуације без повратка.

Упркос заједничким напорима између компанија и влада, ми, међутим, идемо ка следећим важним изборним роковима (САД, ЕУ и Тајван) без адекватне одбране. У Европи се, на пример, још увек расправља о Закону о вештачкој интелигенцији, документу који би требало да регулише развој и употребу платформи које користе моделе вештачке интелигенције. Између проблема везаних за приватност грађана и неселективне употребе препознавања лица, пут је узбрдо, у тренутку када се успоставља нови светски поредак након интензивног сукоба између традиционалних и новонасталих суперсила.

Трудимо се да регулишемо

Европска унија. Европска унија се обавезала да постане кључни играч у регулацији вештачке интелигенције (АИ) кроз „Закон о вештачкој интелигенцији“. Наредни тријалог, заказан за 6. децембар 2023. године, биће од кључног значаја за утврђивање могућности усвајања текста до краја 2023. године. У контексту „Хирошимски АИ процес”, лидери Г7 објавили су једанаест водећих принципа и Кодекс понашања за програмере вештачке интелигенције.

Водећи принципи имају за циљ да обезбеде смернице програмерима, академским телима и јавном и приватном сектору укљученом у развој напредних система вештачке интелигенције. Оне обухватају мере за процену и ублажавање ризика, транспарентност у системским могућностима и ограничењима и промоцију политика управљања заснованих на ризику. Кодекс понашања садржи практичне смернице за програмере вештачке интелигенције, са посебним нагласком на транспарентност модела, објављивање извештаја и размену информација у цивилном друштву.

Кодекс понашања, који се примењује на добровољној основи, је од велике важности јер се одмах примењује и може се проширити широм света. За разлику од Закона о вештачкој интелигенцији, Кодекс може утицати на регулисање АИ у контексту све веће пажње и процене одговорности компанија.

САД. Америчка извршна наредба, коју је 30. октобра 2023. издао председник Џо Бајден, бави се кључним питањима у вези са безбедном употребом вештачке интелигенције (АИ). Он намеће транспарентност програмерима, захтевајући дељење резултата тестирања са владом и поверавање Национални институт за стандарде и технологију задатак дефинисања стандарда за безбедне АИ моделе. Штавише, фокусира се на спречавање дезинформација додељивањем Департмент оф Цоммерце технички водич за обезбеђивање аутентичности садржаја генерисаног вештачком интелигенцијом.

Наредба се такође бави питањем когнитивни пристрасност, покушавајући да избегне дискриминацију у осетљивим секторима. Потребан је преглед критеријума који се користе у системима вештачке интелигенције да би се идентификовале све пристрасности или диспаритети. Надаље, очекује се детаљна студија о утицају технологија на запошљавање и прераду Најбоља пракса да ублажи потенцијалну штету и максимизира користи.

Тронационални споразум. Штавише, постоји неформални споразум између Италије, Француске и Немачке од 19. новембра 2023. у вези са регулисањем модела темеља у генеративној вештачкој интелигенцији. Овај споразум, који се разликује од приступа заснованог на ризику Закона о вештачкој интелигенцији, предлаже обавезну саморегулацију кроз кодексе понашања. Програмери вештачке интелигенције позвани су да израде „модел картице” са информацијама о могућностима и ограничењима модела. Орган управљања АИ ће надгледати примену ових кодекса понашања. Кључна је тачка која не предвиђа санкције за „први прекршај“, резервишући санкције само за систематско кршење кодекса понашања. Овај споразум може утицати на преговоре о Закону о вештачкој интелигенцији између држава чланица, потенцијално одлажући његово усвајање.

Пријавите се на наш невслеттер!

Вештачка интелигенција ради док се регулација успорава

| МИШЉЕЊА |