伦理与人工智能

(由米歇尔·戈尔加(Michele Gorga撰稿))通过评估人类从起源到今天的道路,我们可以确定,我们的技术发展现实不是线性的,而是指数式的,这要归功于以收益加速法则。 一条法则,后者,只有当我们在笛卡尔平面上连接点时才能理解:在横坐标轴上,x(水平)设置时间,在纵坐标轴(垂直)上,y表示技术进步水平在某个日期达到。 但是,结果不是一条或多或少倾斜的直线,而是一条指数曲线,根据我们可以从中得出的趋势,我们可以相信,几年后它将变成一条平行于纵坐标的直线。 因此,不再有任何与纵坐标的接触点,其结果将是我们不再知道每时每刻的横坐标,因此,我们将陷入量子物理学称为奇点的情况。

“奇异性”是指自然的四个基本力作用的条件,即:重力; 电磁 将质子结合在原子核中的强大力量; 控制放射性衰变原理的弱力。 我们可以用四个对应的字母(即遗传学的G)来识别这些力量。 机器人技术R; 纳米技术的N; 人工智能的我。

按顺序进行,“遗传学”的“ G”使我们能够从所有生物中识别出遗传密码,从而使我们能够根据规范型改进种族,即在给定的历史时刻,有效的道德和意识形态将使种族得以实现。无论人类是什么,登陆并能够成为人类想要成为的人,因此,根据道德和政治在相对的历史时期所允许的基础,使转基因生物成为可能。 谈到“机器人”的R,我们必须说的不是今天的机器人,而是具有时空知识并能够处理人类方面的先进机器,即具有情感意识的Android [7]。 ]。 因此,机器人技术不仅可以作为智能驱动的机器或工作助手,而且可以与人进行专业活动。 机器人技术对社会和政治的影响将是旨在使Android以及总体上所有创造物受到动植物世界,环境等认识的社会运动,在这种情况下,道德和政治也将成为现实。被迫立场。

传递给N代表“纳米技术”,我们必须指的是无限的微观技术,即能够通过替换和修改人类生存空间来立即改变现实的外部和内部的液体元素。 最后,我通过“人工智能”一词,指的是历史上可以与圣杯相提并论的东西-就人工智能而言,这是生命和永恒知识的算法-或是Deus ex-machina [8],这是最危险的技术,对于情景而言未来,随着时间的推移,一种侵入性足以破坏价值体系以及人类文明和人类基础的技术将逐渐被确定。

实际上,人工智能基于的算法可能是支配,控制,职业,消费者主义,竞争,人类衰老的所有重要技术,并且可能破坏人类的生存。 正是人工智能比其他任何技术都在我们的社会中飞速发展,因此通过改善医疗保健服务,提高农业效率,帮助减轻贫困来改变我们的生活。气候变化和通过安全性增加的预测分析来提高生产系统的效率。 但是,与此同时,人工智能带来了新的风险,这些风险与不透明的决策机制,基于性别的可能歧视,侵入私人生活或使用用于犯罪目的的设备有关。 EI技术之所以强大是因为它已经变得透明,我们所有人都依赖现在可以定义为技术和认知假体的设备。 因此,对于那些出于不道德目的或犯罪目的使用技术的人,我们变得更加脆弱。

这些都是导致需要在欧洲对IE学科进行协调的原因,这是由于人工智能固有的对人类和道德的影响,以及需要进行深刻反思以改善大型应用程序的使用的原因。由于需要强制性的监管纪律和旨在实现双重目标的投资而进行创新,即一方面促进人工智能的广泛使用,另一方面减轻所有可能的影响新数字技术带来的风险。

这些是25年2018月7日和2018年XNUMX月XNUMX日的通信背后的深刻原因,欧洲委员会通过这些通信提出了关于人工智能(AI)的愿景,该愿景受洗为``欧洲制造的AI''安全和前卫”。

该委员会的愿景基于三个支柱:1)增加对人工智能的公共和私人投资以促进其应用; 2)为社会经济变革做准备; 3)确保适当的道德和法律框架以增强欧洲价值观。 为了支持这一愿景的实施,委员会成立了人工智能高级专家小组,该独立小组的任务是起草两份文件:1)人工智能的道德准则; 2)投资建议。和政治。

对于该小组而言,关于AI道德准则的文件,必须牢记AI系统在为个人和社会带来具体利益的同时,仍会带来风险并产生负面影响,甚至难以预测。例如民主,法治,分配正义或人类思想本身。 这就是为什么专家组认为有必要采取适当措施以减轻风险的方式,使其与风险的范围成比例,并考虑确保其实施的方法。 首先,对于专家而言,有必要鼓励研究和创新,以支持AI系统的评估和实现对要求的遵守,传播结果,以培训新一代AI伦理专家。 因此,请明确告知利益相关者系统的功能和局限性。 透明,促进AI系统的可追溯性和可验证性(尤其是在关键情况下或情况下)变得至关重要,并在AI系统的整个生命周期中让利益相关者参与进来并促进培训和教育以便所有利益相关者都接受有关可信赖的AI的培训并了解相关信息。 从后者开始,即需要可靠的AI,应该强调的是,对于人员和公司而言,可靠性是系统自身开发,分发和使用的先决条件。 否则,可能会阻碍相关技术的使用,从而降低可能的社会和经济利益。 因此,对AI系统的开发,发行和使用的信心不仅关系到技术的内在特性,而且关系到技术和社会系统的质量。 因此,工作组在其第一份文件中建立了可靠的人工智能准则,但前提是该准则应基于三个组成部分。

这些已被确认:a)在合法性上,属于人工智能的AI受适用于特定问题的所有法律和法规的约束; b)道德,人工智能应被理解为始终牢记的道德守则规则以及相关的道德原则和价值观的集合; c)从技术和社会的角度来看,鲁棒性是因为即使有最好的意图,人工智能系统也可能造成意外损坏。 现在,上述每个组件本身对于可靠的人工智能都是必不可少的,但还不够。 这三个组成部分主要针对利益相关者,并具有约束力地指示了如何在社会和技术系统中实施上述道德原则。

从基于基本权利的方法开始,首先,确定在开发,分发和使用AI系统时必须遵守的道德原则和相关价值,然后继续说明如何创建可靠的AI通过确定AI系统应满足的七个要求以及可以使用其实现的技术和非技术方法,并确定了以下七个要求:1)-在人为干预和监视中; 2)-在技术和安全稳健性上,3)-在数据隐私和治理上,4)-在透明度上,5)-在多样性,非歧视性和公平性上,6)-在社会和环境福祉上以及7)-在'问责制。 最后,专家组提出了一份清单,以评估AI的可靠性,这可以帮助使上述七个要求切实可行。 最后,在文件的最后部分中,尽管意识到欧洲享有独家优势,但人工智能系统仍会引起一些有利机会和严重关切的例子,这源于其致力于将公民置于世界中心的承诺。自己的活动。

Michele Gorga,负责协调AIDR DPO的律师和天文台部门

伦理与人工智能

| 新闻', 证据3 |