人工智能:机遇还是灾难性武器? 即使对于恐怖分子来说也是万无一失的武器

的Massimiliano德礼贤

每天晚上,在安东尼奥·里奇的电视节目“Striscia la Notizia”中,我们观看、享受, 领导者 政客和机构一边唱着奇怪的歌曲,一边跳着不太可能的舞蹈。 主角都是意大利现任总理、共和国总统以及各反对派领导人等显赫人物。 正是他们,活着并且健康地在电视上愉快地传播废话。 

该神器的优点是 软件 它使用人工智能(AI)的基础来创造真正的电视奇迹。 类似的应用程序也可以在社交网络(Tik Tok)上付费使用。 我们才刚刚开始这项令人兴奋的创新技术,但由于它在不久的将来可能产生的影响,需要“谨慎处理”。 出于这个原因,我们越来越多地谈论在研究、开发和使用应用程序时采用道德准则的必要性,在这些应用程序中,人工智能可能被要求执行能够干扰现实世界的物理动作。

例如,每个人都同意这样一个事实:配备人工智能的设备在实施致命行为(在纯军事领域)之前仍然必须得到人类的授权。 然而,当面对一种理论上能够学习、进化并且最重要的是迷惑对手的技术时,这条公理就变得简单了,因为有一天,对手可能会与负责控制该技术的人重合。  

一些模拟的AI能力

在中国的一所著名大学(南京航空航天大学),他们开发了一个程序,模拟两种最新一代战斗机之间的空战:一架由具有所有身体和心理缺陷的人类驾驶,另一架由“人工智能”驾驶。 在不到八秒的高超音速速度下,人工智能战斗机轻松击落了对手,“反向”发射了一枚导弹,违背了所有已知的物理定律。

在计算机模拟中,高超音速飞机与一架以 1.3 马赫飞行的敌方喷气式飞机作战,接近 F-35 的最高速度。 高超音速飞机的飞行员接到了击落敌人的命令。 本能应该引导飞行员飞向目标,但飞行员在人工智能的引导下,飞向了一个意想不到的位置,远远领先于敌机,并向后方发射了一枚导弹。 导弹击中了30公里外的对手,几秒钟就结束了战斗。

出于考虑和恐惧,各国,至少在自己的军事威慑方面,已经启动了未来计划,例如第六代飞机,这些飞机的任务将得到配备人工智能的实体引导的设备的支持。 从这个角度来看,各国政府都在试图尽可能规范这种未经探索的新技术的文化、社会和生产方式。

中国

生成型人工智能服务的基本安全要求 是最近以草稿形式发布的文档的标题中国国家机构 为 信息安全标准化 它规定了供应商必须遵守的规范 基于生成人工智能的服务。 该文件虽然仍处于非最终版本,但强调了中国政府管理人工智能对社会和政治关系影响的方法。 它不仅包括法律规则,还包括技术规则,能够具有更大程度的具体效力,因为它们必须受到尊重 第一 提供服务.

美国

美国总统, 拜登 预计下周将签署一份文件,讨论人工智能的快速发展,为华盛顿采用人工智能作为其国家安全武器库的工具奠定基础。 报告指出,一个基本条件是公司以安全的方式开发技术。 因此,该文件旨在为联邦机构使用人工智能制定指导方针,同时利用政府的购买力引导企业采用其认为的最佳实践。 白宫还组织了一场名为“ “安全、可靠、可靠的人工智能”。

因此,美国政府需要规范这一问题,以发展新的和创新的军事能力,以保证随着时间的推移具有可信的全球威慑力。 计划使用 国家标准与技术研究所 确定测试和评估人工智能系统的行业基准。 另一个条件是政府对美国大公司最近做出的人工智能承诺进行监督。

美国政府确定的一些领域包括人工智能出现后对网络安全的威胁。 

预计人工智能可以成为通过分析漏洞和尝试来识别威胁的重要资源 钓鱼、社交媒体、电子邮件和聊天。 它还可以用于查找人类可能错过的情报报告中的模式。 安全研究人员和情报官员表示,人工智能可以成为显着改善企业、关键基础设施、政府机构和个人网络防御的必要工具。 但它也可能被外国政府和犯罪黑客用作武器来编写 恶意软件,更轻松地自动执行入侵尝试,并快速响应不断发展的安全防御。

英国

人工智能可能帮助恐怖分子开发大规模杀伤性武器,这一警告包含在为总理里希·苏纳克 (Rishi Sunak) 上任之际起草的一份文件中。 言语 到议事厅。 该报告的分析解释了人工智能如何在提供重大机遇的同时,“还涉及新的危险和恐惧”。 这份在 50 名专家支持下撰写的政府文件指出,到 2025 年,人工智能可用于实施欺诈和网络攻击。 该文件解释说,人工智能将有潜力“增强恐怖分子的能力”,包括开发武器、策划袭击和 在宣传制作中。 到 2030 年可能出现的最严重风险包括 “大规模虚假信息” 在目前预计需要人工的体力工作中大量使用人工智能后,出现了就业“危机”。

但与此同时,人工智能将带来“新知识、经济增长的新机遇、人类能力的新进步以及解决曾经被认为无法解决的问题的可能性”。 

该文件还指出,目前没有足够的证据可以排除人工智能对人类的威胁。 

报告强调,到 2030 年,科技公司可以开发出一种 “超级智能” 能够执行复杂任务并欺骗人类的人造装置,这将带来“灾难性”风险。 另一个例子解释了一家公司如何以牺牲全球竞争对手的利益为代价来获得技术主导地位。 该报告还警告说,如果人工智能使用不当,例如自主发起网络攻击,可能会“大大加剧现有的网络风险”。

这些系统能够完成需要规划和推理的复杂任务,并且可以灵活地相互交互“,报告写道。 “一旦他们设定了任务,他们就会制定包含子目标的策略,学习新技能。”

然而,可能会发生“意想不到的后果”,包括信息和资源“转移”以完成目标。

未来软件和硬件的创新将让人工智能通过机器人和自动驾驶汽车“与物理世界互动”。 报告中写道:“这些自主系统将收集大量数据,这些数据将被用来完善它们的能力。”

人工智能:机遇还是灾难性武器? 即使对于恐怖分子来说也是万无一失的武器

| 新闻', 证据1 |