人工智能运行而监管放缓

的Massimiliano德礼贤

技术革命开始一年后,通过人工智能(AI)算法所研究的系统应用所提供的新机遇,道德和安全问题凸显出来,包括虚假信息和技术失控等风险。 接下来的分手 传闻 人工智能领先公司 OpenAI 内部慈善部门和商业部门之间的强制移除是这场革命的直接后果,这场革命影响到普通公民、大公司,也影响到试图避免恐怖组织恶意使用人工智能的国家和地区。网络犯罪分子.

该领域第一家公司 Open AI 的创始人, 山姆·奥特曼,最初以目标为导向 没有利润, 已将注意力转向 商业 由于非凡的新市场机会。 第一个平台的成功 ChatGPT 事实上,它放大了一种结构的矛盾,尽管最初的目标是避免不受管制的资本主义,但它发现自己统治着一个致力于利润最大化的现实。

OpenAI是市场上第一个提出名为ChatGPT的创新人工智能模型的组织,因此不得不面临董事会内部的血腥内部斗争,该董事会由慈善部分和商业部分的成员组成。 关于道德和利润的矛盾和不同的愿景已经强势出现。 尤其是奥特曼,尽管存在伦理问题,但逐渐将平衡转向了 商业,认识到人工智能提供的非凡市场机遇。

OpenAI 最近的内部斗争被描述为定义人工智能未来的第一场战斗,其中商业和面向业务的组件 商业 它超越了协会和非营利组织。

然而,我们现在必须应对眼前的挑战,例如 2024 年选举中的虚假信息风险以及世界末日场景的危险。 在极端条件下,机器(配备超级智能)可能会战胜人类的决定,从而放大了终结者的概念,而那些对这种未经探索的技术仍持怀疑态度的人一再提出这一概念,根据共同意见,必须对这种未经探索的技术施加普遍的监管刹车避免出现无法挽回的不可预测的情况。

尽管公司和政府之间做出了合作努力,但我们正在走向下一个重要的选举最后期限(美国、欧盟和台湾),而没有足够的防御措施。 例如,在欧洲,关于《人工智能法案》仍然存在争议,该法案应该规范利用人工智能模型的平台的开发和使用。 在传统与新兴超级大国之间激烈冲突之后正在建立新的世界秩序之际,与公民隐私相关的问题和滥用面部识别的问题之间的道路是艰难的。

我们试图监管

欧洲联盟。 欧盟致力于通过《人工智能法案》成为人工智能(AI)监管的关键参与者。 下一个三部曲定于 6 年 2023 月 2023 日举行,对于确定在 XNUMX 年底之前批准文本的可能性至关重要。广岛人工智能进程”七国集团领导人宣布了十一条指导原则和人工智能开发者行为准则。

该指导原则旨在为参与先进人工智能系统开发的开发者、学术机构以及公共和私营部门提供指导。 其中包括评估和减轻风险的措施、系统能力和限制的透明度以及促进基于风险的治理政策。 该行为准则详细介绍了人工智能开发人员的实用指南,特别强调模型透明度、发布报告和在民间社会中共享信息。

该行为准则在自愿的基础上适用,非常重要,因为它可以立即适用并可以在全球范围内推广。 与《人工智能法案》不同,该准则可以在公司日益关注和问责评估的背景下影响人工智能的监管。

美国。 美国总统乔·拜登于 30 年 2023 月 XNUMX 日发布的美国行政命令解决了与安全使用人工智能 (AI) 相关的关键问题。 它对开发商施加了透明度,要求与政府分享测试结果并委托 国家标准与技术研究所 定义安全人工智能模型标准的任务。 此外,它的重点是通过分配来防止错误信息 商务部 确保人工智能生成内容真实性的技术指南。

该命令还涉及以下问题 认知偏差,努力避免敏感领域的歧视。 需要对人工智能系统中使用的标准进行审查,以确定任何偏见或差异。 此外,预计将深入研究技术对就业和加工的影响 最佳实践 减轻潜在危害并最大化利益。

三国协议。 此外,意大利、法国和德国于 19 年 2023 月 XNUMX 日就生成人工智能基础模型的监管达成了一项非正式协议。 该协议与《人工智能法案》基于风险的做法不同,提出通过行为准则进行强制性自律监管。 呼吁人工智能开发人员起草“模型卡”以及有关模型的功能和局限性的信息。 人工智能治理机构将监督这些行为准则的应用。 关键的是,它没有规定对“首次违规”的制裁,而只对系统性违反行为准则的行为保留制裁。 该协议可能会影响成员国之间关于《人工智能法案》的谈判,并有可能推迟其颁布。

人工智能运行而监管放缓

| 意见 |