近年来,人工智能(AI)的失败屡见不鲜. 这些事故包括特斯拉因自动驾驶功能问题导致的车祸,1 亚马逊的人工智能招聘工具显示出对女性的偏见2 微软的人工智能聊天机器人Tay被用户操纵,发表性别歧视和种族主义言论.3 这些与偏见和恶意使用相关的日益严重的伦理问题导致了欧盟人工智能法案(AI法案)的发展,以建立治理和执法,以保护人工智能使用方面的人权和安全. 《澳门赌场官方软件》是第一部由主要监管机构制定的人工智能法律. 这项法律旨在确保安全、负责任地使用人工智能, 以人为本,以澳门赌场官方下载为本.
人工智能法案是在欧洲为人工智能制定有效和负责任的监管框架的重要一步. 希望这部法律能够为所有澳门赌场官方下载创造一个公平竞争的环境,同时也保护人民的权益.4
生成AI的风险
生成式人工智能内容带来了巨大的风险,也许最明显的是错误信息的传播. 生成式人工智能可以用来制造假新闻和其他形式的错误信息,这些信息可以迅速而广泛地传播. 这可能会产生严重的后果,包括损害个人和组织的声誉, 政治不稳定和破坏公众对媒体的信任.
ChatGPT等人工智能工具的写作充满自信和说服力,可以被解读为权威. 这些文字可能会被普通用户从表面上理解, 会在互联网上传播不正确的数据和想法. ChatGPT中数据不准确的一个例子是Stack Overflow, 哪个是面向程序员的问答网站. 程序员们一直在Stack Overflow的查询板上填满人工智能生成的帖子. 由于大量的错误, Stack Overflow已经采取措施防止任何人发布ChatGPT生成的答案.5
生成人工智能内容的另一个风险是恶意使用. 在坏人手中,生成式人工智能可以成为造成伤害的强大工具. 例如,生成式人工智能可以用来制造虚假评论、诈骗和其他形式的在线欺诈. 它还可以自动发送垃圾邮件和其他不必要的通信. 此外,还有人工智能创建变异恶意软件的概念验证攻击.6 ChatGPT也可以用来编写恶意软件——研究人员在一个黑客论坛上发现了一个名为“‘ChatGPT -恶意软件的好处’”的帖子.7
因为人工智能只能基于从数据中学到的东西来生成内容, 它提供复杂主题的深入调查或提供新的见解和观点的能力可能有限.
因为人工智能只能基于从数据中学到的东西来生成内容, 它提供复杂主题的深入调查或提供新的见解和观点的能力可能有限. 在生成AI内容中缺乏实质和深度可能会产生严重的后果. 例如, 它可能导致对关键主题和问题的肤浅理解,并使人们难以做出明智的决定.8
因为人工智能系统中使用的算法很复杂, 人工智能对个人和组织的隐私提出了挑战. 这意味着个人可能甚至没有意识到他们的数据正在被用来做出影响他们的决定.9 例如, Clearview人工智能允许执法人员上传一张人脸照片,并在它收集的数十亿张图像的数据库中找到匹配的照片. 澳大利亚信息专员和隐私专员发现,明视人工智能公司从网上收集了澳大利亚人的生物特征信息,并通过面部识别工具披露了这些信息,侵犯了澳大利亚人的隐私.10
人工智能行为风险分类
《澳门赌场官方软件》根据人工智能应用构成的潜在危险,将人工智能应用分为三类:不可接受的风险应用, 高风险应用和有限或低风险应用.
第一类禁止产生不可接受风险的应用程序和系统. 例如, 不可接受的用途包括公共场所的实时生物识别, 人工智能扫描面部,然后自动识别人.
第二类涵盖高风险应用, 比如一种基于自动算法对求职者进行排名的简历扫描工具. 这类申请受到严格的规定和额外的保护措施的约束,以确保人们不因性别而受到歧视, 种族或其他受保护的特征. 高风险的人工智能系统可能会产生更严重的影响, 比如可以影响人们生活的自动决策系统. 在这些情况下, 重要的是要让用户意识到使用这些系统的影响,并在他们感到不舒服时给予他们退出的选择.
第三类是有限风险的人工智能系统, 哪些具有特定的透明度义务,用户必须了解这些义务. 这允许用户做出明智的决定,决定他们是否希望继续进行交互. 低风险AI系统的例子包括支持AI的视频游戏或垃圾邮件过滤器, 哪一种可以随意使用而没有副作用.
基于风险的方法有效吗?
要解决这个风险, 欧盟委员会进行了一项影响评估,重点是采取行动的理由, 欧洲人工智能框架的不同政策选择的目标和影响, 这将解决人工智能的风险,并使欧洲在全球发挥领导作用. 影响评估正被用于为人工智能创建欧洲法律框架, 哪些将成为拟议的人工智能法案的一部分.
欧洲委员会在影响评估中考虑的若干政策选择是:
- 选项1:人工智能的一个定义(只适用于自愿)-在此选项下, 欧盟立法文书将建立欧盟自愿标签计划,使人工智能应用程序提供商能够证明其人工智能系统符合可信赖人工智能的某些要求,并获得欧盟范围内的标签.
- 选项2:每个部门采用人工智能的定义,并确定所涵盖的人工智能系统的风险——起草 特别的 立法或在个案基础上检讨现有的立法, 此选项将解决与某些人工智能应用程序相关的特定风险. 没有协调一致的方法来监管跨部门的人工智能, 也不存在横向要求或义务.
- 选项3a:一种横向适用的人工智能定义和高风险确定方法(基于风险的方法)-该选项将设想一个横向的欧盟立法文书,适用于市场上或在欧盟使用的所有人工智能系统. 这将遵循一种基于风险的相称方法. 水平仪将建立人工智能的单一定义.
- 选项3b:一个横向适用的人工智能定义和高风险(基于风险的方法)确定方法,以及行业主导的非高风险人工智能行为准则-该选项将结合选项3a下高风险人工智能应用的强制性要求和义务,以及非高风险人工智能的自愿行为准则.
- 选项4:一个水平AI定义,但没有渐变-在此选项下, 将对人工智能系统的提供者和用户施加与选项3相同的要求和义务, 但这适用于所有的人工智能系统,不管它们构成的风险是高是低。.
以下标准被用来评估备选方案的潜在表现:
- 实现人工智能法案具体目标的有效性
- 确保投放市场和使用的人工智能系统是安全的,并尊重人权和欧盟价值观
- 法律确定性促进投资和创新
- 加强管治和有效执行适用于人工智能的基本权利和安全规定
- 发展合法的单一市场, 安全可靠的人工智能应用程序,有助于防止市场分裂
- 效率是指每个政策选择在实现特定目标时的成本效益比
- 与其他政策目标和措施保持一致
- 比例(我.e., 这些选择是否超出了欧盟层面为实现目标而必须采取的干预措施)
基于这些标准,选项3b获得了最高分.11 使用基于风险的方法意味着,与低风险应用相比,大多数努力都集中在评估和减轻高风险人工智能应用上. 风险管理框架是一个有用的路线图,可以提供所需的结构和指导,以平衡人工智能应用的风险,同时又不妨碍人工智能的创新和效率. 它还确保了人工智能法案的实施和管理,以及人们的利益和隐私得到保护.
风险管理框架是一个有用的路线图,可以提供所需的结构和指导,以平衡人工智能应用的风险,同时又不妨碍人工智能的创新和效率.
通过风险管理框架进行治理
解决如何成功应用人工智能法案, 有必要建立一个风险管理框架来支持监管.
标准的风险管理框架包含包括风险识别在内的关键要素, 缓解和监测, 哪些为治理奠定了基础. 建议美国国家标准与技术研究院(NIST)人工智能风险管理框架(RMF)补充人工智能法案,并且是实施选项3b的可行方法,因为它提出了对话, 理解并负责地管理人工智能风险.12
许多领先的技术组织,比如亚马逊, Google和IBM赞扬了NIST AI RMF为负责任的开发和部署AI产品所做的努力, 声明它是:
负责任地开发和部署人工智能产品和服务的重要途径. AI RMF, 比如BSA框架, 创建了解决人工智能风险的生命周期方法, 识别值得信赖的人工智能的特征, 认识到基于上下文的解决方案的重要性, 并承认影响评估对识别的重要性, 文档, 降低风险. 这种方法与BSA的“在人工智能中建立信任框架”非常一致, 强调需要关注人工智能的高风险用途, 强调影响评估的价值, 并区分那些开发人工智能的公司的义务, 以及那些部署人工智能的实体.13
如图所示 图1人工智能RMF核心由治理、映射、测量和管理4个功能组成.
治理功能为组织提供了澄清和定义监督AI系统性能的人员的角色和职责的机会. 它还为组织创造了机制,使他们的决策过程更加明确,以对抗系统性偏见.
地图功能为操作员和从业者熟练掌握人工智能系统性能和可信度概念提供了定义和记录流程的机会. 它还提供了定义相关技术标准和认证的机会.
治理和地图功能描述了跨学科和人口多样化团队的重要性,同时利用来自潜在受影响的个人和澳门赌场官方下载的反馈. 参与在RMF中应用其专业知识和活动的AI参与者可以通过将设计和开发实践锚定到用户意图和更广泛的AI澳门赌场官方下载和社会价值的代表中来协助技术团队. 这些人工智能参与者是看门人或控制点,他们协助整合特定于环境的规范和价值观,并评估最终用户体验和人工智能系统.
测度函数分析, 评估, 对人工智能风险和相关影响进行定量评估和监测, 定性, 或者混合方法工具, 技术和方法. 它使用地图功能中识别的与人工智能风险相关的知识,并通知管理功能. 人工智能系统应该在部署前进行测试,之后定期进行测试. 人工智能风险测量包括记录系统的功能和可信度.
度量结果用于管理功能,以协助风险监控和响应工作. 框架用户必须继续将度量函数作为知识应用于人工智能系统, 方法, 风险和影响不断演变.14
欧盟和美国都致力于采用基于风险的人工智能方法,以推进可信赖和负责任的人工智能技术. 双方管理机构的专家正致力于“在人工智能标准和工具方面的合作,以实现可信赖的人工智能和风险管理”.“他们有望起草一份自愿的人工智能行为准则,供志同道合的国家采用.15
结论
通过理解当前人类与人工智能交互的局限性, 组织可以改善他们的人工智能风险管理. 重要的是要认识到,人工智能系统用于试图转换或表示个人和社会观察和决策实践的许多数据驱动方法需要不断理解和管理.
人工智能法案提出了一种基于风险的方法来管理人工智能风险. 它要求提供人工智能工具或在其过程中采用人工智能的组织进行影响评估,以确定其计划的风险,并应用适当的风险管理方法. 应该通过有效的风险控制来减轻高风险的人工智能计划, 哪些可以与具有共同产品或风险区域的类似行业团体讨论和审查. 这产生了积极的结果——制定了自愿的行业主导的行为准则,可以支持人工智能的风险治理。. 这种方法还有助于分散监管和监督责任的成本. 所实现的协同效应将使人工智能的用户受益并得到保护.
通过这种人工智能的战略采用, 效率可以达到仅靠人力无法实现的效果.
尾注
1 麦克法兰,M.; “政府数据显示,特斯拉引发的连环车祸涉及驾驶辅助技术CNN, 2023年1月17日
2 Dastin J.; “亚马逊放弃了对女性有偏见的秘密人工智能招聘工具,路透社,2008年10月10日
3 Tennery,.; G. Cherelus; “在发布种族歧视和性别歧视的推文后,微软的人工智能推特机器人关闭了,路透社,2016年3月24日
4 人工智能法案。”人工智能法案”
5 Vigliarolo B.; “Stack Overflow禁止ChatGPT,因为它对编码问题“非常有害”,” 寄存器2022年12月5日
6 沙玛,年代.; “ChatGPT创建变异恶意软件,逃避EDR检测,” 方案, 2023年6月6日
7 里斯,K.; “ChatGPT被网络罪犯用来编写恶意软件“利用”,2023年1月9日
8 奥尼尔,年代.; “低质量生成AI内容的危险是什么?LXA, 2022年12月12日
9 Van Rijmenam, m.s.; “人工智能时代的隐私:风险、挑战和解决方案,《澳门赌场官方软件》,2023年2月17日
10 澳大利亚信息专员办公室,”明视人工智能侵犯了澳大利亚人的隐私, 2021年11月3日
11 欧盟委员会,”《澳门赌场官方下载》对人工智能的影响评估, 2021年4月21日
12 美国国家标准与技术研究院(NIST) 人工智能风险管理框架(AI RMF.0), 美国,2023年1月
13 美国国家标准与技术研究所(NIST)关于NIST人工智能风险管理框架的观点,美国,2023年2月6日
14 Op cit 国家标准与技术研究院 人工智能风险管理框架(AI RMF.0)
15 员工。”欧盟和美国将起草自愿人工智能行为准则,” 《澳门赌场官方下载》2023年6月1日
艾德琳陈
领导风险管理团队评估和降低风险,加强银行风险文化. 她已经为云实现了各种风险框架, SC公司, 操作与技术, 和网络安全. 她的重点是创造业务价值,并将风险管理与业务目标结合起来. 此前,她领导了业务转型和银行合并团队. 在管理项目和变更风险时, 她在组织重新设计和实现成本效率方面指导主题专家. 她的经验涵盖全球和澳门赌场官方下载银行业务、财富管理、保险和能源. 她是新加坡金融科技协会和新加坡区块链协会的成员,在数字资产交换和代币小组委员会中发挥积极作用. 她的社会责任参与包括为ISACA做志愿者® SheLeadsTech (SLT)作为科技行业女性和希望转行到GRC行业的候选人的导师. 她通过写作(http://medium.com/@adelineml.chan),并为ISACA澳门赌场官方软件和 ISACA® 杂志.