谈谈关于“基于风险的方法”的人工智能监管:从聊天GPT的角度出发
发布时间:2023-04-06 12:46:54 所属栏目:产品 来源:
导读:随着ChatGPT作为一款现象级的AI产品火爆之后,各大互联网公司也纷纷入场表示正在研发或要推出类似产品。在浪潮澎湃之下,其身后暗藏的法律和伦理道德隐患也开始引发公众关注。ChatGPT这一类生成式AI产品涉及的法律风
|
随着ChatGPT作为一款现象级的AI产品火爆之后,各大互联网公司也纷纷入场表示正在研发或要推出类似产品。在浪潮澎湃之下,其身后暗藏的法律和伦理道德隐患也开始引发公众关注。ChatGPT这一类生成式AI产品涉及的法律风险包括: 知识产权侵权:包括产品本身可能挖掘他人具有著作权的作品作为数据库,用户在使用过程中也会涉及输入他人具有著作权的作品要求ChatGPT进行总结分析。 数据隐私和商业秘密:ChatGPT作为一款互动型的聊天机器人,基于对用户数据的收集和分析来作出回答,用户可能在毫无警觉的情况下向ChatGPT输入个人信息、商业秘密或其他敏感数据引发的法律风险,包括用户自身行为的侵权风险以及ChatGPT将这些数据作为训练数据进行使用时的合规风险。目前已有多家公司和机构例如摩根大通、花旗集团、沃尔玛和亚马逊等因担心信息泄漏和合规风险限制员工在工作场所使用ChatGPT。 针对ChatGPT引发法律和道德风险的讨论,欧盟委员会内部市场专员Thierry Breton在接受路透社采访时表示欧盟的《AI法案》就旨在解决人们对ChatGPT等AI技术带来的风险的担忧,并指出建立一个坚固的监管框架在高质量参数的基础上确保人工智能可信任的重要性。 一、“基于风险的方法”的AI监管 (一)何为“基于风险的监管” “基于风险的方法”强调的是治理不应当以消除所有潜在的损害或者更广泛的“不利后果”为目标;相反,应当关注潜在不利后果的概率及其影响。一般认为,“基于风险的监管”(risk-based regulation)主要有四个特征:(1)风险提供了监管的对象;(2)风险成为监管的正当化依据;(3)风险架构塑造了监管组织和监管程序;(4)风险塑造了责任关系。 基于风险的方法一开始出现在环境保护、食品安全、卫生健康等传统领域,而随着信息技术的发展,科技带来的风险的不确定性,使得“基于风险的方法”在更加广泛,特别是科技前沿的领域得到应用,例如欧盟的《通用数据保护条例》(“GDPR”)中基于风险方法的个人数据保护,在AI领域,欧盟和美国的AI战略和政策文件中都明确提到了应当“基于风险的方法”。 (二)欧盟 欧盟强调个人基本权利的保护以及维护欧盟内部市场的统一,因此青睐于立法这一强监管工具。2020年2月,欧盟委员会颁布《人工智能白皮书》,提出要建立一个明确的AI监管框架。《人工智能白皮书》的出台意味着欧盟对AI的监管从伦理指引转向了立法监管。欧盟委员会认为,新的监管框架应采取“基于风险的方法”,以确保监管干预的程度是适当的,从而在有效实现监管目标的同时不会因为过度规范而对AI实践者特别是中小企业造成不成比例的负担。 1.基于风险的AI系统分类监管 基于《人工智能白皮书》,2021年4月21日,欧盟委员会发布了欧洲议事和理事会的《关于制定人工智能统一规则》(“《AI法案》”)提案。《AI法案》根据可能对人的基本权利和安全产生风险的等级将AI系统分为以下四个类别,并采取不同的监管措施: 2.重点监管:高风险的AI系统 《人工智能白皮书》将立法监管的目标锚定高风险的AI应用,在对AI系统进行分类监管的基础上,《AI法案》主要针对高风险AI系统,从以下三个层面对高风险AI系统的实践进行了强制性规范: 高风险AI系统本身应当满足的合规要求:包括建立风险管理机制、使用高质量的训练、验证和测试的数据、透明度和用户告知义务、人类的有效监管等; 高风险AI系统的参与者的合规义务:包括供应商、进口商、分销商、使用者等; 高风险AI系统的全生命周期合规:包括事前合格评估、产品投入市场后的售后监督、重大事件报告机制。 (1)自然人进行生物特征识别和分类(例如用于对自然人的实时和事后远程生物识别的AI系统) (2)关键基础设施管理和运营(例如作为管理和运营道路交通安全组件的AI系统) (3)教育和职业培训(例如用于确定个人进入教育和职业培训机构的机会活分配、对学生进行评估的AI系统) (4)就业、员工管理和开展自营职业的机会(例如用于筛选候选人申请、在面试中评估候选人的AI系统) (5)获得和享受基本的私人服务和公共服务及福利(例如对自然人进行信用评分或者用于消防队员和医疗救援等紧急响应服务调度的AI系统) (6)执法(例如用于评估自然人犯罪风险的AI系统) (7)移民、庇护和边境管制(例如用于验证旅行证件真实性的AI系统) (8)司法和民主程序(例如协助法官研究和解释事实和法律,并将法律适用于事实的AI系统) 3.意大利针对AI产品透明度和相称性原则的监管 在《AI法案》尚未生效的情况下,意大利数据保护局依据GDPR对Replika作出的决定,但在决定理由部分也显示了其基于风险的监管思路。意大利数据保护局认为Replika“提供的回复与儿童这一弱势群体所应得到的保护并不相符。”“Replika宣称‘虚拟伴侣’能够改善用户的情绪健康,帮助用户通过压力管理、社交和寻找爱情来了解他们的想法和平息焦虑。这些特征需要与一个人的情绪相互作用,并可能给尚未长大或情绪脆弱的人带来更大的风险。” 1.监管政策制定:风险评估和风险管理 在风险评估方面,《指南》强调联邦政府机构要关注AI应用所带来风险本身的动态变化,并考虑AI系统在整个设计、开发、部署和操作过程中对算法和数据保护不足的风险,以及AI应用部署可能带来的反竞争效应。 在风险管理方面,《指南》指出对AI应用风险的管理应当与联邦政府机构在评估中确定的风险程度相适应,要求联邦政府机构根据AI技术成功或失败所带来风险和后果的程度进行分级监管。对于低风险的AI应用,联邦政府机构可以通过要求信息披露或者消费者教育等不那么严格和繁重的监管或非监管方法;而对于高风险的AI应用,联邦政府机构应当综合考虑以下因素制定具体监管政策:AI应用对个人的影响、部署的环境、备份系统的必要性或可用性、AI应用出现错误或失败时可用的系统架构或能力控制方法,以及如何检测和修复这些错误和故障。 2.自愿适用的风险管理工具 基于《人工智能应用监管指南》,OSTP和美国商务部下属国家标准与技术研究所(“NIST”)相继颁布了自愿适用的AI风险管理工具,用以指导AI相关方建立相适应的内部风险管理制度,在设计、开发、部署和使用AI系统过程中对风险进行识别、评估和处理。 2022年10月,OSTP发布《人工智能权利法案蓝图》,列出了美国公众应该享有的五项核心权利保护:安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案、考虑和退路。《人工智能权利法案蓝图》还在每一项权利保护下详细阐述了该项权利保护的重要性,以及政府、企业或其他AI相关方在设计、使用和部署自动化系统时可以采取的具体步骤,以确保将这些权利保护考虑真正付诸实践。这些权利保护考虑真正付诸实践。ai是一个复杂的技术,涉及许多不同的领域,包括计算机科学、人工智能、机器学习、数据挖掘、网络安全、自动驾驶汽车、生物识别。 (编辑:驾考网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- 国产机盖子被掀开:毫无热销,全靠舰船战术堆
- OPPO K9s 5G, K10 Energy版 5G, Reno7手机上线正式版 Chloe
- 第二代ThinkPad Z13/Z16笔记本采用FusionUX技术提高交互体验
- 标准版 iPhone 15“刀工精湛”:切掉的不止高刷
- 文芯一句搜索企业谨慎前行 360内部办公软件上线 ChatGPT产品
- 荣耀良心:同屏主摄的荣耀魅神5,256GB存储跌至1859元
- 库克“用力太猛”,iPhone14全系降至新低,果粉可以入手了
- 华为P60系列旗舰手机发布,还有5G手机壳!
- 联想新款拯救者 Y27q 显示器开卖:2K 240Hz 规格,首发 199
- 红米Note 12系列全球版发布:新增 4G版,售价199欧元起
推荐文章
站长推荐
