近日,欧盟委员会公布了严格监管人工智能(AI)的计划。据《科学》报道,该委员会将起草新的法律,包括禁止人类无法解释的“黑匣子”AI系统,以控制该技术的高风险应用,比如用于医疗设备和自动驾驶汽车。
在宣布该计划的新闻发布会上,欧盟委员会主席Ursula von der Leyen说,尽管监管将比此前任何的欧盟规定都更广泛、更严格,但其目标是促进信任,而不是恐惧。该计划还包括更新欧盟2018年AI战略的措施,以及在未来10年投入数10亿欧元用于研发。但这并非最终定案,未来12周内,即在起草具体法律的工作正式启动前,专家、游说团体和公众可对该计划发表意见。
相比美国,欧洲对待AI的态度更谨慎,欧盟官员希望通过监管赢得消费者信任,推动AI的更广泛应用。
欧盟委员会AI独立顾问小组成员、欧洲政策研究中心AI政策研究员Andrea Renda表示:“欧盟试图在最擅长的领域发挥领导作用,这是一个非常坚实和全面的监管框架。”
该委员会希望针对医疗、交通或刑事司法等领域的AI“高风险”使用,制定有约束力的规则。确定风险的标准将包括以下考虑因素:某人是否会受到伤害——被一辆自动驾驶汽车或医疗设备伤害;或者一个人是否对机器决策的影响几乎无发言权。
欧盟委员会还希望通过人工监管来阻止不可预测的AI“黑匣子”。这些规则还将用于管理训练AI系统的大型数据集,以确保这些数据集是合法获取的、可追溯的,并且足够广泛。
法律将确定谁对人工智能系统的行为负责——使用它的公司还是设计它的公司,高风险的应用程序在部署到欧盟之前必须符合这些规则。
另外,欧盟委员会计划提供一种“值得信赖的AI”认证,以鼓励在低风险使用中自愿遵守,而之后被发现有违规行为的认证系统可能面临罚款。
欧盟委员会还将就面部识别系统“在欧洲展开一场广泛的辩论”。这是一种人工智能形式,可以在人群中未经同意而识别个人。尽管德国等欧盟国家已公布了部署该系统的计划,但官员们表示,这些系统经常违反欧盟隐私法。
该委员会还将制订一项“行动计划”,将AI整合到交通和医疗等公共服务中,并更新其2018年AI发展战略,该战略为研究投入了15亿欧元。