欧盟委员会(European Commission)4月21日发表了一份提案,要求对欧盟人工智能的使用进行监管,这是其作为全球监管机构正在发挥的作用的一部分。
事情不会在一夜之间改变。欧盟的人工智能规则提案是官员、行业专家和公众协商三年工作的结果,必须通过欧洲议会的要求才能成为法律。然后,欧盟成员国往往需要数年时间才能将欧盟层面的法规转变为国家法律法规。
该提案为人工智能相关活动定义了四个层次,并为每个层次定义了不同的监督级别。第一层是不可接受的风险:一些人工智能的使用将在公共场所被彻底禁止,国家法律允许的特定例外情况除外,并受到额外的监督和更严格的记录和人为监督。最受关注的人工智能活动可能是实时远程生物识别,即面部识别。该提案还禁止潜意识行为修改和社会评分应用。该提案建议对商业违规者处以相当于其全部年收入6%的罚款。这是迄今为止监管人工智能高风险应用的最大努力之一。
该提案下一步定义了一个高风险类别,由系统的目的以及潜在的危害和可能性决定。提案中列举的例子包括招聘、信用检查和司法系统。这些规则将要求此类人工智能应用程序使用高质量的数据集,记录其可追溯性,与用户共享信息,并考虑到人为的监督。欧盟将根据拟议的规则建立一个此类系统的中央登记册,并在部署前要求获得批准。
风险有限的场景包括聊天机器人等,欧盟建议应让用户知晓自己在与机器互动,并有权决定继续对话还是退出。最后还有一层应用程序被判断为风险最小,其应用场景包括基于人工智能的电子游戏和垃圾邮件识别软件等。
当政府提出新规则手册(这本是108页)时经常发生的情况是,行业和民间社会团体的最初反应似乎更多地是关于行业监督的存在和范围,而不是规则的具体内容。英国牛津大学和德国柏林Weizenbaum研究所的人工智能治理研究员Lisa Maria Neudert说:“我认为这项监管措施背后的一个想法是试图平衡风险,让人们对人工智能感到兴奋,重新获得信任。”英国劳埃德注册基金会(Lloyds Register Foundation)2019年的一项民意调查发现,全球公众对人工智能的恐惧和兴奋大致相当。
“我可以想象,如果你有一个经验丰富的大型法律团队,这可能会有所帮助,”Neudert说,以帮助合规,这可能是“一个很难达成的平衡”之间的规则,保持创业友好和成功地控制大公司。
人工智能研究人员Mona Sloane和Andrea Renda在《VentureBeat》一书中写道,这些规则在人工智能获得批准和发布后,对其运行情况的监控较弱,忽视了“人工智能相关风险的一个关键特征:它是普遍存在的,而且是突发的,通常在开发和部署后以不可预测的方式演变”。
2018年欧盟出台的新隐私法《一般数据保护条例(General Data Protection Regulation,GDPR)》为广泛适用的数据监管规则提供了模板,并以高额罚款作为支撑,欧洲已经从中吸取了教训。
Neudert说:“我认为我们不应该(从GDPR到拟议的人工智能规则)一概而论,但可以公平地假设,这么大一部分立法将在欧盟以外产生影响。”对于其他地方的立法者来说,仿效一个模板要比复制欧盟在研究、社区参与和规则制定方面的大量投资容易得多。
虽然科技公司及其行业团体可能会抱怨需要遵守早期的人工智能规则,《注册》专栏作家Rupert Goodwin建议,他们最好集中精力组建一些行业组织,这些组织将决定未来规则的履行和实施:“你可能已经在一个行业组织中从事人工智能道德或评估;如果不是,那就把它们看作是影响成长的种子。”
除了法律框架外,欧委会当天还公布了针对机器人、3D打印机等的人工智能机器条例,以及人工智能协调计划,旨在加强对人工智能研发的鼓励和扶持。这套政策建议尚需经过欧洲议会和欧盟理事会批准。