据德新社近日报道,欧洲议会全体会议以499票赞成、28票反对、93票弃权的压倒性优势表决通过了《人工智能法案》授权草案。这意味着,法案进入欧盟立法严格监管人工智能技术应用的最终谈判阶段,欧洲议会、欧盟委员会和成员国将进行“三方”谈判,以确定法案的最终条款。德国《商报》称,《人工智能法案》预计将在今年年底获得最终批准,不过距离完全生效可能还需数年时间。
做好谈判准备
报道称,欧洲议会决定对ChatGPT等生成式人工智能工具增加更多安全控制措施,以确保人工智能的研发和应用符合欧盟相关法律法规。
作为全球首部通过议会程序、专门针对人工智能的综合性立法,草案从安全、隐私、透明度以及非歧视等方面制定了详细规则。据欧洲议会网站消息,欧洲议会“为制定史上首部人工智能法案已经做好谈判准备”。按照立法议程,欧洲议会将就这一授权草案与欧盟委员会和成员国进行“三方”谈判,欧洲立法者希望在今年年底前就法案的最终版本达成共识。
今年5月,欧洲议会市场委员会和公民自由委员会通过欧盟委员会于2021年4月提出的《人工智能法案》提案的谈判授权草案。此前,欧洲议会和欧盟理事会已就草案进行多轮修订和讨论,并且在ChatGPT等生成式人工智能应用横空出世后,欧盟立法者紧急商讨了原版本草案中未涵盖的问题。欧洲议会声明,这部提案如正式获得批准,将成为全世界首部有关人工智能的法规。
草案将适用于在欧盟境内将人工智能系统投放市场或投入使用的实体(无论该实体是在欧盟境内还是在第三国)、在欧盟境内使用人工智能系统的实体以及在第三国使用人工智能系统,但系统的输出用于欧盟境内或对欧盟境内人员产生影响的实体。
风险分类监管
《人工智能法案》授权草案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。草案将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。其中高风险人工智能的使用必须受到严格监管,系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。对于违反规定者,草案设定了最高3000万欧元(1欧元约合人民币7.895元)或全球年营业额6%的罚款。
草案严格禁止对人类安全造成不可接受风险的人工智能系统,包括部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统,并扩大了人工智能高风险领域的分类,将对人们健康、安全、基本权利或环境的危害考虑在内。草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统,还针对ChatGPT等生成式人工智能设立专门监管制度。每个欧盟成员国都将设立一个监督机构。
此外,引进监管沙盒(指通过设立限制性条件和制定风险管理措施,允许企业在真实的市场环境中,以真实的个人用户与企业用户为对象测试创新产品、服务和商业模式)机制以管控风险和促进创新,在人工智能系统入市或投入使用前,对人工智能系统进行开发、测试和验证降低风险。草案还提出,这一机制同样被允许用于在现实条件下测试创新人工智能,以鼓励人工智能企业持续创新。
面临重要挑战
欧盟试图建立一个统一的人工智能法律监管框架,是全球人工智能发展进程中一个重要的标志性事例。欧盟对人工智能进行有效法规约束的探讨和尝试都将产生全球性影响,可能引发越来越多的国家尝试跟进相关法规的探索。
对于欧洲议会的决定,德国社民党表示支持:“人工智能的潜力和风险应得到全社会关注。”但也有反对者担心监管过度可能给欧洲人工智能公司带来更高成本和过重负担。
在人工智能开发方面处于领先地位的公司,某种程度上也是过去十年中面临反垄断违规风险、违反现行法律以及造成信息泄露危害的科技公司。基于此,OpenAI公司首席执行官萨姆·阿尔特曼表示,如果《人工智能法案》对AI进行过度监管,他将带领团队撤出欧洲市场。
专家称,欧盟推动人工智能立法,有利于维护欧盟在数字主权和科技领域的领导地位,并通过这样一部综合性立法抢占全球人工智能监管先机。但其本身具有局限性。它采用的是横向立法,并非针对特定人工智能应用领域,而是试图把所有人工智能都纳入监管范围,在执行层面将面临大量的解释问题。
有声音进一步指出,欧盟并未就人工智能技术可能给人类带来什么样的影响形成共识。从辩证的角度看,人工智能既能造福和服务人类,但如若用之不善,也会给人类带来威胁或伤害,如何平衡创新和约束是欧盟立法机构面临的一个非常重要的挑战。此外,统一的法律框架并未涉及具体法律规范,实际的执行效果可能“大打折扣”。
国际社会认为,当前,人工智能技术发展仍处在探索期。欧盟此时制定《人工智能法案》,释放出欧盟正在强化其在数字领域内建规立制的强烈信号。如何更好地平衡与衔接技术创新和制度创新,还需在实践中不断修正。