来源:华尔街见闻
到2026年中期,其监管条款将全面适用于AI开发者,ChatGPT等通用目的AI模型将被要求提高透明度。
欧盟人工智能法案(EU AI Act)的最终文本日前已在欧盟的《官方公报》上发布。这部欧盟针对人工智能应用的风险管理法规将在20天后的8月1日生效,而到24个月后的2026年中期,其条款将全面适用于AI开发者。不过,该法案采用分阶段实施的方法,这意味着不同规定的生效时间将有所不同。
欧盟立法者在去年12月达成了关于欧盟首部全面AI规则的政治协议,该框架根据使用案例和感知风险对AI开发者提出不同的义务。其中,大多数AI用途被视为低风险,因此不受监管,但一些潜在的AI使用案例在法律下是被禁止的。
而所谓的“高风险”使用案例中,AI在生物识别、执法、就业、教育和关键基础设施中的使用是法律允许的,但开发这些应用的公司在数据质量和反偏见等方面必须承担相应义务。同时,“高风险”等级还对类似AI聊天机器人开发商提出了一些较轻的透明度要求。
监管规定对于通用目的AI(General Purpose AI,GPAI)模型制造商,如ChatGPT,也有一些透明度要求。最强大的GPAI模型,通常基于计算阈值,可以被要求进行系统风险评估。此前,有些AI行业的某些元素在少数成员国政府的支持下进行大规模游说,试图减轻GPAI的义务,担心这部法律可能阻碍欧洲培养本土AI巨头以与美国和中国的竞争对手竞争的能力。
根据分阶段实施的计划,首先,禁止使用AI的领域将在法规生效六个月后适用,即2025年初,其中包括社会信用评分、通过不定向抓取互联网或闭路电视来编制面部识别数据库等;除非有几个例外情况可以使用,如在寻找失踪或被绑架人员时,执法部门可以在公共场所使用实时远程生物识别技术。
接下来,法规生效九个月后,即2025年4月左右,适用监管范围内AI应用的开发者将必须遵守监管规定的行为准则。欧盟设立的AI办公室是该法规建立的监督机构,负责提供这些行为准则。
不过,实际上谁来编写这些规定仍然引发了问题。根据本月早些时候媒体报道,欧盟一直在寻找咨询公司来起草这些行为准则,这引发了民间社会的担忧,认为AI行业的参与者可能对规则制定施加影响。最近,有媒体报道称,在欧洲议会议员的压力下,欧盟AI办公室将发布征求意向书,以选择利益相关者起草GPAI模型的行为准则,以使该过程更具包容性。
另一个关键的最后期限是在法律生效12个月后,即2025年8月1日,GPAI开发者必须开始遵守透明度要求的规定。而某些高风险AI系统获得了最宽松的合规最后期限,监管规定给予了36个月的时间,即到2027年,可以开始旅行履行义务。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。