从欧洲开始,人工智能监管的时代似乎已经临近。在欧洲议会的一项民意调查中,议员们以压倒性多数投票赞成讨论监督人工智能开发和部署的人工智能法案。AI法案被主要监管机构视为第一套有效的管理AI及其扩散的法律。
AI法案的扩展形式旨在限制滥用AI用例场景:例如使用远程操作系统的生物识别ID(执法需要除外,并且在适当的法律授权后也是如此),隔离(基于标记,如种族、性别、宗教、政治倾向等),预测行为分析、情绪识别和跟踪,以及来自私人或公共来源的面部数据范围界定。
最近对人工智能法案的修改还增加了高风险人工智能的特殊分类,这增加了影响选民、对人类健康和安全的直接影响以及推荐系统等场景的风险。从广义上讲,人工智能法案将人工智能系统分为四个基于危害的类别。以不可接受的风险为例,例如创建或支持类似于中国的社会评分系统。
阶梯下方是高风险的实施,例如扫描申请人简历、移民和庇护治理、司法和民主程序以及公共卫生。其余两类是有限风险和最小风险或无风险。5月,内部市场委员会和公民自由委员会正式通过了AI 法案修正案草案。
AI法案的核心目标是降低风险并为AI系统定义明确的操作边界。该法规还明确规定了用户和开发商的义务,旨在建立国家和集团层面的治理结构,并制定评估指南。人工智能创新支持中小企业(SME)的开源项目和场景已被添加为监管监督的豁免。
AI法案的另一个核心领域是阻止AI系统生成非法内容。虽然OpenAI的Dall-E和ChatGPT、微软的Bing Chat和谷歌的 Bard等大多数主流生成式AI产品都有保护措施,但有多种可公开访问的AI工具没有此类过滤器。
这允许创建合成改变的媒体,例如显式深度伪造。本月早些时候,联邦调查局就深度伪造犯罪的增加发出了警告。
折弯机人工智能系统有其自身的一系列基本问题,例如“幻觉”,导致它们凭空产生虚假的“事实”。欧洲并不是唯一一个人工智能监管正在加快步伐的地区,人工智能法案的法律实施还有几个月的时间。
4月,商务部邀请公众评论制定AI政策建议,尤其是应该实施的联邦安全防护措施。同月,中国互联网监管机构发布了自己的监管AI产品的详细建议,以符合该国臭名昭著的审查法。