欧洲具有里程碑意义的人工智能法规是什么?
布鲁塞尔(路透社)-周五,欧盟政策制定者和立法者就全球首套全面的规则达成协议,规范人工智能(AI)在ChatGPT和生物识别监控等工具中的使用。
他们将在未来几周内研究出可能改变最终立法的细节,该立法预计将于明年初生效,并于2026年实施。
在此之前,鼓励企业签署一项自愿的人工智能公约,以履行规则的关键义务。
以下是双方达成一致的要点:
高风险的系统
所谓的高风险人工智能系统,即那些被认为有可能严重危害健康、安全、基本权利、环境、民主、选举和法治的系统,将必须遵守一系列要求,例如进行基本权利影响评估,以及进入欧盟市场的义务。
被认为构成有限风险的人工智能系统将受到非常轻的透明度义务的约束,例如披露标签声明内容是人工智能生成的,以便用户决定如何使用它。
人工智能在执法中的应用
执法部门只允许在公共场所使用实时远程生物识别系统,以帮助识别绑架、人口贩运、性剥削的受害者,并防止特定和当前的恐怖主义威胁。
他们还将被允许追查涉嫌恐怖主义犯罪、贩卖人口、性剥削、谋杀、绑架、强奸、武装抢劫、参与犯罪组织和环境犯罪的人。
通用人工智能系统(gpai)和基础模型
GPAI和基础模型将受到透明度要求的约束,例如起草技术文档、遵守欧盟版权法以及传播关于用于算法训练的内容的详细摘要。
被归类为构成系统性风险和高影响GPAI的基础模型必须进行模型评估,评估和降低风险,进行对抗性测试,向欧盟委员会报告严重事件,确保网络安全并报告其能源效率。
在统一的欧盟标准公布之前,具有系统性风险的GPAIs可能依赖于业务守则来遵守监管规定。
禁止人工智能
条例禁止下列行为:
-使用政治、宗教、哲学信仰、性取向、种族等敏感特征的生物识别分类系统。
-从互联网或闭路电视录像中无目标地抓取面部图像,以创建面部识别数据库;
-工作场所和教育机构的情绪识别。
-基于社会行为或个人特征的社会评分。
-操纵人类行为以规避其自由意志的人工智能系统。
-人工智能被用来利用人们因年龄、残疾、社会或经济状况而造成的脆弱性。
对违规行为的制裁
根据侵权行为和涉案公司的规模,罚款金额将从750万欧元(合800万美元)或全球年营业额的1.5%开始,最高可达3500万欧元,或全球年营业额的7%。
(1美元=0.9293欧元)
(薛福云报道;海伦·波普尔编辑)
相关文章
发表评论