欧盟制定人工智能技术监管条款

欧盟制定人工智能技术监管条款优质

据外媒报道,欧盟委员会21日提出了一系列关于人工智能技术应用的监管条款,认为高风险的人工智能应用应当被禁止或受到限制,以保障人们的安全和正当权利不受侵害。此举是欧盟加强数字领域监管,以期在该领域保持领先地位的最新行动。欧盟按照安全风险的高低,将人工智能应用场景分为从“安全”到“不可接受”四个等级,以在鼓励该领域创新与保护人们的安全和隐私等权利之间更好地进行平衡。风险最低的应用场景包括基于人工智能的电子游戏和垃圾邮件识别软件等;风险有限的场景包括机器聊天软件等,对此欧盟建议,应该让用户知晓自己在与机器互动,并有权决定继续对话还是退出。高风险应用场景是指可能对人们生活的重要方面造成严重影响的场景,如包括自动驾驶软件在内的交通等重要基础设施、刑事法庭、边境、精神病院和移民管理等。欧盟建议,这类功能在启用前应履行严格义务,包括足够的风险评估、高质量的数据,以及必要的人工监督等。比如,筛选入学、简历和信用卡申请等应用,必须满足透明度和数据质量方面的规定。某些明显威胁人们安全和权利的人工智能应用被划为不可接受的场景,包括控制人的行为,违反儿童意愿和潜意识的教化等,比如通过声音辅助功能诱导未成年人做出危险行为的玩具等。这类应用须被禁止。欧委会执行副主席玛格丽特·韦斯塔格在新闻发布会上说,若有企业不遵守规定,首先是受到警告,然后产品可能会被下架,如屡犯不改,则可罚没其年收入的6%。这些条款不仅约束企业行为,也对政府使用人工智能的行为进行约束。欧委会强调,所有远距离生物识别系统都被认为具有高风险,禁止执法部门在公共场合使用这一技术,只有少数情况可例外,如寻找失踪儿童或是防止恐怖袭击、甄别犯罪分子和可疑人员等。这类应用需要得到司法部门或独立机构授权。这些监管条款中的一些即刻生效,主要是禁止那些风险过高的人工智能应用,比如根据人们的行为进行评判的“社会评分系统”。其他大部分条款尚需经过欧洲议会和成员国政府的通过。外媒的报道称,这一过程可能会持续数月甚至数年。

更多热门推荐:
分享到 :
相似文章

发表评论

登录... 后才能评论