中国科学院院士张钹:发展第三代人工智能 破解安全难题

中国科学院院士张钹:发展第三代人工智能 破解安全难题优质

科技是发展的利器,但也可能成为风险的源头,人工智能也不例外。中国科学院院士、清华大学计算机系教授张钹在“人工智能安全与产业治理”论坛上表示,人工智能的发展引发新一轮产业变革,带来传统产业的智能化,比如网络搜索中采用推荐算法、用户画像等方式提高服务的效率和质量。智能技术的产业化还催生了新产业,比如智慧交通、智慧医疗、智慧城市、自动驾驶等。但是,这些变革也带来了新的风险和安全隐患,因此人工智能的发展既要抓创新,也要抓治理。与其他新兴技术相比,人工智能发展与治理中存在一些特殊性。从算法层面来看,现有的人工智能算法比较脆弱,泛化能力较差。这就意味着,如果将算法运用到与训练场景区别很大的实际场景中会存在安全问题。以无人驾驶为例,人工智能在训练时不可能包含所有的情境,当遇到突发事件,很容易导致算法无法处理,造成人工智能技术的误用。同时,这种脆弱性还使人工智能系统容易被攻击、被欺骗,给人工智能技术的滥用造成可乘之机。从数据层面来看,现在人工智能应用效果很大程度上依赖数据质量,但由此会引发隐私泄露、数据确权等问题。如果解决不好数据安全问题,人工智能产业不可能健康发展。从应用层面来看,人工智能技术已经逐渐对人们的生活造成冲击,比如“困在算法里的外卖骑手”等事件就经常发生。还有像深度伪造等可能对社会造成重大影响的技术,都必须保证安全可控。人工智能的创新是发展的必然。纵观信息科技的发展历史,信息科技发展异常迅猛,但基本实现了安全可控。而人工智能的发展却缓慢曲折,安全问题层出不穷。两者的不同在于,信息革命一开始,信息学三大理论就已经建立,即图灵机理论、香农理论以及维纳的控制论。有了坚实的理论基础,才能引导信息技术健康发展。人工智能则不同,它的理论基础至今没有建立,尽管经历了第一代人工智能的符号主义模型(知识驱动)和第二代人工智能的亚符号(连接)主义模型(数据驱动),但由于它们均具有很大的局限性,不能构成人工智能的理论基础。由于缺乏理论指导,人工智能的发展处于难以控制的局面。因此,建立人工智能的理论基础是“第三代人工智能”的初衷。张钹解释说,“第三代人工智能”的发展路径是融合第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒的人工智能理论与方法,从而发展安全、可信、可靠和可扩展的人工智能技术,通过发展“第三代人工智能”和人工智能治理一起抓,才能实现相辅相成、共同发展的目标。人工智能刚刚拉开序幕,更精彩的大戏即将上演。张钹呼吁,产业需要共同发展安全可控的第三代人工智能,让人工智能真正造福于人类。

更多热门推荐:
分享到 :
相似文章

发表评论

登录... 后才能评论