算法偏见技术滥用等带来挑战 人工智能产业应先过“安全可控”关
人工智能正加速各行各业的智能化转型,但数据隐私、算法偏见、技术滥用等安全问题也给人工智能的治理与产业发展带来了严峻挑战。
未来人工智能如何兼顾创新发展与安全可控?中国科学院院士、清华大学人工智能研究院院长张钹表示,未来人工智能产业发展在扩大应用场景的同时,必须实现数据、算法与应用层的安全可控。
“人工智能的安全可控问题要从技术层面来解决。”在具体实现路径上,张钹提出了发展“第三代人工智能”,即融合第一代知识驱动和第二代数据驱动的人工智能,利用数据、知识、算法和算力4个要素,发展安全、可信、可靠和可扩展的AI技术。
如何定义人工智能“安全可控”?北京瑞莱智慧科技有限公司CEO田天认为,“安全”是指打造数据安全与算法安全两大核心能力,解决数据强依赖带来的隐私泄露等隐患,同时提升算法的可靠性,从而保证系统在网络过载或有意攻击情况下,依然稳定运行不崩溃;“可控”既指应用层面的合规可控,更指核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。安全可控是发展第三代人工智能的核心基准,也是加快人工智能高质量发展的有力支撑。
数据不安全和算法不安全是制约当前人工智能产业发展的主要因素,也是发展安全可控人工智能需要解决的核心问题。在中国信息通信研究院安全所信息安全研究部主任魏薇看来,人工智能与数据产业互促发展的同时,安全问题也相互影响。一方面,人工智能对数据强依赖的发展特性导致其面临的自身数据安全风险、应用导致的数据安全风险以及应用加剧的数据治理挑战日益凸显;另一方面,人工智能也为数据治理工作提供自动化、智能化、高效化、精准化的智慧支撑。
相较数据安全,算法安全问题初露端倪。阿里安全资深算法专家何源介绍,虽然人工智能技术已经在净化网络环境、知识产权保护、生物识别、线下安防等安全工作中发挥着越来越大的助力作用,让安全更智能,但其本身也面临着可解释性差、技术滥用等安全风险。比如,算法漏洞的存在可以针对图像检索系统开展攻击,导致非原创图片逃逸检测,对网站安全与商家权益造成威胁。
发展安全可控的人工智能是一项系统性的工作,需要从行业标准、法律规范、技术发展等多个维度打造与之配套的基础设施,其中技术基础设施的打造仍将发挥基础性作用。
在新基建浪潮驱动下,人工智能产业即将迎来与传统产业深度融合的机遇期。田天表示,在安全可控的核心支撑下,人工智能能够实现从“单点自动化”到“深度智能化”的价值提升。例如,在金融领域,人工智能的创新融合正为金融行业打造出一个兼具决策分析与感官感知的“智慧大脑”。而在安全可控的支撑下,“智慧大脑”能够拓展全新能力边界,形成更好的“决策左脑”与更加安全可靠的“感知右脑”。
在安全可控的助力下,“深度智能”时代正加速到来,人工智能在各行业领域的应用广度和深度将不断得到拓展。“第三代人工智能通过释放 ‘数据、知识、算法、算力’的全新维度,为实现安全可控的新一代人工智能提供可能,让人工智能走出‘浅层智能’的舒适区,重塑产业价值。”田天说。