央广网北京4月2日消息 近期,中国工程院公布2021年世界十大科技进展,其中多项与人工智能有关。作为一种新兴技术,没有哪种技术像人工智能那样正深刻地改变着人类社会生活和世界,与此同时,跟诸多技术一样,人工智能也必然会面临安全问题,由于人工智能应用的广泛性、影响的深入性,其安全有其特殊性,尤其应该引起重视。

我国站在战略高度重视人工智能的安全问题和自主可控问题,要求确保人工智能“一安两可”,即安全、可靠、可控,在国家多项政策指引下,中国工程院组织院士专家开展了广泛深入研究,形成《新一代人工智能安全与自主可控战略研究综合报告》。

实现“一安二可”面临六大风险、五大挑战

区别于一般的工程和信息系统,人工智能安全主要指由于具有学习能力、自主决策、自主行动等智能行为,人工智能系统在运行中会产生两个方面的安全问题,一是内生安全问题,二是衍生安全问题。内生安全问题主要是指设计、制造、使用环境受到攻击时会产生安全问题,衍生安全问题是由于人工智能技术的应用而引申出来的对其他系统安全的影响问题。值得注意的是,人工智能的安全要靠系统自身产生,所以一般认为提高系统自身的可靠性、稳定性和抗攻击能力,安全性能便会提升。同时,人工智能安全需要综合治理,需要标准和规范、道德和伦理、政策导向和法律法规等诸多方面联合发力。

目前,人工智能面临六大安全风险。风险一,人工智能的系统故障会引发安全问题,集中体现在交通、医疗卫生、制造等领域,人工智能在这些一旦发生安全问题将直接对人类生命财产安全造成威胁。风险二,人工智能在应用过程中存在隐私盗取、欺诈等问题。风险三,人工智能的应用也会对经济、社会产生冲击,比如人工智能替代人产生的就业问题如何解决等。风险四,人工智能滥用产生虚假信息,引起政治、社会、国家安全问题如何杜绝。风险五,人工智能应用到战争领域,对国际政治、军事、外交、国际治理体系等产生冲击。最后,风险六,人工智能发展产生伦理安全风险与法治方面也是空白。可以说,人类在享受人工智能带来的便捷的同时,安全问题也铺天盖地而来。

在我国,人工智能安全与自主可控方面面临五大挑战。挑战一,虽然应用方面确实走在世界前列,但缺乏人工智能安全的原创性、引领性核心理论和关键技术,这也是一项世界性难题。由于这些基础问题没有解决,应用层面潜在的安全问题也逐渐暴露,因此呼吁业界不仅要集成创新,更要重视理论创新,原始创新。挑战二,缺乏相对独立完整的产业链和健全的生态链,自主可控能力较弱,关键技术、核心产品、芯片等安全可控的风险很大。挑战三,缺乏领域内国际顶级和领袖人才。挑战四,缺乏针对人工智能安全的标准风险评估和管控体制。挑战五,缺乏面向人工智能安全的道德和伦理规范及相应的法律法规。人工智能算法生产和运用过程中的算法黑箱和歧视问题,易引发平等和公平的危机。

三步走、四举措助力人工智能安全可控可靠

虽然安全和自主可控挑战和风险巨大,但不能因噎废食,要迎难而上,在危机中占有先机,让新一代人工智能技术更好造福人类。

从发展路径来说,要走一条独立自主、求实创新、统筹规划和综合治理的道路,选择影响我国人工智能安全与自主可控健康发展的理论技术、产业应用的关键问题,综合国家和社会力量,集中力量办大事,综合运用技术、标准、法律、伦理措施,分领域有步骤地实现人工智能安全、可靠、可控的世界强国目标。

具体来说,人工智能可以考虑分三步走,“十四五”时期,重点解决内生安全、衍生安全、赋能安全等一批“卡脖子”的问题,掌握一批基础理论、关键技术、核心产品。2035年,突破人工智能安全基础理论关键技术,若干自主研制的理论技术能够达到国际先进和领先水平;2050年,人工智能安全与自主可控技术全面支撑智能经济和社会发展,国防和国家安全,同时人工智能安全与自主可控技术、创新发展能力、产业体系以及融合应用等全面达到世界先进水平,并且一批基础理论、关键技术、核心产品产业应用达到世界领先水平,从而使得人工智能安全技术综合实力进入世界强国。

为此需要实现四点举措,抓基础研究和技术创新,抓标准、评测、法律、法规体系建设,抓构建应用与产业发展生态,最后也是最关键的是人才队伍建设,要培养一支人工智能安全领域战略科技力量。

(本文整理自中国工程院院士陆军在第六届创新与新兴产业发展国际会议上的发言)

编辑:卜叶
原创版权禁止商业转载 授权>>
转载申请事宜以及报告非法侵权行为,请联系我们:010-56807194
长按二维码
关注精彩内容