央广网北京5月17日消息(记者 牛谷月)5月17日,由搜狐科技主办、央广网作为战略支持媒体参与的“2021搜狐科技5G&AI峰会”在北京开幕。峰会大咖齐聚,共同探讨5G和AI技术的最前沿发展以及应用落地情况。

  峰会下午,商汤智能产业研究院创始院长田丰带来了《AI伦理的“全球大变局”》的主题演讲。他提到,不管是AI伦理还是AI治理,它的责任边界涉及三个因素,第一是国家安全,第二是是国际规则,第三个因素是公民隐私。

  AI发展应该秉承着什么样的价值观?田丰表示,我们希望AI可持续发展能够引领人类的进步,进步才是最重要的。当然,在进步的同时需要保证整个行业的健康和底线,不出现系统性风险。他表示,人工智能是一种技术,反映的是人类人性方面的镜子,AI工具是没有善恶之分的,但是希望更多的人善意地使用人工智能。

  他提到,对于AI伦理来说,中国和美国在人工智能的研发领域已经并驾齐驱,更加希望人工智能的伦理能够高于法律,法律毕竟是一个底线,但是伦理的研究要往前做,风险和安全,风险往往早于安全。

  以下为田丰演讲全文:

  基础设施是服务于大多数人的,即普惠基础设施。但是少数派有没有被惠及到?AI科技的伦理不光是加强头部的科技公司越来越强,同时社会发明发展到一定程度一定关注少数派的福祉。比如盲人怎么享受这样的福利?

  去年商汤黑客的一个大赛上有一个小团队做出了盲人用的VR眼镜,可以通过语音的方式提醒盲人前面走,可以看到前面的障碍物,一定程度上实现了导盲犬的功能,因为这个群体人数不是特别大,所以往往容易被忽视。

  另外一个例子,我们看到每一次数字化转型,产业升级的变革里面最重要的很多大企业的科技越来越强,但是很多中小企业怎么办?东南亚有广泛的中小企业,中国也是制造业有大量的中小企业。商汤科技也是希望人工智能进入长尾的场景,从奢侈品变成必需品,我们提供三个服务。

  第一,支持各地建AI超算中心,早期商汤的投资大量投到了数据中心、科学家的研发上面。未来各地的超算中心建立起来以后会进入云计算时代。

  第二,我们在最近五年一直做算法开源,研究Open MMLAB的算法库提供一百多个算法,700多个预训练的模型,所有的中小企业都可以快速实现二次开发和应用,刚才讲的自动驾驶、智能车的屏幕很多时候不需要用手点的,用手势操作智能音像,这个开源库在Github是三万多个星标。这个可以快速帮助中小企业数字化转型。

  第三,AI的科学家非常贵,中小企业用不起怎么办?中国第一套K12包括职高的人工智能的教材是商汤出的,还有云计算的AI编程平台,小朋友都可以学会这些,产业工人肯定没问题,可以升级为人工智能的时代。帮助更多人群才真正是AI伦理很重要的一个点。

  我们今天讲的是AI伦理的全球大变局,刚才讲到了多数派和少数,上面再加一个国别的维度,这个问题更复杂一些。不管是AI伦理还是AI治理,它的责任边界是什么?

  第一个因素是国家安全,第二个因素是国际规则,第三个因素是公民隐私,这个我们已经在身边发生了。国家安全后面会举一些例子,国际规则层面大家在探讨数字的日内瓦公约,隐私护盾,包括巴黎倡议。第三公民隐私,公民举行什么权利,ISO已经提出了一些隐私标准,商汤去年通过了隐私标准。

  有三个趋势,第一个AI伦理和科技伦理是国家安全第一。我们拿美国举例,美国的人工智能国家安全委员会最近发布了一份报告,名字叫Final Report,提了很多非常具像化的建议和措施,在民用和非民用上面的AI研发投入。

  美国在未来的从2021年到2030年不断追加AI研发上的投入,甚至提出一个建议,就是每年翻一倍的研发投入,目的是保护美国的国家安全和社会隐私、公民自由和权利。它也在说什么样的自由和国家安全之间的平衡,在疫情期间,在一些特殊危害公众安全的场景下如何做?欧洲也有变化,GDPR过于保护隐私之后也在往回撤,针对疫情和公众安全的时候做一些整体的安全。

  美国也在开展各种技术工具箱的实践,提升基础研究和AI伦理方面的保护,这个跟中国现在做的事情很像。中国正在做人工智能的社会实验,就是在不管你在驾驶环境下还是在家庭,公共的场所如何去用算法保护少数人的利益,同时服务于大多数人。

  第二个趋势是国际规则。我们拿欧盟举例,因为欧盟是很多国家组成的联合体,本身就是有国际规则的最早表现。今年3、4月份欧盟发了《人工智能法》修订案,通过合法、安全、可信赖的人工智能的应用开发。

  大家说可信任AI,其实首先对这个国家可信任,对于国际的联盟,比如对欧盟的国家可信,所以一定是有数据的边界,有一个地缘边界的。同时还会做风险的监控,对人工智能的算法应用分级分类,这在今年的两会和后面的《个人信息保护法》《网络数据保护法》都有理念上的趋同。

  这次3·15和两会看到了生物特征数据识别,欧盟也出了一些特例,我们要保护每个人的隐私和生物特征数据,但是有三个场景例外。第一是恐怖袭击的时候,我们会调取一些生物特征的数据,包括人脸。第二,在追逃犯的时候。第三在一些受害者,比如小朋友走失的时候可以调取相应视频的生物特征数据找走失的儿童,在整个公共隐私保护和安全方面有一个平衡。

  还有AI系统的透明性义务。它会进入沙箱技术做保护,同时可以看到未来越来越多的区域型的组织,不管是RCEP还是欧盟的人工智能委员会,这种人工智能委员代表区域去决定相应的法律法规的互认,数据的跨境流动,个人信息保护法的互认,这会形成数据或者人工智能伦理的朋友圈。

  中国也一样,中国会看到法律法规在今年发布,《网络安全法》和《数据安全管理办法》,包括最近汽车的安全数据指南。美国也相应的有各种各样的法案在出现,包括最近马上发布的Final Report法案,欧洲根据GDPR开出罚单,这是各地的立法不同会有不同的摩擦。

  商汤科技主体倡导在AI伦理层面还要促发展,保底线。从跨区域全球的价值观,提出AI可持续发展的架构体系,并且发布了白皮书,呼吁社会各界,包括各个国家大家从正面的方向尽可能用人工智能、5G这样的基础设施推动全人类的福祉,包括气候变化用遥感技术看整个环境的保护,包括自动驾驶对于老龄化社会的帮助,AI的教育对所有的儿童、产业工人的赋能,等等。去年的世界人工智能大会上发布了上海倡议,与联合国一起发布的AI可持续发展的倡议。

  对于AI的价值观,我们提出了商汤的见解。我们希望AI可持续发展能够引领人类的进步,进步是最重要的。当然在进步同时保证整个行业的健康和底线,不出现系统性风险。

  原则层面,之前所有的原则都是欧洲和美国、加拿大提出的,中国希望提出相应的价值体系,比如AI的伦理方面要互相尊重文化上的差异,历史上的差异,大家协商的方式找到包容性的AI价值观。

  AI惠民,我们通过技术利他,建设一个和谐的社会,不仅是有利于消费者,所有的服务人员也有他的健康保护,包括路面上的司机、快递员也会影响到整个交通的其它行人的安全。AI的产业融合需要有行业自律和法律法规指引,AI的可信化,如何创新共享促进开放型的共识,后面提出了相应的举措。

  基于联合国的17个可持续发展目标,我们相应针对人工智能的案例在可持续发展层面提供了案例库,通过联合国赋能更多国家,让大家享受中国在AI可持续发展的、AI教育的、AI医疗好的标杆模式,当然毕竟人工智能是一种技术,人工智能的伦理和价值观反映的是人类的人性方面的镜子,我们说AI工具是没有善恶之分的,但是希望更多的善意的人使用人工智能。

  在疫情期间,我们可以看到东南亚地区历史文化比较一致,所以它的价值观互认程度高一些,在中国很多医院和公共设施使用了商汤科技的火神远程的非接触式测温解决方案之后,新加坡一些地方都使用了。在便利店、银行、地铁都有中国的非接触式的测温解决方案,这背后也说明了互相价值观的认同。

  去年我们做了数字医生,疫情期间医生资源非常紧缺,我们用AI数字人的方式普及知识,可以在网上和数字人医生有更好的互动和问询。在中国的老龄化社会,希望每个社区和人都有(真人或数字人)私人医生。

  做公民的权益和隐私保护方面,我们可以看到最新的中央网信办发布了汽车数据安全管理规定,这里有很多非常好的创意。个人的信息包括在开车过程中包括车主信息、驾驶员信息、乘车人信息、路面环境信息,如果包括车外人脸声音和车牌,都属于相对来说需要有高保护等级的数据,同时针对目前智能网联车如果达到10万以上的数据规模的时候,这个平台需要定期去向当地的网信部门报备和汇报它的数据安全情况。

  这个里面还提供了很多建议。如果你是一个智能网联的运营平台,第一需要做车内处理原则,最小化的使用驾驶员的各种各样的数据,每次开车的时候取得你的授权。这个授权不是永远有效的,开一次车需要取得一次授权,包括匿名化的处理原则,最小的保存期限,大家可以不可以控制我的数据等等,可以直接做删除,而且是不是只保存两个月以内,都是需要跟消费者协商的。

  后面是用户的权益。用户有知情权,有选择权,可以不通过生物特征数据的控制,可以通过密码或者其它方式去进入我的系统。包括后面可以实时查看平台收集了哪些数据,我对数据有很好的控制权限。

  人工智能其实明天会发展到哪些方向,从历史来看所有的科技有三个发展方向,第一前沿科技不断探索,技术的进步。第二,服务于商业,我们成为一种非常好的新的商业模式的生产工具。第三,也会成为某种维护公众安全上的武器,实际是保护大家的安全。

  当然我们希望它朝着科技的进步和商业的工具演进,对于AI的伦理来说,中国和美国在人工智能的研发领域已经并驾齐驱了,我们更希望人工智能的伦理能够高于法律,法律毕竟是一个底线,但是伦理的研究要往前做,风险和安全,风险往往早于安全。

  对于商汤自己会怎么做呢?我们成立了三个委员会,第一个是人工智能伦理委员会,所有的产品需要经过伦理的审核和风控。第二安全委员会,负责数据安全和网络安全。第三是产品委员会,三个委员会共同打造AI伦理和数据安全保护。国际标准上目前通过了2701信息安全管理体系,还有27701隐私信息管理体系认证,29151个人身份信息保护实践指南,以及中国的等保。在这样的全流程端到端的数据算法各方面的保护过程中,我们打造了可信任的人工智能国产化的基础设施。

  最后,因为AI的伦理研究是一种公益方面的研究,我们希望所有的研究者、智库大家都能够加入我们,大家一起探讨对于中国或者整个东南亚比较普世的人工智能的伦理价值观,以及行业里面自律的法律和规范,谢谢各位。