>科技>>正文

AI的达摩克利斯之剑:隐私与安全的远虑近忧

原标题:AI的达摩克利斯之剑:隐私与安全的远虑近忧

中国已经成为世界上人工智能发展最快的国家之一,部分指标已居于世界领先地位。但在AI飞速发展的过程中,技术作为双刃剑引发的副作用同样也不可忽视。

诸如《银河漫游》《星际穿越》等一些科幻电影中,机器发展到一定阶段往往人和产生纷繁的利益纠葛,甚至造成不可挽回的生化危机。

假设AI发展到可以取代人的部分功能时,其可能引起的安全与伦理争议成为我们现在不可以回避的问题。

我们现在该如何界定人工智能?人工智能应该在怎样安全的框架下发展?怎样才是理想的人工智能准则?

近日,由搜狐和AITime参与举办的AI Time:论道AI安全与伦理主题沙龙在清华科技园成功举办。来自AI届的网红大佬中国科学院院士、清华大学人工智能研究院院长张钹,中国人民大学高瓴人工智能学院院长文继荣,搜狐网产品技术总监杨田博士展开了热烈的思辨。此外,清华大学副教授刘知远,搜狐集团招聘负责人付卓艳也作为嘉宾参加了本次会议,一起探寻AI安全与伦理等问题的解决之道。

目前离真正想象的AI状态还较远

张钹院士表示,我们一直认为机器如果发展到和人类不相上下的地步是很遥远的,尽管人工智能技术看起来并不是十分智能,但是已给我们带来很大的危险性。

因此,人工智能究竟应该如何发展?有了这些技术我们如何用?

“什么叫做情感,什么叫美,美是主观的还是客观的。实际很多东西涉及到哲学上的考虑。人工智能发展如果一个新思路的发展,其实哲学应该走在最前面。大家不要认为这些都是无稽之谈,实际它背后包含哲学的思考,这些思考我们相对来讲做科学的人做技术的人特别做工程的人考虑很少。” 张钹院士说。

从目前的产品角度,杨田博士表示现在实际看到的人工智能产品,和我们理想的人工智能差距还比较大大。

“现在感知到的人工智能产品基本都是由最优化问题衍生出来的,像张院士所说,我们现阶段想让人工智能具备人一样的情感,作为人工智能的训练者我们这些人本身也不知道情感究竟是什么,人是怎么样表达的,所以可以肯定的是,至少现在我们不能够训练出一个人工智能的机器具有跟人一样的情感。”

虽然目前做出具有人类情感的AI还比较遥远,但是要用机器模拟出人的现象和行为,以现在的技术来说却基本可以实现。被人工智能的机器去利用弱点,反过来被机器所影响的风险极有可能发生。

AI的远虑和近忧

虽然离真正想象的AI状态还较远,但人工智能在发展的过程中已经引发了安全、伦理、道德等问题。

针对对AI伦理相关的考量,加拿大发布了《蒙特利尔宣言》,欧盟发布了《可信赖的AI伦理准则》,澳大利亚发布《人工智能发展政策指导》,北京智源实验室为首发布《人工智能北京共识》,以探讨AI的发展在技术之外还有什么重要的因素需要考量。

文继荣院长表示,现在人工智能面临两大问题,一是深度学习涉及的黑箱问题。“现在存在这种情况,拿一个数据在GPU上面跑,一堆复杂的模型,谁也搞不懂是什么东西,将来不可控制。”

“这件事情其实有很大的隐患,我们训练的模型都是好心,大家没有什么恶意,但是训练出来的模型拿去做一件事情,可能里面有不可控的因素,这是其一。”

其二,高级的人工智能会在应用过程中有自学习功能,会自我计划、自我学习,这个过程中也会有很多不可控的危险。

他举例说,微软研究院做了一个对话机器人小冰,中文版发布的时候叫小冰是个女孩,后来做了一个英文版,是男生,大概两天三天就下线了,为什么?它在两三天以后发表很多种族主义的言论。

小冰就是用大数据训练出来的看起来很智能的机器人,实际上它是在自学习。在刚刚一上线的时候,很多人开始利用这点训练小冰,因此它就学到了。

张钹院士表示,宣言里实际包含两个问题,分别是远虑和近忧。

从远虑角度来说,现在有两种路线,一种路线是我们希望发明出来的机器将来所有事都让它干,所有决策都让它做。这个思路非常危险,“你将来的命运实际是操纵在机器人手里。”

我们现在发展人工智能完全要建立人机和谐、人机共处、人机协作的未来,我们发展机器人的时候包括发展人工智能都要考虑到,哪些事情让机器做,哪些事情让人类做。

而近忧就在眼前,例如无意产生的语音合成。“本来想做一个服务器讲出来的语言和自然人一样,原来是好心做这个的,但是技术双刃剑也会去用做坏事,但是有意的有没有?绝对有。”

选择保护隐私还是公众安全

人工智能发展到一定阶段,总是面临着隐私和安全的冲突和平衡。

以加州为例,其通过了最严格的隐私保护法,任何在公共场合用摄像头照人得到的照片都不允许被使用,甚至警察抓罪犯也不能调用。

而我们在安全和隐私这两个纬度应该做怎样一个选择?

张钹院士表示:更重视隐私呢还是更重视公共利益?是如何平衡的问题。西方强调的隐私不见得对,我们过分强调公共利益也不对,这只是两个极端而已,不存在谁对谁错,而在于谁把这个平衡做得更好。

“个人利益和公共利益有些时候是矛盾的,我如何平衡?按照中国的世界观和价值观比较强调公共利益,按西方的价值观比较强调个人利益,个人利益神圣不可侵犯,有这条宪法约定。

比如装摄像头,我们装摄像头对社会带来多大的好处?比如抓逃犯,我主张罪犯要抓,如果影响到公共利益该抓就抓,个人要做点牺牲,这个是中国的哲学、中国的价值观,西方是不接受这种价值观的。”

清华大学教授唐杰则提到了分级问题,对于人工智能目前的发展状态是否需要未雨绸缪,像自动驾驶一样分级,在哪个领域隐私保护里面需要做到什么级别,需要探讨分级这个问题。

杨田博士则表示:“我们到处装摄像头,侵犯了公民的隐私权。另一方面,在座的所有人或多或少都从所谓的个性化推荐上面获得了便利,个性化推荐也可以理解为向系统出卖了我们的隐私换来了生活的便利。

而这里面的边界在不在于摄像头,不在于数据采集,而在于这件事或者数据采集它能不能作为对行为不当的一种证据。这个是很细致的问题,本身不应该由图象采集这件事情来承担。”

而对于人工智能的隐私,伦理等问题,学校和研究所应该做什么?企业应该做什么?还需要大家一起去探索。返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
银河漫游 aitime 清华科技园 张钹 文继荣
阅读 ()
投诉
免费获取
今日搜狐热点
今日推荐