DeepXplore最新动态:科学有望打开AI“黑盒子”,消除AI偏见

原标题:DeepXplore最新动态:科学有望打开AI“黑盒子”,消除AI偏见

【智能观】今年5月份,来自哥伦比亚大学和理海大学的几位研究者提出了一种深度学习系统的自动白箱测试方法 DeepXplore,据称该方法是首个系统性测试现实深度学习系统的白箱框架,有可能打开AI的“黑盒子”,消除AI偏见。时隔5个月,DeepXplore进展如何了呢?本文作者联系了DeepXplore团队,获取了他们的最新动态。

哥伦比亚大学和理海大学的科学家们已经有效地建立了一种纠正深度学习网络错误的方法。有了这个工具,他们就能对复杂的人工智能展开逆向工程,从而打开AI神秘的“黑盒子”。

深度学习系统经常在一个“黑盒子”里做出决定——这意味着人类不能理解为什么神经网络会选择一个解决方案而不是另一个。出现这种情况是因为机器可以在短时间内执行数百万次测试,提出解决方案,并继续执行数百万次测试,以获得更好的解决方案。

研究人员发明了“DeepXplore”软件,该软件通过“哄骗”系统犯错,以暴露神经网络中的缺陷。哥伦比亚大学的共同开发者Suman Jana说:“你可以把我们的测试过程看作是逆向工程中试图理解系统逻辑的学习过程。”

研究人员解决“黑盒子”问题的方法包括在系统中抛出一系列问题,而这些问题是无法完全解决的。例如,在自动驾驶中,光的增加或减少,可能会导致AI无法决定走哪个方向。

通过巧妙的优化,DeepXplore能够在一个系统中激活所有神经元——这相当于激活了整个网络,扫描错误,并暴露问题。这是“突破一切”的方法,高质量地保证测试人员可以充分理解。

但还有缺陷: 这不属于傻瓜式证明。根据团队的研究,人工智能不能自我证明自己是没错误的,尽管上述方法远远优于随机测试或对抗测试。

试图弄清楚一个先进的神经网络是如何得出具体结论的,就好比一个人想通过数出一堆苹果的准确个数,来证明计算器是否正确一样。对于100万乘以2等于200万这样大数目的运算,人工智能会比人做得更好。

哥伦比亚大学和理海大学的研究人员正在做令人印象深刻的研究,据哥伦比亚大学的共同开发者Kexin Pei说:“我们计划继续改进DeepXplore,以进一步打开AI的‘黑盒子’,使机器学习系统更加可靠和透明。随着越来越多的决策被移交给机器决断,我们需要确保能够测试它的逻辑,这样结果才可能准确和公平。”

对于最先进的神经网络,弄清楚如何检查和调试错误,将对人工智能在医疗、交通、安全和国防等领域的整合大有裨益。

隔离和消除导致人工智能产生危及人类生命或歧视行为的偏见,是机器学习开发人员面临的最大挑战之一。人工智能研究所最近警告,在我们完全打开人工智能系统的“黑匣子”之前,政府必须采取重要的措施。

不过还是要感谢DeepXplore,让人工智能来到我们身边的时间比任何人预计得都要快。

来源:TNW

作者:Tristan Greene

智能观 编译

—完—

想知道AI加教育领域有哪些最新研究成果?请在智能观(zhinengguanym)对话界面回复“论文”;

想要AI领域更多的干货?请在对话界面回复“干货”;

想了解更多专家的“智能观”,请在对话界面回复“观点”,去获取你想要的内容吧。

为答谢读者对智能观的支持与关注,我们每周会从评论区内挑选一条点赞靠前的优质留言,赠送(于11月14-16日期间举办的)GET2017(教育科技大会)价值199元的展票一张。

返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
免费获取
今日搜狐热点
今日推荐