Connect with us

Saaspad | China Tech & SaaS News, Trends & Insight

DeepXplore探秘AI黑匣子,逆向编程为AI纠错

新闻

DeepXplore探秘AI黑匣子,逆向编程为AI纠错

DeepXplore探秘AI黑匣子,逆向编程为AI纠错

哥伦比亚大学和利哈伊大学的科学家已经开创了为深度学习网络纠错的有效方法。 有了这个工具,他们就能够对复杂的AI进行逆向编程,从而为神秘的“黑匣子”问题提供解决方案。

深度学习AI系统经常在黑匣子里做决策——人们无法轻松理解神经网络选择某种解决方案的原因。 这是因为机器可以在短时间内执行数百万次测试,提出一个解决方案,并继续执行数百万次测试,以提出更好的解决方案。

研究人员创建了DeepXplore软件,该软件通过欺骗错误来暴露神经网络中的缺陷。 哥伦比亚大学的合作开发者Suman Jana告诉媒体:

你可以把我们的测试过程看作是对学习过程进行逆向编程,以理解其中的逻辑。

研究人员解决黑匣子问题的方法,是在系统中抛出一系列无法解决的问题。例如,递增或递减光线,可能会导致自动驾驶AI无法做出行驶方向的决策。

通过巧妙的优化,DeepXplore能够在系统内触发高达百分之百的神经元激活效应,这基本上是激活整个网络来扫描错误,并尝试引发问题。这也正是质保人员常用的拆解问题法。

但这种方法也有限制性,根据研究小组的研究,它不能自我证明你的AI是没有错误的,尽管它远远优于随机测试或“敌对测试”。

试图找出一个先进的神经网络是如何得出一个特定的结论,就像个人要计算苹果的准确数量,以“证明”计算器给出的结果,一百万乘以二等于两百万。而一旦涉及计算,AI往往做得更好。

哥伦比亚大学和利哈伊大学研究人员的工作令人印象深刻,哥伦比亚大学的合作开发者Kexin Pei说:

我们计划不断改进DeepXplore探秘黑匣子的方式,使机器学习系统更加可靠和透明。 随着越来越多的决策转向机器,我们需要确保我们能够测试他们的逻辑,来保证结果是准确且公平的。

搞清楚如何对最先进的神经网络进行调试和错误检查,将会大大促进AI在医疗,交通,安全和防御等领域的应用。

避免AI做出危及生命的决策或带有偏见的结论,是机器学习开发者面临的最大挑战之一。

AI Now研究所最近告诫重要的政府机构,不要轻易使用黑匣子AI系统,直到我们能够弄清楚其中的逻辑为止。

感谢DeepXplore,这一天比我们预料的更早到来了。

本文编译自TNW

Continue Reading
You may also like...
Hunter Liu的头像

Click to comment

Leave a Reply

电子邮件地址不会被公开。 必填项已用*标注

More in 新闻

Popular