人工智能的世界究竟是什么样子的?几十年来,研究人员仍然回应深感疑惑,但近年来,这个问题显得愈发严峻。机器视觉系统于是以被更加多地应用于生活的各个领域,从医疗保健到自动驾驶。
但通过机器的眼睛“看”世界,依然是一个极大的挑战,比如我们该怎么解读为什么它把有些人不属于行人,而把有些人不属于路标。如果我们无法做这一点,就有可能会导致相当严重的,甚至是可怕的后果。比如前段时间早已再次发生的,自动驾驶汽车撞到上行人丧命的事件。虽然,神经网络在辨识图像中的物体等任务上获得了极大的顺利,但它们是如何做的在相当大程度上仍是一个谜。
它们的内部工作方式被屏蔽,隐蔽在层层计算出来中,不想人看见,使得人类很难临床错误或偏差。来自谷歌和非盈利实验室openAi的新研究期望通过绘制系统来理解世界的视觉数据,更进一步锁上人工智能视觉的黑匣子。这种被称作“转录图集”的方法,可以让研究人员分析出有各个算法的工作原理,不仅能说明了它们辨识的抽象化形状、颜色和模式,还说明了了它们如何融合这些元素来辨识特定的对象、动物和场景。
这项工作的主要研究者,谷歌的ShanCarter说道,如果以前的研究就像在算法的视觉字母表中表明单个字母,那么转录图集获取了一个更加相似整个词典的东西,它表明出有字母是如何组合成实际单词的。卡特说道:“例如,在像‘鲨鱼’这样的图像中,不会由很多激活码包含,比如‘牙齿’和‘水’。”虽然这不一定是一个极大的突破,但它是在被称作“功能可视化”的更加普遍的研究领域向前迈进的一步。
佐治亚理工大学的博士生RamprasaathSelvaraju回应,这项研究“十分更有人”,并融合了许多现有的点子,建构了一个新的极为简单的工具。Selvaraju说道,这样的工作将有很多用途,协助我们创建更加高效和先进设备的算法,并通过让研究人员深入研究来提升安全性和避免偏差。
“由于神经网络固有的复杂性,它们有时缺少可解释性,”但他说道,在未来,当网络被普遍用作自动驾驶汽车和引领机器人时,这将是必不可少的一步。OpenAi的ChrisOlah也参予了这个项目,他说道:“这类似于制作显微镜。
最少,这是我们所设想的。”要理解转录图集和其他功能可视化工具的工作原理,首先必须理解一点人工智能系统如何辨识对象。构建这一点的基本方法是用于神经网络:一种与人脑大体相近的计算出来结构(尽管它在复杂程度上领先了一个光年)。每一个神经网络内部都是人工神经元层,它们像网一样相连在一起。
就像你大脑中的细胞一样,这些细胞不会号召性刺激,这一过程称之为沦为转录。最重要的是,它们不仅可以启动或重开,它们可以在一个频谱上登记,给每个转录一个特定的值或“权重”。
要把神经网络变为简单的东西,你必需给它大量的训练数据。这意味著数十万甚至数百万张图像,每一张都印有特定的类别。
在谷歌和Openai的研究人员为这项工作测试的过程中,这些图像涉及面普遍:从羊毛到温莎领带,从安全带到空间加热器。当它输出这些数据时,神经网络中的有所不同神经元不会号召每个图像而指示灯。此模式相连到图像的标签。一旦经过训练后,您就可以向网络展出一张以前它从未见过的图片,并且神经元将转录,将输出内容与特定类别相匹配。
恭贺你!刚顺利训练了机器学习视觉算法。这让研究人员可以仔细观察到网络的一些情况,通过在有所不同信息层之间转换,他们可以看见网络是如何从建构到最后决策的,从形状和纹理等基本视觉概念开始到明确的对象。例如,Olah注意到,狗的品种在相当大程度上是以耳朵的弯曲程度来区分的。
图集还展出了网络是如何联系有所不同的物体和点子的,比如说,把狗耳朵放到离猫耳朵不太远的地方,看随着层级的发展,这些区别是如何显得明晰的。该研究还找到了一些惊艳,例如,Olah摄制了一张鱼鳍的照片,一条鱼鳍擦过了波涛汹涌的海水,那么它究竟是归属于灰鲸还是大白鲨?作为一个没钓鱼经验的人,我会冒险猜测,但是作为曾多次看见过大量鲨鱼和鲸鱼鳍的神经网络不应当有问题。然后Olah展出了在神经网络的特定层面上与两只动物涉及的图集图像,但其中一个鲨鱼图像尤其怪异。
如果你细心一看,你可能会看见一排排洁白的牙齿和牙龈,样子却同棒球的支架十分相似。事实证明,他们研究的神经网络也有这样的视觉隐喻的天赋,这可以作为欺骗系统的廉价技巧。通过转变鱼鳍照片,比如说,在一个角落摆放一个棒球邮票图像,Carter和Olah找到可以很更容易地劝说神经网络鲸鱼实质上是一条鲨鱼。
Olah说道,这种方法不太可能被网络破坏者所用于,因为只不过有更加非常简单更加错综复杂的方式来生产恐慌。比如他们可以自动分解所谓的对抗性补丁,使网络误解,把猫当成是一碗鳄梨酱,甚至造成自动驾驶汽车误解暂停标志。
但令人兴奋的是,有了这个工具,人类可以充份理解网络的内部深度,使得它最后协助我们辨识误解或偏差,并及时缺失。但是错误也是时有发生的,比如说,把有所不同种族的人类辨识成大猩猩而非人。有了这样的可视化工具,研究人员可以查阅是什么外来信息或视觉相似性造成了错误的再次发生。也就是说,企图预测神经网络的内核是不存在风险的。
“人们经常担忧你有可能在愚弄你自己,”奥拉说道,风险在于我们有可能企图容忍我们熟知的视觉概念或找寻有意义的非常简单说明。这就是还包括人工智能先驱Hinton在内的一些人物仍然赞成人类说明AI运作规律的原因之一,正如人类无法解释他们的大脑如何作出要求一样,计算机也是某种程度。
他最近在拒绝接受WIRED专访时说:“如果你非要拒绝他们说明所做到的要求,你就不会强制他们捏造一个故事。”虽然争议大大,但“转录图集”的研究者们始终认为:每一代新的工具的研发都在让我们更加相似这些在网络中再次发生事情的真凶。
本文来源:奥门新浦京网999-www.jamacompetences.com
11925650037