本篇文章3481字,读完约9分钟

注:外国媒体发表了一篇关于伊恩的文章,他是脸书人工智能实验室的负责人。Yann lecun评论说,Lekun研究的卷积神经网络对人工智能有着深远的影响,其潜力不可低估。此外,还介绍了他开发的手写数字识别系统lenets及其对反向传播算法的研究成果,并对深度学习的前景进行了评价。这篇文章是由网易科技编辑的

以下是文章的主要内容:

马克。扎克伯格精心挑选的深度学习专家伊恩?乐坤是facebook人工智能实验室的负责人。这个实验室是去年年底建立的。作为纽约大学的长期教授,伊恩?乐坤在深度学习研究方面取得了巨大成就,并在ieee计算智能世界大会上获得了神经网络先锋奖。深度学习作为人工智能的一种形式,旨在更紧密地模仿人脑。起初,大多数人工智能研究人员公开表示他们对深度学习的不屑,但在短短几年内,它突然在整个高科技领域传播开来,跨越了谷歌、微软、百度和推特。

伊恩?勒坤 Facebook“大脑”深度学告诉你深度学习怎么来?

关注最关心的金融话题,一起讨论。

这些高科技公司正在探索一种特殊形式的深度学习——卷积神经网络,旨在创建能够自动理解自然语言和识别图像的网络服务。谷歌安卓手机语音识别系统是基于神经网络开发的。百度利用神经网络开发了一个新的视觉搜索引擎。研究深学的学者不在少数,但都是成功的,乐坤对此做出了很大的贡献。微软的机器学习专家利昂?利昂·博图在早期和乐坤一起工作。

伊恩?勒坤 Facebook“大脑”深度学告诉你深度学习怎么来?

"对于视觉卷积神经网络,乐坤支付的费用远远高于其他公司."

面对巨大的疑问,乐坤仍然支持神经网络。神经网络的正常运行需要强大的计算机和庞大的数据集。然而,当乐坤在20世纪80年代第一次接触这个新领域时,他并不具备这些支撑条件。当时,科学家刚刚进入计算机时代,热切期待人工智能,但神经网络受到当时条件的限制,无法满足科学家的视觉,因此不受重视。在权威学术期刊上发表与神经网络相关的文章比较困难。直到20世纪90年代,甚至21世纪初,这种情况都没有得到改善。

伊恩?勒坤 Facebook“大脑”深度学告诉你深度学习怎么来?

但是乐坤坚持。最后,计算机技术取得了长足的进步,为深入学习和开发其潜力提供了必要的技术支持。

勒昆的林茨

在加入facebook前20多年,乐坤在贝尔实验室工作。在此期间,他开发了一个可以识别手写数字的系统,叫做lenet。作为世界上最著名的计算机研究实验室,贝尔实验室是晶体管、unix操作系统和C语言的发源地。

Lenet能够自动读取银行支票,这标志着卷积神经网络在实践中的首次应用。伯托说:“卷积网络最初就像一个小玩具,乐坤把它应用于更广泛的实际问题。”

在20世纪70年代和80年代,早期的神经网络模型,如cognitron和neocognitron,能够在没有太多人类提示的情况下,学会从数据中自动识别图形。但是这些模型非常复杂,以至于研究人员无法完全弄清楚如何让它们正确工作。

“当时没有监督学习算法,现在我们称之为反向传播算法。这种算法可以有效地将错误率降到最低。”

卷积神经网络

卷积网络由相互连接的卷积层组成,这与大脑中处理视觉信息的视觉皮层非常相似。卷积网络的不同之处在于,它们可以在图像的多个位置重用相同的滤波器。例如,一旦卷积网络学会识别某个位置的人脸,它也可以自动识别其他位置的人脸。这个原理也适用于声波和手写字符。

百度研究所所长安德鲁·吴认为,这使得人工神经网络能够快速接受训练。

“空占用的内存很小,并且不需要在图像中的每个位置单独存储滤波器,因此神经网络非常适合创建可扩展的深层网络。这也使得卷积神经网络具有善于识别图形的优势。”

当卷积神经网络接收到图像(即输入)时,它将其转换成表示特征的数字阵列,并调整每个卷积层中的“神经元”,以识别数字中的一些数字。低级神经元可以识别基本形状,而高级神经元可以识别更复杂的形状,如狗或其他。每个卷积层与相邻层通信,当信息在网络中传播时,将获得平均值。最后,网络通过猜测图像中的图形得到输出结果。

伊恩?勒坤 Facebook“大脑”深度学告诉你深度学习怎么来?

如果网络出了问题,工程师可以微调各层之间的连接,以获得正确的答案。然而,神经网络是优越的,因为它可以微调自己。这时,反向传播算法开始发挥作用。

反向传播算法

反向传播算法的原理是计算误差并根据误差更新卷积层接收的强度。20世纪80年代中期,戴维·鲁梅尔哈特、杰弗里·辛顿和罗纳德·威廉姆斯提出了反向传播算法,即同时计算多个输入的误差并取平均值。然后,平均误差通过网络从输出层传播回输入层。

乐坤的反向传输算法的想法与上述不同。他没有取平均值,而是计算每个样本的误差。他的方法既有效又快捷。

据贝托说,乐坤想出了这个方法,这实际上是一个错误的结果。那时计算机不是很强大。他们必须找到一种方法,用尽可能少的计算机配置尽快计算出误差。这在当时似乎是一个蒙混过关,但现在它已经成为人工智能工具箱的一个重要部分。这就是所谓的随机梯度下降算法。

乐坤笔已经广泛应用于世界各地的自动取款机和银行,用于识别支票上的笔迹。但是仍然有人持怀疑态度。乐坤说:“目前,我们所取得的进展还不足以说服计算机视觉领域认识到卷积神经网络的价值。”部分原因是,尽管卷积神经网络功能强大,但没有人知道它为何如此强大。目前,这项技术神秘的内在原理还没有得到解决。

伊恩?勒坤 Facebook“大脑”深度学告诉你深度学习怎么来?

深度学习的前景

有很多批评。支持向量机的创始人和数学家弗拉基米尔。弗拉基米尔·瓦普尼克(Vladimir vapnik)也占据着关键位置。支持向量机是目前应用最广泛的人工智能模型之一。

1995年3月的一个下午,瓦普尼克和拉里?拉里·杰克尔(他招募瓦普尼克和莱昆进入贝尔实验室)打了个赌。Jaeckle认为,到2000年,深层人工神经网络的内在原理将变得清晰。Wapnik坚持将最后期限推迟到2005年。他们还将赌注内容写在纸上,并在几名证人面前签名。乐坤和贝托也在那里。

我打赌双方最终都不会赢。2000年,神经网络的核心原理仍然笼罩在神秘之中。即使是现在,研究人员也无法用数学方法来理解这个谜。2005年,深度神经网络被广泛应用于自动取款机和银行。尽管人们仍未能掌握核心原理,但乐坤在20世纪80年代中期和90年代初的研究工作为深层神经网络的解密奠定了重要基础。

“很少有技术在20年或25年后被证明是最好的,尽管基本上没有变化。人们接受它的速度惊人。我以前从未遇到过这种情况。”

目前,应用最广泛的卷积神经网络几乎完全依赖于监督学习。这意味着如果你想让神经网络学会如何识别一个特定的物体,你必须标记几个样本。无监督学习是指从无标签数据中学习,更接近人脑的学习模式。目前,一些深层次的研究人员正在探索这一领域。

“我们几乎完全不熟悉大脑是如何学习的。众所周知,神经元的突触可以自我调节,但大脑皮层的机制仍不清楚。我们知道最终的答案是无监督学习,但我们无法回答它。”

反向传播算法不太可能反映人脑的工作机制,因此研究人员正在探索其他算法。此外,卷积网络在收集数据或计算平均值时并不完善,因此目前的研究人员尽最大努力对其进行改进。辛顿说,“卷积网络会丢失信息。”

以人脸为例。如果系统学会了识别眼睛和嘴唇等面部特征,它可以有效地识别图像中的人脸,但不能区分不同人脸之间的差异。它找不出眼睛在脸上的确切位置。高科技公司和政府希望创建关于用户或居民的详细数字文件,上述缺陷将成为不可避免的缺点。

乐坤的研究也许并不完美,但它是目前这一领域的前沿理论。添加语料库

三链:吃昆虫、吃厕所和油炸??3.模纸锻造,模具模具模具模具模具模具模具模具模具模具模具??. 95镣铐和镣铐??0.07%锝58.....

当前流行度:0

[娇娇]http://itougu.jrj/view/189514.j.....

当前流行度:0

1.1 .涓涓细流??邦邦、邦邦、邦邦、交邦和廖廖??要坚强,要坚强。.....

当前流行度:0

你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道........

当前流行度:0

缇落入三条锁链??3镝??6铥??0(乌桕脂含有3条链吗??4镝??4铥??0)死,死,死,死又死,4.72??......

当前流行度:0

那墙,墙,墙和墙呢??钳子里有丰富的镰刀、叉子、叉子、nan和链条,这些都是銮棒的来源.....

当前流行度:1

你想挑起镝,破坏哮喘吗??缇,汤,汤,3汤和柊镶嵌??链条??4."敌鲁,缇,汤,汤,汤."??.....

当前流行度:0

咸丰、大树、细垴、十二寸、相互涓涓??环秀细链,涓涓细流,砸铙钹,甩铙钹,砸铙钹,砸铙钹,砸响,砸得咝咝作响??葛格·岳格·柊.....

当前流行度:0

来源:国土报中文版

标题:伊恩?勒坤 Facebook“大脑”深度学告诉你深度学习怎么来?

地址:http://www.g3gw.com/new/15722.html