“深度学习”所有资料在5月10日(周一)推出,内容包括深度学习基本概念、前馈神经网络和误差后向传播(error back-propagation)、卷积神经网络与其在自然语言词向量模型和视觉分析中的应用等。
深度学习是目前人工智能在特定领域、特定任务中获得成功的一种基本模型。通过本次课程学习,希望同学们能够了解在标注大数据驱动下,深度学习模型如何通过梯度下降和误差后向传播来自动调节模型参数、优化模型,架构起“端到端(end-to-end)”的“逐层抽象、层层递进”的学习机制。
赫布理论(Hebbian theory)指出“神经元之间持续重复经验刺激可导致突触传递效能增加(Neurons that fire together, Wire Together)”,这一“认为神经元之间突触的强弱变化是学习与记忆的生理学基础”理论为联结主义人工智能研究提供了认知神经心理学基础。
深度学习从标注大数据出发,不断调整优化前后相邻神经元之间的链接权重等参数,“记忆”数据中蕴含的复杂模式。当然,这一基于数据驱动的端到端学习机制使得深度学习被贴上了“黑盒子”、“炼金术”等桎梏标签。
这一轮人工智能的崛起,一定程度上是卷积神经网络这一深度学习模型在视觉对象分类等任务上取得了比传统方法更好效果而引起了业界广泛关注。典型的传统方法如稀疏表达(sparse representation)与支持向量机(SVM)结合起来的分类方法。
卷积神经网络通过卷积层、池化层和全连接层以及softmax等基本组件,对具有空间依赖度这一特点的像素点之间蕴含模式进行挖掘,实现视觉信息理解。
将深度学习模型应用于自然语言领域,也改变了传统以“单词词袋(bag-of-words)”来表达文档或以“one-hot”来表达单词的模式,开启了“分布式表达(distribution representation)”的“词向量(word vector)”模式。词向量是自然语言理解领域最近所取得的最大成果之一。
在“词向量”表达机制下,单词和单词之间可实现简单算术计算,如“中国”-“北京”=“法国”-“巴黎”,体现了“计算语言学”中“计算为大、语言渐微”的当前状况。当然,对自然语言的理解肯定离不开语言知识所提供的语法、语义和语用等方面先验知识。

