暂无搜索结果
-
1 机器学习概述
-
1.1 机器学习概述
-
1.2 机器学习定义
-
1.3 曲线拟合-回归和模型选择
-
1.4 总结
-
2 线性回归
-
2.1 线性回归
-
2.2 多项式回归
-
2.3 线性回归的概率视角
-
2.4 模型选择与偏差-方差分解
-
2.5 常用的定理
-
2.6 总结
-
3 最近邻与决策树
-
3.1 最近邻与决策树概述
-
3.2 分类问题
-
3.3 K近邻
-
3.4 基于规则的方法
-
3.5 决策树
-
3.6 总结
-
4 线性分类
-
4.1 线性分类概述
-
4.2 线性分类的定义
-
4.3 Fisher线性判别
-
4.4 感知器
-
4.5 概率模型
-
4.6 Logistic回归
-
4.7 Softmax回归
-
4.8 总结
-
5 核方法与支持向量机
-
5.1 核方法与支持向量机概述
-
5.2 分类模型的对偶表示
-
5.3 核技巧
-
5.4 支持向量机
-
5.5 优化
-
5.6 不可分数据
-
5.7 总结
-
6 无监督学习
-
6.1 无监督学习概述
-
6.2 聚类
-
6.3 K均值方法
-
6.4 层次聚类
-
6.5 (无监督)特征学习
-
6.6 主成分分析
-
6.7 编码与稀疏编码
-
6.8 自编码器
-
6.9 自监督学习
-
6.10 概率密度估计
-
6.11 非参密度估计
-
6.12 半监督学习
-
6.13 总结
-
7 前馈神经网络
-
7.1 前馈神经网络概述
-
7.2 神经元
-
7.3 神经网络
-
7.4 前馈神经网络
-
7.5 反向传播算法
-
7.6 计算图与自动微分
-
7.7 优化问题
-
7.8 神经网络与深度学习
-
7.9 总结
-
8 卷积神经网络
-
8.1 卷积神经网络概述
-
8.2 卷积
-
8.3 卷积神经网络
-
8.4 其它卷积种类
-
8.5 典型的卷积网络
-
8.6 卷积网络的应用
-
8.7 应用到文本数据
-
8.8 总结
-
9 循环神经网络
-
9.1 循环神经网络概述
-
9.2 给神经网络增加记忆能力
-
9.3 循环神经网络
-
9.4 应用到机器学习
-
9.5 参数学习与长程依赖问题
-
9.6 如何解决长程依赖问题
-
9.7 GRU与LSTM
-
9.8 深层循环神经网络
-
9.9 循环网络应用
-
9.10 扩展到图结构
-
9.11 总结
-
10 注意力机制
-
10.1 注意力机制概述
-
10.2 注意力机制
-
10.3 人工神经网络中的注意力机制
-
10.4 注意力机制的应用
-
10.5 自注意力模型
-
10.6 Transformer
-
10.7 总结
-
11 网络优化与正则化
-
11.1 网络优化与正则化概述
-
11.2 神经网络优化的特点
-
11.3 优化算法改进
-
11.4 动态学习率
-
11.5 梯度估计修正
-
11.6 参数初始化
-
11.7 数据预处理
-
11.8 逐层规范化
-
11.9 超参数优化
-
11.10 网络正则化
-
11.11 ℓ_1和ℓ_2正则化
-
11.12 暂退法(Dropout)
-
11.13 数据增强
-
11.14 总结
-
12 前沿报告(直播)
-
13 期末辅导与答疑(直播)
-
14 线下考试
选择班级