9.9k 9 分钟

# softmax 回归 🏷 sec_softmax 在 :numref: sec_linear_regression 中我们介绍了线性回归。 随后,在 :numref: sec_linear_scratch 中我们从头实现线性回归。 然后,在 :numref: sec_linear_concise 中我们使用深度学习框架的高级 API 简洁实现线性回归。 回归可以用于预测多少的问题。 比如预测房屋被售出价格,或者棒球队可能获得的胜场数,又或者患者住院的天数。 事实上,我们也对分类问题感兴趣:不是问 “多少”,而是问...
24k 22 分钟

# 引言 🏷 chap_introduction 时至今日,人们常用的计算机程序几乎都是软件开发人员从零编写的。 比如,现在开发人员要编写一个程序来管理网上商城。 经过思考,开发人员可能提出如下一个解决方案: 首先,用户通过 Web 浏览器(或移动应用程序)与应用程序进行交互; 紧接着,应用程序与数据库引擎进行交互,以保存交易历史记录并跟踪每个用户的动态; 其中,这个应用程序的核心...
5.9k 5 分钟

# 暂退法(Dropout) 🏷 sec_dropout 在 :numref: sec_weight_decay 中, 我们介绍了通过惩罚权重的L2L_2L2​ 范数来正则化统计模型的经典方法。 在概率角度看,我们可以通过以下论证来证明这一技术的合理性: 我们已经假设了一个先验,即权重的值取自均值为 0 的高斯分布。 更直观的是,我们希望模型深度挖掘特征,即将其权重分散到许多特征中, 而不是过于依赖少数潜在的虚假关联。 #...
11k 10 分钟

# 实战 Kaggle 比赛:预测房价 🏷 sec_kaggle_house 之前几节我们学习了一些训练深度网络的基本工具和网络正则化的技术(如权重衰减、暂退法等)。 本节我们将通过 Kaggle 比赛,将所学知识付诸实践。 Kaggle 的房价预测比赛是一个很好的起点。 此数据集由 Bart de Cock 于 2011 年收集 :cite: De-Cock.2011 , 涵盖了 2006-2010...
7.9k 7 分钟

# 多层感知机 🏷 sec_mlp 在 :numref: chap_linear 中, 我们介绍了 softmax 回归( :numref: sec_softmax ), 然后我们从零开始实现了 softmax 回归( :numref: sec_softmax_scratch ), 接着使用高级 API 实现了算法( :numref: sec_softmax_concise ), 并训练分类器从低分辨率图像中识别 10...
886 1 分钟

# 多层感知机的简洁实现 🏷 sec_mlp_concise 本节将介绍 (通过高级 API 更简洁地实现多层感知机)。 import torchfrom torch import nnfrom d2l import torch as d2l# 模型 与 softmax 回归的简洁实现( :numref: sec_softmax_concise )相比, 唯一的区别是我们添加了 2 个全连接层(之前我们只添加了 1 个全连接层)。 第一层是 [隐藏层],它 (包含 256 个隐藏单元,并使用了 ReLU 激活函数)。 第二层是输出层。 net =...
2.1k 2 分钟

# 多层感知机的从零开始实现 🏷 sec_mlp_scratch 我们已经在 :numref: sec_mlp 中描述了多层感知机(MLP), 现在让我们尝试自己实现一个多层感知机。 为了与之前 softmax 回归( :numref: sec_softmax_scratch ) 获得的结果进行比较, 我们将继续使用 Fashion-MNIST 图像分类数据集 ( :numref: sec_fashion_mnist )。 import torchfrom torch import nnfrom d2l import torch as d2lbatch_size =...