之前我们完成线性回归模型的时候, 在训练的时候是一下子把所有的数据都输入模型的, 但是在深度学习的时候, 数据量一般都是极大的, 我们无法一次性将数据加载到内存中, 于是就有了数据...
Pytorch入门教程08-激活函数介绍
上一篇我们主要讲了线性回归问题. 但是, 有很多问题不是线性函数可以解决的, 这个时候需要引入了激活函数来解决非线性的问题. 同样, 常见的激活函数已经在Pytorch中定义好了,...
Pytorch入门教程07-Pytorch实现完整线性回归
在这一部分, 我们会首先说明使用Pytorch进行模型的定义, 使用nn.Linear来完成线性模型的定义, 再结合之前的损失函数和优化器, 给出一个完整的线性回归的例子
Pytorch入门教程06-损失函数和优化器
在之前的内容中, 我们通过自己定义的损失函数和系数更新的方法来更新系数. 但其实在Pytorch中, 已经包含了相应的函数, 可以直接来计算损失, 和完成梯度下降. 所以在这一部分...
Pytorch入门教程05-梯度下降算法
之前我们讲了如何求梯度, 如何使用Pytorch求解梯度. 这里我们介绍梯度下降法, 用一个例子, 介绍如何优化参数.
Pytorch入门教程04-非叶子节点梯度保存
这里主要介绍在Pytorch中Hook的使用, 我们可以用其来保存非叶子节点的梯度.
Pytorch入门教程03-正向传播与反向传播
这一篇主要通过一个例子, 来介绍正向传播与反向传播的相关内容.
Pytorch入门教程02-梯度的求解
这一篇介绍一下使用Pytorch来求解梯度. 会给出一个例子, 我们自己推导一遍梯度的求导, 然后与Pytorch的autograd的结果比较.
Pytorch入门教程01-张量(Tensor)的介绍
这一篇是Pytorch快速入门的第一篇, 主要介绍Pytorch中张量的相关操作, 张量的类型, 张量的运算, 和CPU与GPU相互转换.
强化学习的一些应用-通用领域
这一篇文章介绍使用强化学习在一些通用的问题上的应用, 例如强化学习解决数据不平衡的问题, 强化学习解决feature cost的问题. 这些都不是局限在一个领域, 希望可以有所启发...
10