PyTorch爬坑指南
用PyTorch也有个把年头了,但是偶尔还是会出现各种各样的bug,当bug积累到一定数量就会引起质变——写成一个笔记来长记性……
Tensor的转置
tensor的转置有很多方式,比如.transpose
、.transpose_
是最常用的(带下划线的是在原tensor上做改变),但是这个转置方式有个限制就是仅能对两个维度进行操作,是个“根正苗红”的转置函数。
有时候需要将更多的维度进行交换,这个时候就可以用.permuate
函数,该函数接受一个维度列表,然后根据列表中的维度的排列顺序更新tensor的维度排列。
nn.Linear
的坑人之处
全连接层常用的nn.Linear
实际上就是将weight和输入的inputs做一个矩阵乘法,然后加上bias(如果有的话)。所以当我们想在模型中添加一个纯矩阵运算的时候,往往会想到用不带bias的nn.Linear
。然而谁知道这最简单的模块也会存在坑……
假设我们有一个输入形状为batch×32
的输入矩阵,然后想通过矩阵运算将其变成形状为batch×16
的输出,那么就会就会这么做:
1 | inputs = torch.rand(batch, 32) |
我们一直这么使用,这样的实现方式也是十分自然的。可是当我们现在手上有一个具有特殊性质的张量pretrained
,并希望用这个张量填充matrix,我们会想当然地这么做:
1 | # 反例! |
不出意外,PyTorch会抛出一个RuntimeError
,并说运算过程中两个做乘法的矩阵不满足矩阵乘法的要求。
经过仔细的debug,我终于发现了问题的所在。让我们看一下在PyTorch源码中,nn.Linear
是怎么初始化的:
1 | class Linear(Module): |
可以发现,self.weight
的形状是我们之前预期形状的转置!╮(╯▽╰)╭所以正确的填充方法应该是这样的:
1 | # 正例√ |
升维和降维
升维.unsqueeze
是在指定的维度上插入一维,但是数据实际上没有发生变化。比如下面得示例:
1 | In [1]: a |
降维.squeeze
是升维得逆操作,会消除所有维度为1的维度:
1 | In [1]: a.shape |
Tensor的contiguous
一个Tensor执行转置操作后,实际上数据并没有发生任何变化,只是读取数据的顺序变化了。这是一种节约空间和运算的方法。
不过转置之后的数据如果需要进行.view
等操作的话,由于数据在逻辑上并不连续,因此需要手动调用contiguous
让数据恢复连续存储的模样。
tensor.expand
函数
PyTorch有和Numpy一样的广播方式,可以将一个较小维度的数据广播为高维数据,其中有一个叫expand
的函数就能实现这个功能。
1 | In [1]: a = torch.arange(0, 4).view(1, -1) |
只不过这个函数存在一些需要注意的点。
-1
表示原来的数据宽度- 如果需要在某一个已存在的维度上进行扩展,那么该维度的tensor宽度只能是1。换句话说,数据宽度为1的tensor可以扩展为任意维度。
- 如果需要将原来的tensor扩展到更高维,那么新拓展的维度一定需要放在前面(高维),如果需要改变排序方式,可以用类似
.permute
的其他函数。 - __扩展之后的数据只是一种“视图”,而不分配新的空间__。如果原来的tensor改变,那么扩展后的tensoer也会发生变化。就像下面这个例子。所以,必要时可以用
.copy
。
1 | In [10]: a |
Loss Functions的参数格式到底是啥啊
这个是早期经常会遇到的情况,咋一会要FloatTensor
,一会就要LongTensor
了?要解决这个问题,还是需要深入了解不同的loss function到底在做啥。
BCELoss
二分类的交叉熵,计算公式如下:
$$ \sum_{i}{-y_ilog\hat{y_i}-(1-y_i)log(1-\hat{y_i})} $$
这样就不难看出 $ y_i $ 和 $ \hat{y_i} $ 都需要是FloatTensor
了。如果是不同的tensor进行运算会出错:
1 | Expected object of type torch.FloatTensor but found type torch.LongTensor |
CrossEntropyLoss
上面的BCELoss
是计算二分类情况下的损失函数,那么当遇到多分类问题的时候,也想用交叉熵来计算的话,就需要用到CrossEntropyLoss
了。
不论是二分类还是多分类,都可以用最简单的L2损失来计算,但是如果使用
Sigmoid
作为激活函数的话容易导致梯度消失,导致效果不好
CrossEntropyLoss
输入参数的形状一直让我很头疼。比如最简单的例子:
1 | In [1]: inputs = torch.randn(3, 5) |
一切安好。这很容易让我们想到,只要batch
那一维度对应上就没有太大的问题了。于是对应到高维操作,假设有一个任务,输入张量inputs
的形状是(seq_len, batch, dim)
,目标张量targets
的形状是(seq_len, batch)
,尝试一下:
1 | In [4]: seq_len, batch, dim = 3, 4, 5 |
居然报错了……
实际上之前偷懒的解决方式都是用view
把inputs
碾平到2维……暂且不考虑CrossEntropyLoss
的内部操作,碾平的操作本身就很不优雅。于是参考高阶处理方式。
官方文档给出的API说明是这样的:输入参数有Input
和Target
,前者的形状可以是$(minibatch,C,d_1,d_2,\dots,d_k)$,后者的形状是$(minibatch,d_1,d_2,\dots,d_k)$,其中$C$表示需要模型分类的类别数。
根据API的定义,之前的任务应该这样实现:
1 | # inputs = torch.randn(seq_len, batch, dim) |
自定义网络一定要初始化权值
权值不初始化会出事的……
有时候会遇到一些结构清奇的网络,各种参数纠缠在一起,因此torch自带的函数可能不够用,那就需要自定义网络结构了。一般会从最底层的矩阵开始构建,就像tensorflow一样。比如定义一个不带偏置项的全连接层可以用nn.Linear(xxx, xxx, bias=False)
。但特殊情况下甚至连全连接层内部的细节都要自己定义,这个时候就需要参考torch的源码了,比如全连接层的部分源码:
1 | class Linear(Module): |
在这个例子中已经能学到很多了,这里重点参考Parameters
的使用(out_feature在前)和权值初始化函数reset_parameters
的内部细节。
之前一次机器学习的作业,相同的模型,PyTorch版始终达不到Tensorflow版的准确率,大概就是权值初始化两者存在差异吧。
CUDA的一些坑
自定义的网络不会自动转cuda??
之前有用过自己先定义了一个简单的底层网络,方便上层网络的构建。这样定义出来的网络在CPU上运行的好好的,但是当我把模型迁移到GPU上时却发现模型出现了类型不符的错误:
1 | Expected object of type torch.FloatTensor but found type torch.cuda.FloatTensor for argument |
后来在调试的时候发现对上层网络调用.cuda
后,下层网络却还是处于device(type='cpu')
!虽然解决这个问题最简单的方法就是把底层网络的定义放到上层网络中,但是这样不利于代码的维护,并且在不同网络中共享模块也会变得很复杂。
PyTorch在CPU和GPU数据上的迁移的确没有tensorflow来的方便……
在GitHub上看到很多类似的问题的解决方法,其中有一个点子很不错:
1 | if torch.cuda.available(): |
如果一开始写代码的时候就考虑到自动CUDA的话,这的确是个好办法,如果已经写了臃肿的代码再改写还是会很繁琐。
最终我选择的方案还是重写.cuda
函数:
1 | def cuda(self, device=None): |
在.cuda
函数中对子模块也调用.cuda
就可以了。
CUDA数据不能直接转numpy数据
如果一个数据已经迁移到GPU上了,那么如果要将运算结果转为符合numpy特性的数据就不是这么直接的了,一般会报错:
1 | TypeError: can't convert CUDA tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first. |
解决方案报错信息已经给了。当然还可以将之后需要numpy来帮忙的运算改成PyTorch支持的运算,这样速度还更快呢,毕竟条条大路通罗马。
爱因斯坦简记法
偶然间看到一个十分有趣的矩阵、向量、标量的计算方法:torch.einsum
。这是由爱因斯坦提出的简记法。
假设有矩阵:$A_{i \times j}$、$B_{i \times j}$、$C_{j \times k}$。
矩阵乘法可以表示为torch.einsum("ij, jk -> ik", A, C)
;
逐点乘法可以表示为torch.einsum("ij, ij -> ij", A, B)
;
矩阵转置可表示为torch.einsum("ij -> ji", A)
;
如果矩阵是方阵的话,提取对角线元素可以用torch.einsum('ii -> i', sq)
;获得方阵的迹可以用torch.einsum('ii ->', sq)
;
矩阵降维可以用:torch.einsum('ij -> i', sq)
或者torch.einsum('ij -> j', sq)
;更高维也是如此;
其实Numpy也有这样的函数:np.einsum
,并且似乎比PyTorch的计算速度快很多。下面是测试代码:
1 | In [1]: %timeit _ = torch.einsum('ij, jk -> ik', aten, bten) |
虽然使用einsum十分简洁,但是从速度上考虑,还是老老实实用最初级的API吧……