1.1k 1 分钟

# 1. 只训练部分层 class RESNET_attention(nn.Module): def __init__(self, model, pretrained): super(RESNET_attetnion, self).__init__() self.resnet = model(pretrained) for p in self.parameters(): p.requires_grad = False self.f = nn.Conv2d(2048, 512, 1) self.g = nn.Conv2d(2048, 512, 1) self.h =...
2.8k 3 分钟

# 范数(norm) 几种范数的简单介绍 & data.norm()使用 1. 范数 (norm) 的简单介绍 1.1 L-P 范数 1.2 L0 范数 1.3 L1 范数 1.4 L2 范数 1.5 ∞- 范数 2. 矩阵范数 2.1 1 - 范数 2.2 2 - 范数 2.3 ∞- 范数 2.4 F - 范数 2.6 核范数 3. pytorch 中 x.norm (p=2,dim=1,keepdim=True) 的理解 3.1 方法介绍 3.2 函数参数 3.3 实例演示 3.3.1 dim 参数 3.3.2 keepdim 参数 #...
954 1 分钟

import torchimport randomimport numpy as npimport osdef set_seed(seed=1): # seed 的数值可以随意设置,本人不清楚有没有推荐数值 random.seed(seed) np.random.seed(seed) torch.manual_seed(seed) #根据文档,torch.manual_seed (seed) 应该已经为所有设备设置 seed #但是 torch.cuda.manual_seed (seed) 在没有 gpu 时也可调用,这样写没什么坏处 torch.cuda.manual_seed(seed)...
1.2k 1 分钟

注:训练过程常会出现上述方法,本文只是简单介绍他们的含义和作用,深层理解请跳至文档,或者 GIthub 查看源码,又或者网盘 ,提取码:pjrs,把下载好的 PyTorch 文档导入,则可以离线查看文档了,希望能帮到你。步入正文: PyTorch 深度学习框架在训练时,大多都是利用 GPU 来提高训练速度,怎么用 GPU(方法:.cuda ()): import DataSetfrom model.MyNet import MyNetfrom torch.utils.data import DataLoadertrain_dataset = DataSet() #...
1.3k 1 分钟

# Pytorch 函数 .expand ( ) 其将单个维度扩大成更大维度,返回一个新的 tensor,具体看下例: import torcha = torch.Tensor([[1], [2], [3],[4]])# 未使用 expand()函数前的 aprint('a.size: ', a.size())print('a: ', a)b = a.expand(4, 2)# 使用 expand()函数后的输出print('a.size: ', a.size())print('a: ', a)print('b.size:...
1.1k 1 分钟

pytorch 中的 transpose 方法的作用是交换矩阵的两个维度,transpose (dim0, dim1) → Tensor,其和 torch.transpose () 函数作用一样。 torch.transpose (): torch.transpose(input, dim0, dim1) → TensorReturns a tensor that is a transposed version of input. The given dimensions dim0 and dim1 are swapped. The resulting out tensor shares...
3.4k 3 分钟

先看代码: transforms.Compose([transforms.RandomResizedCrop(224), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])具体是对图像进行各种转换操作,并用函数 compose 将这些转换操作组合起来; 接下来看实例: 先读取一张图片: from PIL import Imageimg =...
979 1 分钟

# pytorch LSTM 中 output 和 hidden 关系 1.LSTM 模型简介 2.pytorch 中的 LSTM 3. 关于 h 和 output 之间的关系进行实验 # 1.LSTM 模型简介 能点进来的相信大家也都清楚 LSTM 是个什么东西,我在这里就不加赘述了。具体介绍模型结构的也有不少。 如何简单的理解 LSTM—— 其实没有那么复杂 人人都能看懂的 LSTM # 2.pytorch 中的 LSTM 这里附上一张 pytorch 官方文档的截图,h_n 和 c_n 我都理解分别是上图中横向箭头中的下方箭头和上方的箭头,那 output 是干什么用的?在学习...
2.2k 2 分钟

还有一个问题,output 的其他的值是怎么得到的呢?第二维度表示的 sel_len,即句子含有的单词数量,在下面的解析中使用的 - 1 代表了什么具体含义呢?仅仅使用了最后一步的输出作为作为最后一个最后一句的结果么? LSTM 定义的是网络,一个神经元接受的不是一个数,而是一个向量,所以在构造函数中有 input_size,即说明了向量的大小情况。但是神经元输出的是一个数,最后的结果是最后一层神经元输出的数组成的向量。 # LSTM...
3.2k 3 分钟

# 本文大纲 os 模块是 Python 标准库中一个重要的模块,里面提供了对目录和文件的一般常用操作。而 Python 另外一个标准库 ——shutil 库,它作为 os 模块的补充,提供了复制、移动、删除、压缩、解压等操作,这些 os 模块中一般是没有提供的。但是需要注意的是:shutil 模块对压缩包的处理是调用 ZipFile 和 TarFile 这两个模块来进行的。 # 知识串讲 本文所使用的素材,都是基于以下 2 个文件夹,其中一个文件夹为空。 # 1)模块导入 import shutil# 2)复制文件 函数:shutil.copy...