问题标签 [torchvision]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何在 PyTorch 中修改预训练的 Torchvision 模型以返回两个输出用于多标签图像分类
输入:十个“元音”的集合,十个“辅音”的集合,图像数据集,在每个图像中都写有一个元音和一个辅音。
任务:从给定图像中识别元音和辅音。
方法:首先在图像上应用 CNN 隐藏层,然后应用两个并行的全连接/密集层,其中一个将在图像中分类元音,另一个将在图像中分类辅音。
问题:我正在使用 VGG 或 GoogleNet 等预训练模型。如何修改该预训练模型以应用两个并行密集层并返回两个输出。
我尝试了两种不同的模型,但我的问题是我们可以修改这个任务的预训练模型吗?
现在我的模型只有一个“fc”层。我已经修改了最终“fc”层中的神经元数量,就像这样
但是我需要再添加一个 fc 层,以便两个“fc”层都与隐藏层并行连接。
现在模型只返回一个输出。
任务是从两个“fc”层返回两个输出,所以它应该看起来像这样
python-3.x - 需要有关在 PyTorch 中迁移学习更快的 RCNN ResNet50FPN 的帮助
我是 PyTorch 的新手。我正在尝试将预训练的 Faster RCNN torchvision.models.detection.fasterrcnn_resnet50_fpn() 用于对象检测项目。我创建了一个 CustomDataset(Dataset) 类来处理自定义数据集。
这是自定义类实现
这是 train_model 函数
在执行 model_ft = train_model(model_ft, criteria, optimizer_ft, exp_lr_scheduler, num_epochs=25) 我收到“RuntimeError: _thnn_upsample_bilinear2d_forward not supported on CUDAType for Byte”
pytorch - Problems setting up FastAi working on Colab
I'm trying to work through a tutorial on CycleGANs using the Colab platform but I'm struggling to find a way through the 'simple' part of just importing libraries.
I'm just trying to import the following:
I'm currently stuck with an error on the first line:
The code can be found online: https://colab.research.google.com/drive/1dMQWStzLfAHDTGuKaUNQn1aOBWeJw4FN
python - 对象检测torchvision:IOError:[Errno 2]没有这样的文件或目录:
我正在研究图像中的衣服检测。为此,我在 python 上使用包 TorchVision,我想从一个预训练模型开始,并为我的课程(不同种类的衣服)微调它。我的图像在一个 zip 文件中。当我运行函数 train_one_epoch 时,我收到此错误:
这是我的代码的一部分:
deep-learning - 如何在 PyTorch 中将 RGB 图像编码为 n_class One 热张量
所以,我正在做一个分割任务,我需要做的是将一个 RGB 图像转换为一个 n 通道一个热矩阵,用作 U-Net 模型的标签
我所做的是计算图像中的颜色。数量或颜色相当于类的数量。
我在 PerPixelClassMatrix 函数中尝试做的是遍历 Image 并制作一个 0 和 1 的 n 维矩阵,因为我有每个像素的颜色和类别。
我不想运行整个循环来生成 n 通道的一个热图像。有没有一种简单的方法来构建这样一个颜色已知的矩阵。
python - Pytorch 预训练模型无法识别我的图像
我有一个 torch.Tensor 格式的图像。我想将它直接输入到预先训练的分类器中,比如 Inception v3。
但是,它被错误地预测(没有错误消息,只是输出错误)。我想这是因为我没有对其进行规范化(根据:https ://pytorch.org/docs/stable/torchvision/models.html ),所以这就是我想要做的。
问题是,标准化需要 numpy 输入。但是,为了获得 numpy,我这样做了,但它给了我一个错误:
我不能调用分离,因为我需要渐变流过图像(由其他函数生成)。有没有办法绕过将其转换为 numpy. 如果没有,我如何保持梯度流?
python - ImportError:无法从“数据”(未知位置)导入名称“voc”
我一直在尝试从项目https://github.com/amdegroot/ssd.pytorch.git运行 ssd 代码, 但上述错误不断弹出。我猜目录有问题。请指导!!
我正在尝试导入以下文件但无法导入
这出现了当我尝试从上面的链接运行 ssd python 文件时,我得到了
所以基本上我猜有一些路径问题。
或者请告诉我应该将我的项目 python 文件和https://github.com/amdegroot/ssd.pytorch.git文件放在哪个目录中,以使上述导入语句在数据和 ssd 来自https://github 时起作用。 com/amdegroot/ssd.pytorch.git
PS:ssd 是 Single Shot MultiBox Detector,我正在使用 anaconda
python-3.x - 找不到满足要求的版本torch>=1.1.0(来自torchvision==0.3.0)
我正在尝试安装torchvision,并且正在使用轮文件来执行此操作,因为每次运行时pip install torchvision
都会出现以下错误:
ModuleNotFoundError: No module named 'tools.nnwrap'
我下载了以下文件:
torchvision-0.3.0-cp37-cp37m-win_amd64.whl
尝试安装此文件时出现以下错误:
ERROR: torchvision-0.3.0-cp37-cp37m-win_amd64.whl is not a supported wheel on this platform.
stackoverflow 上的答案之一指出将文件重命名为 win32.whl,所以我也这样做了:
torchvision-0.3.0-cp37-cp37m-win32.whl
在此文件上运行安装时,我收到以下错误:
ERROR: Could not find a version that satisfies the requirement torch>=1.1.0 (from torchvision==0.3.0) (from versions: 0.1.2, 0.1.2.post1, 0.1.2.post2)
ERROR: No matching distribution found for torch>=1.1.0 (from torchvision==0.3.0)
matplotlib - Matplotlib Pylot - 图像以低分辨率显示(像素到像素)
当我显示我使用的数据集中的一些示例照片时,图像的预览以低分辨率显示(它们看起来像非常低分辨率的照片)。如何在不丢失分辨率的情况下显示图像?
这是我transformations
的用于将数据移动到张量并使用PyTorch
函数应用一些转换的方法:
然后我通过以下方式加载数据DataLoader
:
DataLoader
最后,我显示了一些使用对象检索的示例照片的预览:
ps 图片是tiff
格式的。
machine-learning - 在 pytorch 中的相关类之间共享梯度
我正在实现一个具有多标签预测的分类器。目前只有5个班。以下是代码片段。到目前为止,我没有任何问题。
但我想进一步扩展它,共享相关任务之间的梯度(由编码任务之间相关性的矩阵W约束)。例如:有五个不同的类a、b、c、d、e。我计算了 a 错误分类的梯度并更新了参数。从矩阵W我发现任务e也是相关的。我还想用计算的梯度更新任务e的参数,同时用W编码的速率预测a。这里W是预先计算和固定的。
我不知道如何在 PyTorch 中做到这一点。如果有人可以帮助我,我将不胜感激。