问题标签 [gpt]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - GPT2Simple 运行时出现问题
我正在尝试运行此 GPT2Simple 示例,但出现错误
这是代码,取自https://github.com/minimaxir/gpt-2-simple
我还从 Tensorflow 2.0 降级到了 Tensorflow 1.15,因为存在问题tf.contrib
或其他问题
html - Google Ad Manager - DFP:我可以从单个 Google DFP GPT 广告位投放多种尺寸吗?
我正在尝试了解如何实施 DFP 广告位并在我的页面上调用它们。首先我想澄清一点,谷歌 DFP参考说每个广告位每页只能调用一次,但它并没有说是否允许整个广告位在每页或具有特定尺寸的广告位调用一次,即/networkID/gptAdSlot (728x90)
一次每页以及/networkID/gptAdSlot (300x250)
每页一次?
如果允许一个广告位每页调用一次,那么我可能必须为同一个网页的多种尺寸创建多个广告位,我试图避免这种情况,而我想做的是我想使用一个广告位对于一个页面,但我的页面肯定不会在一个位置有一种尺寸的广告。我的页面将在该位置有多个尺寸的广告。
因此,我对如何调用结构感到困惑?一个广告位可以在同一个页面中满足多种尺寸吗?还是我需要多个广告位来在同一页面中投放多种尺寸的广告?
另一个问题是,如果 gpt adSlot 支持多种尺寸,那么它是否可以提供所有尺寸,而与 970x90 和 300x600 等系列无关?或者是否需要将其设置为仅当广告位属于同一系列时才能投放多种尺寸,即投放 300x250 的广告位可以投放 300x600 以及在最大尺寸 (H x W) 范围内的任何较小尺寸提及?
考虑到<div>
我们在 body 上的尺寸是固定的,因此我希望 gpt 根据整个页面中的 div 尺寸来投放广告素材,这将确保单个 gpt 广告位可以在各自<div>
的广告位中投放多个尺寸的广告素材根据匹配时的尺寸。
*值得一提的是,没有一个<div>
会调用不会出现在 gpt 广告位中的尺寸。
让我知道,因为我被严重卡住了。
github - 了解存储库 gpt 转换器
对于我的项目,我需要了解并能够使用 GPT 转换器语言模型执行有关常识生成的这个github 存储库。它非常广泛,我没有足够的编程经验来理解这一切。有没有人擅长这些科目可以指导我/帮助我?
或者,还有其他地方我可以发布这个问题吗?
resize - cloud-init 使用 gpt 代替 mbr 的问题
我下载了 iso "CentOS-7-x86_64-GenericCloud-2009.qcow2" 用于为 kvm 容器 Proxmox 创建 Centos 7 模板。
一切正常。但是,如果我在克隆容器时分配了一个超过 2TB 的磁盘,那么 cloud-init 会将磁盘大小调整为 2TB 的限制,因为磁盘类型是 mbr 而不是 gpt。
这是我的 /etc/cloud/cloud.cfg
当我启动克隆的容器时,忽略我的 conf 并使用 mbr 将分区 / 调整为 2TB。
你能帮我吗?
adsense - 如何为同一页面上的多个广告展示位置设置 DFP GPT 广告位?
我是 Google Ad Manager (DFP) 的新手,在设置我的 DFP 广告资源结构和在页面上实施时几乎不需要任何帮助。考虑到我的网站是一个小型新闻网站,我的网站有 5 个部分 - 世界/商业/政治/娱乐/体育。每个部分至少有 3-5 个广告展示位置,包括一些尺寸相同的展示位置,即体育部分有两个 300x250 展示位置,而政治部分有三个 728x90 展示位置。
我采用的方法是在 DFP 中创建五个广告位,如下所示 -
/12345678/website.com/world
/12345678/website.com/sports
/12345678/website.com/business
/12345678/website.com/entertainment
/12345678/website.com/politics
现在我在这里面临的更大挑战是,我应该打电话给
我的页面正文将被编码为 -
我还尝试了另一个版本,方法是使用他们唯一的子广告单元调用 gpt 广告位。
nlp - Transformer 编码器与 Transformer 解码器与 Transformer 编码器-解码器之间有什么区别?
我知道 GPT 使用 Transformer 解码器,BERT 使用 Transformer 编码器,而 T5 使用 Transformer 编码器-解码器。但是有人能帮我理解为什么 GPT 只使用解码器,BERT 只使用编码器,而 T5 两者都使用吗?
你可以用没有解码器的编码器,没有编码器的解码器,以及编码器和解码器来做什么?
我是 NLP 的新手,所以任何帮助都会很好:D 谢谢!
python - colab中断训练时gpt2模型数据不保存
我使用 google colab 进行 gpt 训练。我告诉它将检查点保存到我的谷歌驱动器文件夹中:
所以我的假设是,当 colab 中断会话时,我将能够加载检查点并从中生成一些文本:
但我得到一个例外,即实际模型不存在:
它确实不存在,也不在垃圾箱中:
当 colab 中断会话时,我可以做些什么来避免丢失我的训练进度?
google-dfp - 为什么我会收到“无效的 GPT 固定大小规范”
我越来越:
无效的 GPT 固定大小规范:[[[1024,0],[970,90]],[[768,0],[728,90]],[[330,0],[320,50]]]
我的尺寸映射代码如下所示:
有什么不好看的吗?
python - AttributeError:模块转换器没有属性 TFGPTNeoForCausalLM
我克隆了这个存储库/文档https://huggingface.co/EleutherAI/gpt-neo-125M
无论是在谷歌协作还是本地运行,我都会收到以下错误。我还使用它安装了变压器
并确保配置文件命名为 config.json
完整代码:
变压器-cli 环境结果:
transformers
版本:4.10.0.dev0- 平台:Linux-4.4.0-19041-Microsoft-x86_64-with-glibc2.29
- Python版本:3.8.5
- PyTorch 版本(GPU?):1.9.0+cpu(假)
- TensorFlow 版本(GPU?):2.5.0(假)
- Flax 版本(CPU?/GPU?/TPU?):未安装(NA)
- Jax 版本:未安装
- JaxLib 版本:未安装
- 在脚本中使用 GPU?:
- 在脚本中使用分布式或并行设置?:
协作和本地都有 TensorFlow 2.5.0 版本