问题标签 [gpt-3]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
keras - 如何使用 GPT 3 进行文本分类?
我想知道是否可以在文本分类问题中使用 OpenAI GPT-3 进行迁移学习?如果是这样,我怎样才能开始使用 Tensorflow,Keras。
artificial-intelligence - 谁有权访问 OpenAi API GPT-3?
大家好,我注意到 OpenAi 发布了对其新 api GPT-3 的早期访问权限,我想知道你们中是否有人获得了访问权限
nlp - OpenAI API 和 GPT-3,不清楚如何访问或设置学习/开发?
我正在阅读大量 GPT-3 示例,并且遇到了许多代码示例。他们都没有提到我自己可以如何以及在哪里运行和使用代码......尤其是没有提到我不能。
所以我做了我的研究,并得出结论,我不能,但我可能错了:
- 没有办法在开发机器上运行本地“东西”,根据定义,它是一个托管服务(?)
- 截至目前(2020 年 10 月 11 日),OpenAI API 仅受邀测试(?)
我错过了什么?
(我也认识到这里没有 gpt-3 或 gpt-2 标签......并且很惊讶)
text - GPT-3 提示句子级和段落级文本摘要/文本缩短/文本重写
需要有效的 GPT-3 提示来完成这个“编程”任务。创建有效的 GPT-3 提示本质上已成为一种新的编程形式(给计算机指令以完成任务)。
GPT-3 提示的新的、不断增长的“编程”语言将会有存储库,例如:
https://github.com/martonlanga/gpt3-prompts
http://gptprompts.wikidot.com/start
https://github.com/wgryc/gpt3-prompts
请参阅下面的工作示例,它可以正常工作,但并不能真正解决需求,并且不够可靠。
这是一个重要的、新的、快速发展的领域。
寻求能够实现标题中目标的提示:以高可靠性总结/缩短句子和/或段落,而不会产生废话。
请审阅者,这对许多人来说是一个重要问题......不要心胸狭窄,并决定因为 GPT-3 提示不是(还)一种“传统”计算机语言,所以它们在这里没有一席之地.
谢谢您的帮助
示例 GPT-3 提示:
请总结以下文章。在特朗普威胁采取行动之际,微软正在就为字节跳动旗下的社交媒体集团收购 TikTok 进行谈判
知情人士表示,微软已就收购 TikTok 进行了谈判,其中国所有者字节跳动面临美国政府越来越大的压力,要求其出售该视频共享应用程序,否则将面临在该国被列入黑名单的风险。
...文章的其余部分...“””
问:能否请您用三句话概括以上文章?
python - Huggingface 变压器启动
我正在尝试复制此演示的结果,其作者仅使用以下文本对GPT-3 进行了初始化:
我只能通过 Huggingface Transformer 访问 GPT-2。如何在 Huggingface 上启动 GPT-2 以复制上述示例?问题是,有了这个,人们就无法分别使用输入和相应的输出进行初始化(正如上面 GPT-3 演示的作者所做的那样)。
同样,本教程描述了如何使用 Huggingface,但没有示例清楚地显示如何使用输入与输出示例来启动它。
有谁知道如何做到这一点?
期望的输出:使用 GPT-2 返回类似的东西,输入“potato”,输出“peel, slice, cook, mash, bake”(如 GPT-3 演示:https ://www.buildgpt3.com/post /41/ )。显然,输出动词的确切列表不会相同,因为 GPT-2 和 GPT-3 不是相同的模型。
nlp - 少数镜头学习期间 GPT2/GPT3 模型的变化
在迁移学习期间,我们采用预训练的网络和一些观察对(输入和标签),并使用这些数据通过反向传播来微调权重。然而,在一次性/少数镜头学习期间,根据这篇论文——“语言模型是少数镜头学习者”(https://arxiv.org/pdf/2005.14165.pdf),“不执行梯度更新”。那么 GPT2 和 GPT3 等模型在 one shot/few shot 学习过程中会发生什么变化?
python - 如何在 GPT-3 上保存预训练的 API?
我有一个关于 GPT-3 的问题。正如我们所知,我们可以为网络提供一些示例并“调整”模型。
- 向模型展示示例。
- 保存这些示例。
- 重用 API。
现在,当我对模型使用“给出”示例时,我有以下代码:
但是,我无法保存这个“预训练”的 API。每次我必须重新训练它 - 有没有办法重用它?
r - 从 R 访问 OpenAI (json) API
我想使用 R 中的以下 curl 命令访问 OpenAI API:
我认为 curl 包(在 CRAN 上)将是最好的选择(?)。我从来没有使用过这个包,所以任何人都可以帮助我开始这个简单的调用吗?
artificial-intelligence - 使用 AI 生成器提出问题来激发思考而不是给出答案?
我有一个用例,我想用它来帮助独立创作者利用他们的经验在 Twitter 上谈论他们的兴趣。
它是这样的:
你有兴趣谈论创业
你有类似疼痛的经历
有没有办法让人工智能(如 GPT)生成提示,使用这两个词来创建一个开放式问题列表,这些问题会引发如下想法:
- 如果创业不痛苦,它会是什么样子?
- 对于创业者应该知道的痛苦,你知道多少?
- 你怎样才能降低创业的门槛,让一个人接受创业的痛苦不那么痛苦?
如果是这样,它将如何工作,我需要做什么?
我在 GPT-3 上探索了 Open AI 的文档,我不清楚它是否解决了生成提示的问题。
谢谢!
machine-learning - 根据新数据微调 GPT-2/3
我正试图集中精力在新数据集上训练 OpenAI 的语言模型。这里有人有这方面的经验吗?我的想法是用教科书提供 GPT-2 或 3(尽管我没有 API 访问 3),对其进行训练,然后能够用语言模型“讨论”本书的内容。我认为我不必更改任何超参数,我只需要模型中的更多数据。
可能吗??
非常感谢任何(也是概念性的)帮助!