问题标签 [roberta]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
calliope - 对 Calliope mini 进行编程的 roberta 语言的 if 语句中的错误?
我正在尝试使用提供的编辑器之一 Roberta,图形界面 ( https://lab.open-roberta.org/ ) 在新发布的 Calliope 迷你计算机平台 ( https://calliope.cc/ ) 上进行编程。
检查是否按下某个键并输出 hello world 消息的简单程序无法正常运行。同时,消息的直接输出以及使用“始终为真”条件 (1==1) 的输出和 if 语句都有效。
其他编辑器如https://miniedit.calliope.cc/可以毫无问题地处理按键输入,因此我可以排除任何硬件问题。
对我来说,罗伯塔似乎在与 if 语句相关的密钥处理中包含一个错误。
有没有人观察到类似的行为?
到目前为止,罗伯塔似乎还没有用户论坛。
附上截图和代码。感谢您的任何提示!
calliope - 如何获取列表(又名矩阵)中的列表?
lab.open-roberta.org
如何在用作系统中制作n维数据结构calliope
?似乎没有办法将变量声明为列表中的列表。作为一种解决方法,人们可以考虑制作一个列表,String
然后读取字符串所包含的字符——但似乎也没有办法做到这一点。这Image
是一个很好的矩阵,但它固定为 5x5 元素。有谁知道如何制作更复杂的数据结构(我知道一个 n 维列表可以存储在一维列表中,但作为人类很难阅读)。
python-3.x - PyTorch:“TypeError:在 DataLoader 工作进程 0 中捕获 TypeError。”
我正在尝试实现 RoBERTa 模型进行情绪分析。首先,我声明了 GPReviewDataset 来创建一个 PyTorch 数据集。
接下来,我实现create_data_loader
创建几个数据加载器。这是一个辅助函数:
但是,当我运行此代码时,它会停止并给出以下错误:
我不明白为什么会这样,谁能帮我解释一下。
nlp - 从 Huggingface 加载 Roberta 和 XLM_Roberta 模型后收到错误
我喜欢从优秀的“Huggingface”库中尝试不同的变形金刚。但是,当我尝试使用任何类型的“roberta”/“xlm”转换器时,我会收到以下错误消息。我的 Python 代码似乎适用于 bert-base 和 bert-large 模型,所以我想了解我可能需要如何调整它以使用这些变体。
例外:WordPiece 错误:词汇表中缺少 [UNK] 标记
我的代码在预训练的 BERT 模型之上添加了一个微调层。我之前使用过的所有 bert 模型对我正在分析的英语文本数据进行标记和处理都没有问题。我的 Python 知识正在增长,但我会将其描述为扎实的基础知识,但在此级别之上是零散的。请帮助我更好地理解这里的问题,以便我可以进行必要的调整,谢谢 - 马克
这是完整的错误消息,如果有帮助的话。
word-embedding - 如何从 RoBERTa 获得每个单词(令牌)的单个嵌入向量?
您可能知道,RoBERTa (BERT, etc.)
它有自己的标记器,有时您会得到给定单词的片段作为标记,例如嵌入»嵌入,#dings
由于我正在处理的任务的性质,我需要每个单词的单一表示。我如何得到它?
清除:
句子:“embeddings are good”--> 给定
输出 3 个单词标记:[embed,#dings,are,good] --> 4 个标记输出
当我对预训练的 RoBERTa 下句子时,我得到了编码的标记。最后,我需要每个令牌的表示。解决方案是什么?逐点求和嵌入 + #dings 标记?
roberta - 如何序列化和加载经过训练的 RoBERTa 模型?
我在 RoBerta 的基础上为 kaggle 中的比赛编写了代码,我想对其进行序列化以便能够复制结果,但我找不到如何做到这一点。和
这没用
我会很感激任何帮助,我留下笔记本结果的 链接在此处输入链接描述
nlp - Pytorch Roberta kernal 在运行“out = model(inputs)”时立即死亡
我有一个文本数据集,我对其进行了训练以获取tokernizer,称为“bert_tokenizer”。然后我尝试给出一个新词并把这个词嵌入出来。
最后一行失败out = model(input_ids=input)
,立即。错误:内核死了。我的训练数据集非常小,有问题吗?还是其他原因?
我在这里关注教程:https ://github.com/BramVanroy/bert-for-inference/blob/master/introduction-to-bert.ipynb
谢谢你。
nlp - 可以为标记器和模型使用不同的变压器模型吗?
我可以将 roberta 用于标记器,而将 bert 用于模型吗?
nlp - 预训练的 roberta 关系提取属性错误
我正在尝试让以下预训练的拥抱脸模型工作: https ://huggingface.co/mmoradi/Robust-Biomed-RoBERTa-RelationClassification
我使用以下代码:
出于某种原因,在尝试生成输出时出现以下错误,因此在我的代码的最后一行:
--> 796 input_shape = input_ids.size() 797 elif inputs_embeds 不是 None: 798 input_shape = inputs_embeds.size()[:-1]
AttributeError:“列表”对象没有属性“大小”
输入如下所示:
我不知道如何调试这个,所以欢迎任何帮助或提示!