问题标签 [word-sense-disambiguation]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
200 浏览

java - Java 中缺少 babelfy.properties

我正在尝试使用 BabelFy 消除单词列表的歧义。我从 Babelfy 的 API 页面中提供的示例开始。但我从 Babelfy 得到了关于“密钥”的错误。我已经用密钥填充了文件。但它说它是空的。

这是我的代码:

这是属性文件

在此处输入图像描述

0 投票
1 回答
910 浏览

machine-learning - WSD任务的细粒度和粗粒度分数之间的区别?

在所有 Senseval 和 SemEval 任务中,报告了两个分数 - 细粒度和粗粒度。它们在语义消歧的背景下是什么意思?

0 投票
0 回答
101 浏览

java - 如何在 servlet 中使用 Babelfy 或 Balnet Java API?

我正在开发一个能够计算词对之间语义距离的 Web 应用程序,当然我使用的是 Java API 版本 3.7 BabelNet 和 Babelfy。用户以网页的形式插入一个句子(输入)并调用一个处理它的 servlet。我的问题是它没有找到包含所有属性文件的“config”文件夹,我试图将它放在 WEB-INF 文件夹或其他文件夹中,但它不起作用。我的 IDE 是 Eclipse,服务器是 Tomcat。有没有人有什么建议?提前谢谢这是错误

0 投票
1 回答
322 浏览

nlp - 在 Wordnet 上使用 meronym/holonym 边缘测量相似度

堆栈溢出!

我在堆栈上搜索,但我没有找到任何关于我的疑问的回复。我的问题如下:

Wordnet 有任何相似性度量,它同时探索(导航)全名/meronym 和 hypernym/hyonym 边缘?我发现只有在 Wordnet 上寻找常见上位词顶点的措施......

我的问题不包含代码片段,仅与 Wordnet 功能有关。

更新:我正在寻找一种不仅使用“is-a”来查找语义比较的两个概念的度量。我想要一些措施,在某些情况下,对于“绑定”两个概念允许“跳过”“is-a”分类法,直到达到最接近的上位词,并在一些正当的理由下选择“成员”(全名/meronyms)分类法中的导航。

提前致谢。

0 投票
1 回答
238 浏览

nlp - 如何提取英语口语短语和表达的含义

我正在研究提取日常生活中使用的表达的含义。例如,对于人类来说,这句话显然The meal we had at restaurant A tasted like food at my granny's.意味着食物很美味。

我如何使用工具或技术来提取这个含义?

到目前为止,我发现的方法是首先使用 Stanford CoreNLP POS 标记提取短语,然后使用 Word Sense Induction 工具推导出短语的含义。但是,由于 WSI 工具用于在单词具有多种含义时获取其含义,​​因此我不确定它是否是最好的工具。

提取含义的最佳方法是什么?或者是否有任何工具可以识别短语并提取其含义?

任何帮助深表感谢。提前致谢。

0 投票
1 回答
419 浏览

lstm - PyTorch - 使用 LSTM 的 WSD

我正在尝试使用 PyTorch 使用神经模型复制Google 关于 WSD 的研究论文。

在对大型数据集进行训练之前,我在处理模型时遇到了一些问题。

使用这个训练集:

这部电影还打算成为三部曲中的第一部。

这个模型定义:

这个训练程序:

在训练过程中,模型似乎能够在第 21 个 epoch 之后过拟合,从以下分数可以看出(预测中的前 5 个单词和一行中的最后一个单词是该句子的标签):

[('The', 11.362326), ('film', 11.356865), ('also', 7.5573149), ('to', 5.3518314), ('intended', 4.3520432)]

[('film', 11.073805), ('The', 10.451499), ('also', 7.5498624), ('was', 4.9684553), ('be', 4.0730805)] 电影

[('was', 11.232123), ('also', 9.9741745), ('the', 6.0156212), ('be', 4.9949703), ('The', 4.5516477)]

[('also', 9.6998224), ('was', 9.6202812), ('The', 6.345758), ('film', 4.9122157), ('be', 2.6727715)]

[('intended', 18.344809), ('to', 16.410078), ('film', 10.147289), ('The', 9.8423424), ('$', 9.6181822)]

[('to', 12.442947), ('intended', 10.900065), ('film', 8.2598763), ('The', 8.0493736), ('$', 4.4901967)] to

[('be', 12.189278), ('also', 7.7172523), ('was', 7.5415096), ('the', 5.2521734), ('the', 4.1723843)] 是

[('the', 15.59604), ('be', 9.3750105), ('first', 8.9820032), ('was', 8.6859236), ('also', 5.0665498)]

[('first', 10.191225), ('the', 5.1829329), ('in', 3.6020348), ('be', 3.4108081), ('a', 1.5569853)] 第一

[('in', 14.731103), ('first', 9.3131113), ('a', 5.982264), ('trilogy', 4.2928643), ('be', 0.49548936)] in

[('a', 14.357709), ('in', 8.3088198), ('trilogy', 6.3918238), ('first', 6.2178354), ('intended', 0.95656234)]

[('trilogy', 14.351434), ('a', 4.5073452), ('in', 4.2348137), ('$', 3.7552347), ('intended', 3.5101018)] 三部曲

[('.', 18.152126), ('$', 12.028764), ('to', 9.6003456), ('intended', 8.1202478), ('The', 4.9225812)] 。

当运行另一个加载模型并查询以下单词的 Python 脚本时(使用相同的代码在训练期间打印出分数):

这部电影还打算成为三部曲中的第一部。是

这部电影也打算成为三部曲中的第一部。曾是

$电影也打算成为三部曲中的第一部。这

我得到这些分数:

[('film', 24.066889), ('$', 20.107487), ('was', 16.855488), ('a', 12.969441), ('in', 8.1248817)]

[('film', 24.089062), ('$', 20.116539), ('was', 16.891994), ('a', 12.982826), ('in', 8.1167336)]

[('film', 23.993624), ('$', 20.108011), ('was', 16.891005), ('a', 12.960193), ('in', 8.1577587)]

我也尝试过设置False模式model.train(),使用model.eval()以及调用topkLSTM 分数,但结果并不令人满意,

0 投票
1 回答
2588 浏览

python - 如何使用 gensim 工具包找到一个词或多词释义的同义词

使用 gensim 工具包加载了预训练的 word2vec 模型后,我想找到一个给定上下文的单词的同义词,例如“她是一个聪明的人”。

0 投票
1 回答
46 浏览

nlp - 如何从词嵌入中恢复某个词出现在给定上下文中的可能性?

我知道一些生成词嵌入的方法(例如 CBOW)是基于预测给定词出现在给定上下文中的可能性。我正在使用波兰语,这在分割方面有时会模棱两可,例如“Coś”可以被视为一个单词,也可以被视为两个单词(“Co”+“-ś”),具体取决于上下文. 我想要做的是创建一个上下文敏感的标记器。假设我有前面上下文的向量表示,以及所有可能的分割,我可以以某种方式计算或近似特定单词出现在这个上下文中的可能性吗?

0 投票
1 回答
172 浏览

nltk - 为什么 WSD 不匹配 WordNet?

我正在掌握 WSD 和 WordNet,我正在尝试找出它们输出不同结果的原因。我在使用下面的代码时的理解是 disambiguate 命令指定了最有可能的 Synset:

这给了我以下输出

由此,我觉得奇怪的是“我”这个词被返回为“无类型”,因为在 WordNet 中查找这个词时,我得到了四种可能的解释之一。当然,“我”应该至少对应其中一个?

0 投票
1 回答
150 浏览

python - 我们如何使用 word2vec 表示来实现词义消歧?

我知道 word2vec 是如何工作的,但是我在找出如何使用 word2vec 实现词义消歧时遇到了麻烦。你能帮忙处理一下吗?