问题标签 [mediawiki-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
wikipedia-api - 如何使用 MediaWiki API 在页面标题和内容中搜索文本?
我不确定是否真的可以这样做,因为我只能找出如何搜索这样的标题:
php - 如何使用 API 获取带有绝对 URL 的维基百科页面 HTML?
我正在尝试使用此代码通过 wikipedia API 检索文章
我可以在我的网站上查看内容,一切都很好,但是我检索到的文章中的链接有问题。如果您打开网址,您会看到所有链接都以 href=\"/ 开头,这意味着如果有人点击文章中的任何相关链接,它会将他重定向到www.mysite.com /wiki/..(错误 404)en.wikipedia.com /wiki/.. 是否有任何代码可以添加到现有代码中来解决此问题?
web - 使用 MediaWiki API 下载图像?
是否可以使用 MediaWiki API 从维基百科下载图像?
api - 从某个页面上的部分获取文本
我知道如何进行 API 调用来获取整个页面的文本,就像这样,但是有没有办法(无需解析 wiki 标记)只从某个部分获取文本?
javascript - MediaWiki API:编辑部分而不破坏标题
我正在尝试编辑维基百科页面上的一个部分,但是当我这样做时,整个部分都会被我通过 URL 发送的任何文本甚至标题所取代,因此它不再是一个部分。有没有办法在不删除标题的情况下编辑部分?
到目前为止,我正在使用的功能(承认是从文档页面中窃取的)如下:
要获得我的编辑令牌,我使用
请帮忙!
jquery - JQuery getJSON 不起作用
我正在尝试通过 AJAX 从 Wikipedia 获取一些数据。在摆弄 API 一段时间后,我的请求 URL 实际显示了我需要的内容,即来自某个部分的文本。但是我的 AJAX 请求无法返回它。这是我的功能:
这与起源无关,因为我使用 Chrome 的 JS 控制台从 Wikipedia 页面启动我的函数。然而,当我写var someVariable = getSectionText(wgPageName, someNumber)
,然后尝试调用someVariable
时,Chrome 说它是“未定义的”。请帮忙!
示例 URL:我的沙盒,第一部分。
wikipedia - 是否可以获得超类别页面ID?
可以获得子类别的 id,使用
查询的参数list=categorymembers
。
但是我找不到一种方法来获取相同的超类别列表以进行prop=categorymembers
查询。
我试过了
以此类推,但失败了(此参数被忽略)。
python - 处理 unicode
我为 runescape wiki 开发了mwhair。不过,我一直遇到 unicode 的问题,只要有,让我们说一个看起来像这样的页面:
如果只是这样做mwhair.edit('Page above')
,我将收到一个 unicode 错误。
我尝试通过以下方式解决此问题:
这似乎是一个解决方案,因为不会出现错误,但它会更改页面的某些内容,例如将行更改为:
这不会影响任何链接、图片或实际页面输出,但会使机器人看起来好像有错误。有什么我搞砸或不知道的吗?(我使用的是 python 2.7.3)
jquery - 使用 Wikipedia API 在 Wikipedia 页面的信息框中提取第一张图像的选择器是什么
我希望使用 Wikipedia/Mediawiki API 提取 infobox 中的第一个图像 - 大多数 Wikipedia 页面上的类名 infobox 的表
这是我迄今为止尝试过的 -
你可以在这里试试这个片段 - http://jsbin.com/erudum/5/
如何修复代码以获取具有名称信息框的表格中的第一张图像?
hadoop - 从维基百科加载 30000 个文档
我有一个 wikipedia url,我想使用 wiki API 从该页面和其他引用的页面加载最多 30000 个文档的内容,我可以遍历 url 并这样做,但这不是一种有效的方式。有没有其他方法可以实现这一点。我需要这个来在 hadoop 中填充我的 HDFS。