问题标签 [dokuwiki]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
398 浏览

php - DokuWiki 中的特殊搜索错误

从DokuWiki 论坛交叉发布:

因此,我进行了一些修改以允许三件事:页面名称中的大写、侧边栏 ToC 中的自然大小写排序以及不区分大小写的搜索。

请耐心等待,因为我知道这看起来像是文件权限错误。我不相信它是。

在搜索“nul”及其任何变体(nUl、Nul、nuL 等)时,我收到以下错误消息:

没有也从来没有一个名为“nul”的页面。搜索完成后,它会在 \dokuwiki\data\index\page.idx 中添加一个新行,其内容与我搜索的内容相同(nul、NuL、nUl 等)。将该行添加到 page.idx 后,对字母“n”“u”或“l”的任何搜索也将导致错误:

再一次,页面“nul”在 wiki 上从未存在过,并且在搜索时被写入 page.idx。

以下是我为实现我在帖子开头提到的三件事所做的修改:

/inc/fulltext.php,第 255 和 263 行:我将“strpos”替换为“stripos”。

/inc/pageutils.php,删除第 114 行:

/inc/search.php,第 40 和 41 行:我将“sort”替换为“natcasesort”

据我所知,这些都是微小的变化,我看不出有任何明显会导致这个问题的东西。

有任何想法吗?

更新-

我恢复了所有更改,但错误仍然存​​在。

然后我在一个完全独立的目录中安装了一个新的 DokuWiki(Release 2010-11-07a "Anteater"),错误仍然存​​在。

然后我从 splitbrain.org 安装了夜间快照,但错误仍然存​​在。

有人有想法么?

0 投票
1 回答
1044 浏览

navigation - 使用 IIRF 重写 URL 使 dokuwiki 变慢

编辑:在这种情况下,IIRF.ini 代码不是问题,dokuwiki 的性能问题实际上与权限有关,并且 URL 重写的引入不是问题的原因。

在我使用 IIRF 集成 URL 重写之前,我有一个新的 Dokuwiki 实例(即几乎是空的,未使用),它运行得非常好。

现在它的运行速度明显变慢了——在页面之间导航需要几秒钟,而之前它是“活泼的”(立即的)。

我遵循了在此处实施 IIRF 的说明,这基本上涉及将“IIRF.ini”文件添加到站点根目录,并按照上面链接的站点上的说明更新“conf/local.php”文件(从标题下复制的代码“离子 Isapi 重写过滤器”)。

因此,澄清一下,URL 重写是有效的;但它导致了浏览 wiki 的速度明显变慢。如果有人可以提供建议以再次加快速度,我将不胜感激!

这是我的“IIRF.ini”文件的内容:

0 投票
1 回答
1612 浏览

wiki - 如何将 wiki 与 Mantis 错误跟踪器集成

我已经阅读了Mantis Wiki 中关于如何集成 DokuWiki的原始更新指南,但是当我现在按照这些说明进行操作时,它给了我一些错误。在这样做的同时,我注意到现在已经支持很多 Wiki 集成,并且说明与已经存在的内容冲突。

在 Mantis 文档的管理员和开发人员指南中,没有任何与 wiki 集成相关的内容,我也没有在插件中看到任何内容。

那么,我在哪里可以找到关于将 Wiki 与 Mantis 集成的体面文档(DokuWiki 上有一些出色的集成,我会更喜欢)?

0 投票
2 回答
161 浏览

mercurial - Mercurial 命令用于识别与 filespec 匹配且自上次更新以来已更改的文件

理想情况下,我正在寻找一种无状态的方式来执行此操作,因为我使用的是批处理文件。

场景是我在接收用户推送的服务器上有一个存储库。repo 也是一个工作副本,它是 wiki 页面 (dokuwiki) 的来源,它只是存储库中的文本文件,wiki 中的每个页面都有一个。

因为这是在 Web 服务器上,所以任何人都不会交互式地使用工作副本。相反,批处理文件会定期运行并发出适当的命令,以使用已推送到存储库的最新更改来更新工作副本。作为实现的附带说明,它还接受来自 wiki 对工作副本的更改,并尝试同时合并和提交它们。

批处理文件如下所示:

这适用于文本文件,但 dokuwiki 要求将图形等媒体存储在另一个目录中,这是最后一条for语句的用途。

请注意,到目前为止,我并不关心脚本的改进。它已被审查为我们在此环境中进行更新的理想方式。

最后副本的问题是它会复制所有图形,无论它们是否已更改。显然,最好只复制已更改的图形。由于自上次更新以来可能已经多次推送到此存储库,我只想识别和复制自上次更新此工作副本以来已更改的那些图形,即上次运行此脚本的时间hg update

我想不出一种直观的方法来做这件事。如果在脚本运行之间不需要手动保存信息,那将是最好的,但这并不是不可能的。

0 投票
1 回答
2159 浏览

wget - 仅使用 wget 下载纯 xhtml 格式的 dokuwiki 页面

我目前正在修改 offline-dokuwiki[1] shell 脚本,以获取应用程序的最新文档,以便自动嵌入到该应用程序的实例中。这工作得很好,除了它当前的形式它抓取每个页面的三个版本:

  1. 整个页面,包括页眉和页脚
  2. 只是没有页眉和页脚的内容
  3. 原始 wiki 语法

我实际上只对 2 感兴趣。这是通过 html<link>标记从主页链接到的<head>,如下所示:

并且与主 wiki 页面的 url 相同,只是它们在查询字符串中包含“do=export_xhtml”。有没有办法指示 wget 只下载这些版本或自动将 '&do=export_xhtml' 添加到它所遵循的任何链接的末尾?如果是这样,这将是一个很大的帮助。

[1] http://www.dokuwiki.org/tips:offline-dokuwiki.sh(作者:samlt)

0 投票
2 回答
561 浏览

sql - DokuWiki 和 SQL 代码

我最近在我的域上安装了 DokuWiki 并遇到了一个令人讨厌的问题。我正在尝试输入这样的代码:

在标签之间,如果我尝试预览或保存更改,DokuWiki 会向我显示:

如何解决这个问题?

0 投票
1 回答
335 浏览

php - dokuwiki:在 dokuwiki 中禁用版本控制

我需要有关 dokuwiki 的帮助,我想从 wiki 中删除版本控制。任何提示我们的帮助将不胜感激。在此先感谢我已经研究了这段代码,但到目前为止还没有任何想法

`class cache_renderer 扩展 cache_parser { function _useCache() { global $conf;

0 投票
2 回答
655 浏览

sharepoint-2010 - FAST Search for Sharepoint Crawler issue with Dokuwiki pages

My level of frustion is maxxing out over crawling Dokuwiki sites.

I have a content source using FAST search for SharePoint that i have set up to crawl a dokuwiki/doku.php site. My crawler rules are set to: http://servername/* , match case and include all items in this path with crawl complex urls.. testing the content source in the crawl rules shows that it will be crawled by the crawler. However..... The crawl always last for under 2 minutes and completes having only crawled the page I pointed to and no other link on that page. I have check with the Dokuwki admin and he has the robots text set to allow. when I look at the source on the pages I see that it says meta name="robots" content="index,follow"

so in order to test that the other linked pages were not a problem, I added those links to the content souce manually and recrawled.. example source page has three links

  • site A
  • site B
  • site C.

I added Site A,B and C urls to the crawl source. The results of this crawl are 4 successes, the primary souce page and the other links A,B, and C i manually added.

So my question is why wont the crawler crawl the link on the page? is this something I need to do with the crawler on my end or is it something to do with how namespaces are defined and links constructed with Dokuwiki?

Any help would be appreciated

Eric

0 投票
2 回答
2208 浏览

wiki - 维基文章的两阶段审批流程

我正在尝试配置一个 wiki 以允许两个阶段的批准过程。基本工作流程需要如下内容:

  1. 一组用户提交一个简短的表单
  2. 管理员批准后,该组可以使用更大的表单
  3. 小组提交较大的表格
  4. 管理员批准后,页面(由表单填写)变为公开

我一直在研究 TikiWiki 和 MediaWiki 一段时间,试图将它们配置为更接近这个模型,但我遇到了一些问题。

对于 TikiWiki,审批阶段似乎应该是一个过渡,要么更改组权限以允许访问新的跟踪器,要么更改表单类别以关闭一个表单并打开另一个,但我无法确定该配置的权限。

使用 MediaWiki,主要问题似乎是后端没有复杂的权限。我一直在使用 SMHalo 和 SemanticForms 来构建它,但我找不到任何像 Tikiwiki 的转换来自动更改组或表单的权限。

我对 Wiki 开发有点陌生,而且我知道 wiki 框架有很多选择,所以我正在寻求有关该产品良好工作流程的建议。我的目标是仅开始实际接触框架代码以进行最终调整,而不是开始修改已经开发良好的代码库。

0 投票
2 回答
1610 浏览

dokuwiki - 带有 SVN 的 DokuWiki:源代码控制下的方式和内容

我想将我的文档存储在 SVN 源代码管理下。

在 DokuWiki 设置中有

DokuWiki 将所有数据存储在“.../apps/dokuwiki/data”文件夹下的文本文件中。那里有很多东西,包括索引缓存等。看来我只需要“页面”文件夹。

如何在我的 SVN 文件夹中移动“页面”文件夹并配置 DocuWiki 以使用那里的页面?