有没有办法将某些维基百科文章(大约 10,000 篇)批量复制到我自己的 mediawiki 网站?
编辑:如何在不覆盖类似名称的文章/页面的情况下执行此操作?我也不打算使用非法手段(爬虫等)
维基百科数据库可供下载
如果您希望获得一组特定的文章,那么您可以使用导出页面 ( http://en.wikipedia.org/wiki/Special:Export ) 来获取相关页面的 XML 转储;您可以一次导出多个页面,尽管您可能希望分隔您的请求。
Special:Import
您可以使用.xml 文件中的其中一个导入脚本将 XML 转储导入 MediaWiki maintenance/
。