有没有办法批量复制某些维基百科文章(约10,000个)到我自己的mediawiki网站?
编辑: 如何在不覆盖类似命名的文章/页面的情况下执行此操作? 此外,我不打算使用非法手段(爬虫等)
答案 0 :(得分:2)
维基百科数据库可用于download
答案 1 :(得分:2)
如果您希望获得一组特定的文章,那么您可以使用“导出”页面(http://en.wikipedia.org/wiki/Special:Export)来获取所涉及页面的XML转储;您可以一次导出多个页面,但您可能希望将请求分开。
您可以使用Special:Import
或maintenance/
中的某个导入脚本将XML转储导入MediaWiki。
答案 2 :(得分:0)