考虑标签wikipedia-api(或更一般的mediawiki-api)和mediawiki。问题应与编程有关。
我想获得英文版所有页面在不同时期的Wikipedia页面访问量。该信息是否包含在转储文件之一中?我可以使用维基百科...
我有一个Wikipedia元素,看起来像这样,我想用Jsoup抓取。我想将元素放入字符串列表中,并在有可能的情况下将它们分开。现在,我是...
我正在fr.wikipedia.org的Acadie门户上进行数据分析。我正在使用WikipediR :: pages_in_category制作门户网站中的页面列表:library(WikipediR)portal_acadie
[早上好,我正在使用以下API搜索,该API搜索用于返回Wikipedia条目的标题,内容和链接:https://it.wikipedia.org/w/api.php?action=opensearch&search=alessandro%。 。
我在jQuery Terminal的JavaScript中有简单的Wikipedia解析器(不是创建AST的实际解析器,只是创建了不同语法的一堆替换(404错误页面中的Wikipedia命令)。...
我需要使用此Wiki页面https://en.wikipedia.org/wiki/List_of_most_visited_museums中的表,以python创建数据库(尽管后一部分与atm无关)。我必须使用API ...
我正在使用来自维基百科页面的信息来创建数据框。确切地说是1905年的维基百科页面。我在数据框下使用下面的函数以及页面标题列表...
我正在查看Wikipedia文章上的标题(每个图像下方的文字)。我希望解析这些字符串(主要使用正则表达式),然后如果它匹配,我想保存该图像的链接。我有...
使用多处理功能,通过beautifulsoup改善Wikipedia抓取程度
我正在使用beautifulsoup从一堆Wikipedia页面上抓取一些基本信息。该程序运行,但是很慢(650页大约20分钟)。我正在尝试使用多重处理来...
因此,我试图创建一个程序,在其中输入一个单词,输出是该单词来自哪种语言的概率。我限制为六种语言-荷兰语,英语,西班牙语,土耳其语,法语,...
[当我使用以下参数调用此API https://en.wikipedia.org/w/api.php时:“ action”:“ query”,“ format”:“ json”,“ titles”:“ Albert Einstein” ,“ prop”:“ images”我只是得到...的标题...
我需要从Wikipedia中提取信息,但是我不知道如何进行。我需要做的是:给定单词“ w”,我如何计算“ w”在整个单词中出现的次数...
用于从Wikipedia中的ParserFunctions生成值的Python工具/库
给出一段Wikipedia ParserFunction文本,Python中是否有任何工具或库可以从文本中生成计算值?例如>>> parserfunc_2_value('{{#expr:1/3 round 5}}'...
如何使用BeautifulSoup从Wikipedia页面获取子内容
我正在尝试使用python基于内部链接从Wikipedia页面抓取子内容,问题是从页面抓取所有内容,如何仅抓取内部链接段落,...
我想从Wikipedia API调用的JSON文件中列出Vincent van Gogh的所有绘画的Python列表。这是我用来发出请求的URL:http://en.wikipedia.org/w/api.php?...
Wikipedia建议在属性ID中使用特殊字符时,特别是在将其用作锚点时(特别是法语,请提供手动锚点)。关于此...
将Wikidata QID映射到Wikipedia CurID
[两个问题:如何使用转储将QID从Wikidata映射到英语Wikipedia CurID?使用哪个转储?我不是在寻找基于API的解决方案,因为我想为...
您可以同时运行python wikipedia api多次吗?
我有所有维基百科文章的列表,我想为研究目的刮一个尸体。我的脚本运行良好,但以目前的速度,这将持续40天。我的问题是:我可以...
我从http://download.wikipedia.com/enwiki/latest/enwiki-latest-pages-articles.xml.bz2下载了Wikipedia转储。将其解压缩到enwiki.xml并运行php importDump.php
是否有可能做的随机存取(很多寻求的)到非常巨大的文件,由7zip的压缩?原始文件是非常巨大的(999 GB XML),我不能将它存储在未压缩格式(我没有那么多免费的...