4

是否有任何有效的方法可以并行处理 Java 中的大量 GET 请求。我有一个包含 200,000 行的文件,每行都需要来自 Wikimedia 的 GET 请求。然后我必须将响应的一部分写入一个公共文件。我在下面粘贴了我的代码的主要部分作为参考。

while ((line = br.readLine()) != null) {
    count++;
    if ((count % 1000) == 0) {
        System.out.println(count + " tags parsed");
        fbw.flush();
        bw.flush();
    }
    //System.out.println(line);
    String target = new String(line);
    if (target.startsWith("\"") && (target.endsWith("\""))) {
        target = target.replaceAll("\"", "");
    }
    String url = "http://en.wikipedia.org/w/api.php?action=query&prop=revisions&format=xml&rvprop=timestamp&rvlimit=1&rvdir=newer&titles=";
    url = url + URLEncoder.encode(target, "UTF-8");
    URL obj = new URL(url);
    HttpURLConnection con = (HttpURLConnection) obj.openConnection();
    // optional default is GET
    con.setRequestMethod("GET");
    //add request header
    //con.setRequestProperty("User-Agent", USER_AGENT);
    int responsecode = con.getResponseCode();
    //System.out.println("Sending 'Get' request to URL: " + url);
    BufferedReader in = new BufferedReader(new InputStreamReader(con.getInputStream()));
    String inputLine;
    StringBuffer response = new StringBuffer();
    while ((inputLine = in.readLine()) != null) {
        response.append(inputLine);         
    }
    Document doc = loadXMLFromString(response.toString());
    NodeList x = doc.getElementsByTagName("revisions");
    if (x.getLength() == 1) {
        String time = x.item(0).getFirstChild().getAttributes().item(0).getTextContent().substring(0,10).replaceAll("-", "");
        bw.write(line + "\t" + time + "\n");
    } else if (x.getLength() == 2) {
        String time = x.item(1).getFirstChild().getAttributes().item(0).getTextContent().substring(0, 10).replaceAll("-", "");          
        bw.write(line + "\t" + time + "\n");
    } else {
        fbw.write(line + "\t" + "NULL" + "\n");
    }
}

我用谷歌搜索了一下,似乎有两种选择。一种是创建线程,另一种是使用称为 Executor 的东西。有人可以就哪一个更适合这项任务提供一些指导吗?

4

3 回答 3

5

如果你真的,真的需要通过 GET 请求来完成,我建议你使用带有线程池(2 或 3)的 ThreadPoolExecutor,以避免维基百科服务器过载。这将避免大量的编码......

还可以考虑使用 Apache HttpClient 库(具有持久连接!)。


但是使用数据库下载选项更好。根据您的操作,您可能可以选择较小的下载之一。 此页面讨论了各种选项。

注意:维基百科更喜欢人们下载数据库转储(等等),而不是在他们的网络服务器上猛击。

于 2013-07-31T06:55:46.613 回答
0

你需要的是这样的:

  1. 有一个生产者线程读取每一行并将其添加到队列中。
  2. 有一个线程池,其中每个线程都接受一个 URL 并执行 GET 请求
  3. 它获取响应并将其添加到队列中。
  4. 再有一个消费者线程,它检查队列并将其添加到文件中。
于 2013-07-31T06:42:43.930 回答
0

如上所述,您应该根据服务器的容量确定并行 GET 请求的数量。如果您想坚持使用 JVM 但又想使用 Groovy,这里有一个非常简短的并行 GET 请求示例。

最初有一个您想要获取的 URL 列表。完成后,任务列表包含可通过 get() 方法访问的所有结果,以供以后处理。这里只是打印出来作为一个例子。

import groovyx.net.http.AsyncHTTPBuilder

def urls = [
  'http://www.someurl.com',
  'http://www.anotherurl.com'
]
AsyncHTTPBuilder http = new AsyncHTTPBuilder(poolSize:urls.size())
def tasks = []
urls.each{
  tasks.add(http.get(uri:it) { resp, html -> return html })
}
tasks.each { println it.get() }

请注意,对于生产环境,您需要注意超时、错误响应等。

于 2014-10-20T20:40:14.680 回答