0

我有许多大型 json 文件(每个 3G),我想将它们有效地加载到强大的 RServer 机器上,但是从所有文件中加载所有记录将是多余的并且令人筋疲力尽(50M 记录乘以 40)。所以我想使用 jsonlite 包,因为我听说它很有效。问题是我不需要所有记录,而只需要嵌入元素(“源”)具有名称为“duration”的现有字段的记录子集。这是目前我的代码:

library(jsonlite)
library(curl)
url <- "https://s3-eu-west-1.amazonaws.com/es-export-data/logstash-2016.02.15.json"
test <- stream_in(url(url))

它只是许多中的一种。现在,jsonlite 包有一个“扁平化”功能来扁平化嵌入元素以创建 1 个宽扁平化数据框。然后我可以过滤它。但是,它似乎效率不高。我认为在加载数据时对其进行预过滤效率更高。这里是一个记录的输入:

> dput(test_data)
"{\"_index\":\"logstash-2016.02.15\",\"_type\":\"productLogs\",\"_id\":\"AVLitaOtp4oNFTVKv9tZ\",\"_score\":0,\"_source\":{\"EntryType\":\"Event\",\"queryType\":\"clientQuery\",\"status\":\"success\",\"cubeName\":\"Hourly Targets Operations by Model\",\"cubeID\":\"aHourlyIAAaTargetsIAAaOperationsIAAabyIAAaModel\",\"startQueryTimeStamp\":\"2016-02-15T02:14:23+00:00\",\"endQueryTimeStamp\":\"2016-02-15T02:14:23+00:00\",\"queryResponeLengthBytes\":0,\"duration\":0,\"concurrentQuery\":14,\"action\":\"finishQueryJaql\",\"@timestamp\":\"2016-02-15T02:14:23.253Z\",\"appTypeName\":\"dataserver\",\"@version\":\"1\",\"host\":\"VDED12270\",\"type\":\"productLogs\",\"tags\":[],\"send_type\":\"PullGen1\",\"sisenseuid\":\"janos.kopecek@regenersis.com\",\"sisenseOwnerid\":\"janos.kopecek@regenersis.com\",\"sisenseVersion\":\" 5.8.1.29\",\"sisenseMonitoringVersion\":\"3.0.0.6\",\"inputType\":\"sqs\",\"token\":\"fTdyoSwaFZTalBlnFIlTsqvvzfKZVGle\",\"logstash_host\":\"vpc_cluster_1\"}}"
> 

任何帮助表示赞赏

4

1 回答 1

0

您必须添加一个处理函数并指定您需要哪些元素:

stream_in(url(url) , handler = function(x) x$"_source$duration")
于 2016-03-24T11:54:24.537 回答