问题标签 [hortonworks-sam]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
streaming - 在 hortonworks 流分析管理器中获取 InstantiationException
在尝试使用 HDF 3.0.0 沙箱运行 SAM 拓扑时,我遇到了以下异常。我在画布中只有 2 个组件。1) 从 Kafka 主题中获取输入 2) 将主题中的内容写入 HDFS Sink。
java.lang.InstantiationException:org.apache.storm.kafka.bolt.selector.DefaultTopicSelector
幕后的引擎是 Storm。在尝试执行流程时,会发生上述错误。我正在尝试获取有关特定错误消息的更多信息,但无法在 Internet 上找到有关 Hortonworks Stream Analytics Manager 的更多帮助。
屏幕截图将使问题清晰。在执行流程时,会发生异常。
hadoop - Spark-submit:ERROR SparkContext: 初始化 SparkContext 时出错
我正在尝试在 Hadoop YARN 客户端模式下运行我的 spark Job,并且我正在使用以下命令
请在下面找到 spark-default 配置: spark-default.sh
我在下面收到错误
我可以在纱线应用程序日志中看到以下错误
$纱线日志-applicationId application_1510129660245_0004
请提出问题所在。
hadoop - Kafka Druid 与 Streaming Analytics Manager 的集成
我正在尝试使用流式分析管理器(SAM)将数据从 Kafka 推送到 Druid,似乎数据甚至没有进入 SAM 中的 Kafka 源。
我认为在 SAM 中可能未正确设置源。有这个话题的经验吗?
我对卡夫卡来源的信任:
我对德鲁伊目标的信任:
hadoop - Hadoop 与文档捕获软件的集成
我们需要从我们的图像捕获软件将文档发送到 Hadoop (Hortonworks):图像捕获软件发布带有元数据的 PDF 文档。我对HDP没有太多了解。是否有任何 REST 服务或任何工具可以通过向 Documents 提供元数据来将文档添加到 Hadoop。
请帮忙
apache-nifi - nifi Json数据使用routeonattribute过滤属性或属性值
我目前正在使用 Nifi 使用数据来读取 Tealium 事件流并加载到 HDFS 中。当源未发送属性数据时需要帮助过滤数据。
{"account":"newtv","twitter:description":"发现您最喜欢的 NewTV 节目和主持人的播放时间。","og:locale":"en_US","dcterms:publisher":"NewTV", "original-source":"www.newtv.com/","og:url":"www.newtv.com/show/program-guide"}},"post_time":"2019-10-09 11:27 :46","useragent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36","event_id":"12345"}
上面的消息示例。当源错过从以下示例数据集中发送 event_id 属性的数据时,我目前坚持过滤数据。
当前 Nifi 流程,使用 Kafka -> 评估 Json 路径 -> Jolttransform Json -> 评估 Json 路径 -> RouteOnAttribute -> 合并内容 -> 评估 Json 路径 -> 更新属性 -> PutHDFS -> MoveHDFS
需要帮助如何使用 RouteOnAttribute 拆分数据,以将缺少的 event_id 属性或 attribute_value 区分为两个不同的流。带有属性或属性值和缺失值的流会出错并加载到不同的输出路径中。
apache-kafka - 是否有 kafka avro 控制台使用者可与 kafka 中的 hortonworks 模式注册表一起使用
我将 kafka 流与 hortonworks 模式注册表一起用于数据的序列化/反序列化,这可以正常工作,但是我在尝试查看主题中的 avro 记录而无需编写代码时遇到问题。目前我必须循环使用数据stream.foreach((key, value) -> System.out.println("Key = " + key + " Value = " + value));
来获取数据片段。关于更好方法的任何提示。