问题标签 [apache-atlas]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hadoop - 基于 Hive 的 Apache Atlas,元数据存储在哪里?在 Titan Graph Repository 中还是在带有 Hive 的 RDBMS 中?
我已经安装了 Atlas、Hive 和 Hadoop 并正确配置了它们。但是我想知道导入元数据后元数据存储在哪里?
根据 Atlas 的一些文档,它说元数据将存储在 Titan 图形存储库中。但是,根据 Hive 的一些文档,它表明元数据将存储在 RDBMS 中,例如 MySql。
如果我同时安装 Atlas 和 Hive,元数据将具体存储在哪里?
macos - Web应用程序中的apache atlas安装错误
- [运行命令] export MAVEN_OPTS="-Xmx1536m -XX:MaxPermSize=512m" && mvn clean install
http://cwiki.apache.org/confluence/display/MAVEN/MojoFailureException [ERROR] [ERROR] 纠正问题后,您可以使用命令 [ERROR] mvn -rf :atlas-webapp 恢复构建
apache-atlas - 独立运行 Apache Atlas
我正在尝试在 Ubuntu 上以独立方式运行 Apache Atlas——这意味着无需设置 Solr 和/或 HBase。我所做的(根据文档:http : //atlas.apache.org/0.8.1/InstallationSteps.html)是克隆 Git 存储库,使用嵌入的 HBase 和 dSolr 构建 maven 项目:
解压执行的 tar.gz 文件并执行 bin/atlas_start.py - 无需更改任何配置。据我了解应该与 Atlas 一起实际启动 HBase 的文档 - 对吧?
这是我在 logs/applocation.log 中找到的:
...
对我来说,它看起来好像脚本没有启动任何 HBase(和 Zookeeper)。
我错过了什么吗?
感谢您的提示!
hadoop - 如何更新 Apache Atlas 元数据?
我有一个 Hortonworks 沙盒。我已经运行了一个 Atlas 应用程序。已经有来自 Hive 的所有数据库、表和列。我已经向 Hive 添加了一个新表,但它没有自动出现在 Atlas 中。
如何更新 Atlas 元数据?Atlas有什么好的教程展示如何开始,例如如何从现有集群导入数据?
问候帕维尔
apache-spark - Apache Atlas - 未使用 Spark 触发 Hive 桥
使用 Hive 提交 Spark 作业时,Spark 作业使用命令在 hive 中保存/覆盖表
df.write.mode("overwrite").saveAsTable("database.tableName")
Apache Atlas 看不到具有新数据的 Hive 触发器
如何强制 Apache Atlas 从 spark 中查看表创建/修改
hadoop - Apache Atlas 快速入门 - kafka 错误
环境:没有kerberos,没有ranger,没有hdfs。带 SSL 的 EC2。
$ATLAS_HOME/bin/quick_start.py https://$componentPrivateDNSRecord:21443
使用正确的用户/密码运行后出现此错误
相关代码:
首先我认为 atlas->kafka 连接有问题,但后来我看到:
2个主题由此返回:
atlas'application.log
确实有这个,不知道为什么:
hive - apache atlas 在 cdh 中使用,导入 hive 元数据时
root> sh import-hive.sh 使用Hive配置目录[/opt/cloudera/parcels/CDH/lib/hive//conf] /opt/cloudera/parcels/CDH/lib/hive/conf:/opt/cloudera/parcels /CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/libexec/../../hadoop/lib/ :/opt/cloudera/parcels/CDH-5.13.0-1.cdh5 .13.0.p0.29/lib/hadoop/libexec/../../hadoop/.// :/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/ hadoop/libexec/../../hadoop-hdfs/./:/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/libexec/../. ./hadoop-hdfs/lib/ :/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/libexec/../../hadoop-hdfs/./ / :/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/libexec/../../hadoop-yarn/lib/ :/opt/cloudera/parcels /CDH-5.13.0-1.cdh5.13.0.p0.29/lib/hadoop/libexec/../../hadoop-yarn/.//:/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/lib/ :/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/.// 用于导入的日志文件是 /root/apache-atlas-sources-1.0.0/addons/hive-bridge/src/logs/import-hive.log log4j:WARN No such property [maxFileSize] in org.apache.log4j.PatternLayout . log4j:WARN 在 org.apache.log4j.PatternLayout 中没有这样的属性 [maxBackupIndex]。输入地图集的用户名:- 管理员输入地图集的密码:- 线程“main”中的异常 java.lang.NoSuchMethodError: com.fasterxml.jackson.databind.util.BeanUtil.okNameForGetter(Lcom/fasterxml/jackson/databind/introspect/AnnotatedMethod ;Z)Ljava/lang/String; 在 com.fasterxml.jackson.databind.introspect.AnnotationIntrospectorPair.findNameForSerialization(AnnotationIntrospectorPair.java:498) 在 com.fasterxml.jackson.databind.introspect. com.fasterxml.jackson.module.jaxb.JaxbAnnotationIntrospector.findNameForSerialization(JaxbAnnotationIntrospector.java:936) 在 com.fasterxml.jackson.databind .内省。
apache-atlas - 我运行脚本/工具(import-hive.sh),我可以搜索配置单元实体,如表、数据库、视图、列,但没有沿袭,这是正常的吗?
在安装 atlas 之前,我的 hive 数据库集群中有两个名为 atlas_testm 和 atlas_testm_ext 的 hive 表(是基于 atlas_testm 的视图)。
安装atlas并运行atlas服务后,我运行名为import-hive.sh的脚本,我可以通过搜索在atlas ui web中看到这两个hive表,但是没有atlas_testm和atlas_testm_ext关系的血统,这是正常的吗?
我想知道名为 import-hive.sh 的脚本是否不支持配置单元表的历史沿袭导入?
这个问题困扰我很久了。在此处输入图像描述 在此处 输入图像描述