问题标签 [google-cloud-bigtable]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
131 浏览

google-app-engine - Google Cloud Bigtable 是否支持透明维护/实时迁移?

Google Cloud Bigtable的可用性目前仅在区域内,而不是区域内。

Cloud Bigtable 是否支持透明维护/实时迁移到区域内的另一个区域?

0 投票
2 回答
1041 浏览

emulation - Does Cloud Bigtable have a local development server like Cloud Datastore?

If not, is there any document that list best practices to integration-test an application that uses Cloud Bigtable? Specifically the applications written in Java and Python.

Ref: https://cloud.google.com/datastore/docs/tools/devserver

0 投票
1 回答
317 浏览

java - 将 hbase-client 与 Google Cloud Bigtable 一起使用时出错

我无法从 Java 调用 Google Cloud Bigtable 上的任何操作。

我不断收到此错误:

这是生成此错误的测试代码:

任何人都知道什么可能会关闭连接?我没有明确关闭连接,我什至尝试将 put 操作放入 ThreadPoolExecutor 以将其与主 Controller 线程隔离,但无济于事。

0 投票
3 回答
430 浏览

apache-spark - 改进 Bigtable/HBase/Spark 工作流程的建议(经济)

我有一个相当小的数据集(5~gb,150 万行),当前存储在 Bigtable 中,并通过 HBase API(Scala)访问,目的是使用 Spark(dataproc)进行数据分析。

但是,我的预算也很紧,而且 Bigtable 的成本相当高(2~ 美元/小时),所以我最终做的是在需要时删除并重新创建 Bigtable 集群。

明显的缺点是,由于我的数据的性质,填充一个新的集群需要很长时间。它全部以 JSON 格式存储在一个大文本文件中,填充集群需要 40~ 分钟。

所以我要问的是是否有更好的方法来执行这个,比如实现某种备份/快照例程?或者根本不使用 Bigtable。我在 Google Cloud 平台中找不到任何其他 HDFS 替代品。

应该指出的是,我对 Hadoop 和大数据的世界还很陌生,所以如果我错过了显而易见的事情,请原谅我的无知。

0 投票
1 回答
716 浏览

google-cloud-platform - 无法列出表格:缺少 Google BigTable 的身份验证?

我在网上找不到太多关于这个问题的信息,但是......

我正在谷歌云服务上建立一个新的 BigTable 集群。我已经完成了您使用大多数 Google API 的整个过程(创建服务帐户、知道您的项目 ID、使用 gcloud 工具进行身份验证、Google 环境变量集等)。

我在完成设置后遇到了问题。我收到此错误,我在网上找不到任何内容:


这是包含错误的完整打印。请注意,我在尝试创建表时也遇到了同样的错误:

如果有人可以帮助解决这个问题,那就太棒了。我不知道该怎么做,也找不到任何东西。显然它围绕身份验证,我的密钥文件是新鲜的并且在正确的位置,我运行了 gcloud auth,我不确定还有什么要检查的。

请让我知道我是否可以提供更多信息来帮助回答。

0 投票
1 回答
1211 浏览

google-cloud-dataflow - 使用 Dataflow 的 Bigtable 批量加载速度太慢

对于每 3 小时 20GB 数据文件等模式,批量加载到 Bigtable 的最佳方法是什么?数据流是正确的方式吗?

我们使用 Dataflow 批量加载 Bigtable 的问题是..

看起来 Dataflow QPS 与 Bigtable(5 个节点)的 QPS 不匹配。我正在尝试使用 Dataflow 将 20GB 文件加载到 bigtable。摄取到 bigtable 需要 4 小时。我也在运行过程中不断收到此警告..

代码:

CreatePutsFn:

非常感谢这里的任何帮助。谢谢

0 投票
2 回答
144 浏览

hbase - Bigtable shell 挂在任何命令上

我正在尝试遵循Google Cloud Bigtable 教程

我在 quickstart.sh 启动并显示提示时达到了这一点,但它挂在任何命令上。我试过listcreate

0 投票
2 回答
723 浏览

grpc - Bigtable(来自 Go)返回“服务器关闭了流而不发送预告片”

我们正在使用 Google Cloud Bigtable,使用Go 库从 GCE 实例访问它来访问它。对于某些 ReadRow 查询,我们收到以下错误:

值得注意的是,这些是一致的。换句话说,如果我们重试相同的查询(我们在两次尝试之间等待大约 15 分钟),我们(几乎?)总是再次得到相同的错误。所以它似乎不仅仅是一个暂时的错误,而是可能与正在获取的数据有关。这是我们正在运行的特定查询:

这可能只是意味着“你试图获取太多”吗?

0 投票
1 回答
841 浏览

java - Java中的Bigtable身份验证

我正在寻找一种在 Bigable 中进行身份验证的替代方法。默认方法涉及环境变量,这与我有关。

我找到了GoogleCredential课堂。它可以使用 fromStream 读取 json 密钥文件,但是如何使用GoogleCredential. 没有办法setApplicationDefault()。我需要以某种方式覆盖它。

HBase 代码对GoogleCredential.

0 投票
2 回答
1176 浏览

google-cloud-bigtable - 时间序列存储设计

我查看了谷歌云https://cloud.google.com/bigtable/docs/schema-design-time-series的时间序列论文以及基于 hbase 的 opentsdb 的方案设计,与 bigtable 非常相似。

opentsdb 的方案设计使用了很多技巧,将数据点和行键编码为宽行,从而使每个数据点的大小更小。但在谷歌的论文中只是建议使用窄行。

我的问题是,我能否从 opentsdb 方案设计中获得一些真正的好处,用于使用 bigtable 进行时间序列存储。而且,bigtable 的压缩真的可以帮助我消除冗余,从而使 opentsdb 模式几乎没有什么区别吗?