问题标签 [gcloud-python]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-cloud-datastore - 检索属于特定命名空间的所有实体时返回的内部种类
我正在尝试检索属于特定命名空间的所有实体。查询很简单
但是,运行它会返回属于内部类型的键,这些键不属于我存储的数据的一部分,例如,我得到属于这种类型的实体:
你知道我怎么能防止这种情况吗?我可以优化我的查询以排除这些吗?
python - 在 Google App Engine 中一次获取 100 个结果
我希望有人可以向我解释如何在 App Engine 中使用偏移量或游标。我正在使用gcloud
远程访问实体进行大量数据迁移,并希望以 100 个为单位抓取数据。
我猜有一种非常简单的方法可以做到这一点,但文档并没有过多地深入游标。这是我到目前为止所拥有的:
我怎么能标记那批 100 的结束,然后进入下一个?非常感谢!
编辑:
我应该提到我无法访问应用程序引擎环境,这就是为什么我现在有点迷失...... :(
python - 使用 Vagrant 时卡在旧版本的 oauth2client
我有一个使用gcloud
v0.7.1 的脚本。一旦我运行它,我就会收到以下错误:
据我所知,使用的是旧版本(v1.2)oauth2client
,即使我做了pip install oauth2client==1.5.0
. 这只发生在我的 Vagrant 机器上(运行 CentOS 6.6、Python v 2.7.10、pip v7.1.2)。当我在 Vagrant 框之外时,我没有收到此错误。
pip show oauth2client
(从 Vagrant 框中)产生:
但是,当我使用以下命令从 Python 检查它时,我得到了一个不同的版本号
python -c "import oauth2client; print oauth2client.__version__; print oauth2client.__file__"
:
import sys; print sys.path
产量:
如何确保使用 v1.5.0?
google-cloud-datastore - 412 在云数据存储中执行查询时未找到匹配索引
我正在使用 gcloud-python 库从云数据存储中查询数据。考虑我的片段是这样的
对于上面的片段,我得到
我的 Index.yaml 文件是这样的。
难道我做错了什么?请帮帮我。
python - 使用 gcloud-python 在 Google Cloud Storage 中设置元数据
我正在尝试使用gcloud-python
并设置一些自定义元数据属性将文件上传到 Google Cloud Storage。为了尝试这个,我创建了一个简单的脚本。
我能够上传文件内容。上传文件后,我可以从开发人员控制台手动设置元数据并检索它。
我不知道如何以编程方式上传元数据。
google-cloud-datastore - 将嵌入式实体存储在 Datastore 中,它会忽略嵌入式中的 exclude_from_indexes
我正在尝试拥有一个字段大于 1500 字节的嵌入式实体。根据文档,建议从索引中排除该字段,并且应该允许 1MB。
我将该字段添加到嵌入实体的 exclude_from_indexes 键中。当我尝试保存父实体时,它告诉我该字段大于 1500 字节。如果我独立保存嵌入式实体,它就可以工作。
嵌入实体是否忽略了 exclude_from_indexes?
google-cloud-datastore - Datastore 存储聚合嵌套数据以便更好地查询的最佳方式
我是数据存储的新手。将其用于非 GAE 应用程序。
我正在为我的用例寻求更好的设计。
通过展平和存储多种类型来存储嵌套聚合数据,以获得更好的查询支持。
我把它储存在 5 种。每一种都与另一种作为祖先键相关。
种类:域
种类:事件
种类:属性
种类:属性值
种类:用户
我已经添加了各种“evt_datetime”属性,因为它将是主过滤器键。
我已经为所有属性设置了索引以启用任何属性过滤器,但是由于一个属性限制上的一个不平等过滤器让我暂停了。
如您所见,我无法使用 (>,<,>=,<=) 中的任何一个过滤 evt_datetime 和 evt_count。
有没有更好的方法来设计这些模式以使用多个过滤器或 kindless 查询?
google-cloud-datalab - datalab gcp 包与 gcloud
我一直在使用 python(与 BigQuery 和 Cloud Storage 交互)几个月,最近一直在使用 Datalab 来完成类似的任务。我希望澄清gcloud(又名gcloud-python)包和数据实验室示例中使用的gcp包之间的区别。Datalab 似乎不了解 gcloud(尝试导入它会导致“ImportError:没有名为 gcloud 的模块”)。
更新:我项目的开发人员在过去一年中使用了各种 python 包来使用谷歌云平台。有时,一些软件包不稳定,但随着后续版本的改进。在某些情况下,这些包中的功能重叠,我们正在寻找关于哪些包进行标准化的专家意见,和/或关于哪些包最适合哪些用例的建议。
- 谷歌云平台gcloud-python
- Cloud Datalab gcp
- 适用于 Python 的 Google API 客户端库
- 博托
特别是,我们在 gcloud-python 不稳定的时候使用了 boto,但我们假设如果我们不需要支持对 AWS 的访问,我们最好使用 Google 特定的库而不是 boto。 这个使用 boto 描述/推荐(?)的页面似乎得到了积极维护——这是否意味着它是一个首选的替代方案,或者仅仅是为开发人员提供许多替代方案的目标?
如果这不是一个合适的 SO 问题,我将删除。
google-bigquery - 使用 gcloud-python 将 BigQuery 表导出到 GCS
此处的示例已过时https://googlecloudplatform.github.io/gcloud-python/stable/bigquery-usage.html#exporting-data-async。该示例给出错误: AttributeError: 'Table' object has no attribute 'export_to_storage'
如何在 gcloud-python v.0.8.0 中以 CSV/JSON 格式构建和运行将 BigQuery 表提取到 Google Cloud Storage 的作业?
谢谢