问题标签 [google-cloud-python]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-cloud-datastore - 如何在不添加索引的情况下使数据存储区查询更快
我有以下简单的查询:
在本地机器上工作时,我需要 100 行 5 秒才能获取结果。这非常慢。
当我在 python 进程上进行 strace 时,我得到了很多行:
recvmsg(9, 0x7ffffc9ee9f0, 0) = -1 EAGAIN(资源暂时不可用)
poll([{fd=8, events=POLLIN}, {fd=9, events=POLLIN}], 2, 200) = 0 (超时)
有没有办法说数据存储可以一次性获取所有内容或进行某些其他优化?
我用谷歌搜索并没有找到任何相关选项
python - 当模块具有相同的文件夹名称时如何导入模块,
我面临一个问题,其中google.appengine
pythongoogle.cloud
模块位于不同的目录下,名为google
它们的以下路径如下:
1st Path:
C:\Users\MohammedT\Desktop\dsapp\sitepackages\dev\google_appengine
2nd Path:
C:\Users\MohammedT\Desktop\datastore\dsenv\Lib\site-packages
我可以在不将它们移动到公共目录的情况下实现这一点吗?
我已将 python 路径设置为指向这两个目录。我目前可以从目录 2 导入,但无法从目录 1 导入
python-3.x - 在 Ubuntu 16.04 上安装谷歌云模块返回错误
我试图在 Ubuntu 16.04 上为 python 3 安装谷歌云模块,但它显示permission error 13
在我的 python 环境安装过程中多次显示此错误 PermissionError: [Errno 13] Permission denied: /usr/lib/python3/dist-packages/httplib2-0.9.1.egg-info
google-cloud-platform - 如何在gcloud python实例中按networkIP过滤
我正在使用 gcloud python 客户端库(https://github.com/google/google-api-python-client)来获取实例列表。我可以使用名称、状态等过滤器,但我不知道如何按 IP 地址 (networkIP) 进行过滤。我确定它与 networkInterfaces 是一个列表有关,但我不知道语法。
这是我认为应该起作用的:
它返回 HTTP 状态 400:“字段 'filter' 的值无效。”
过滤器应该是什么样子?
先感谢您。
python - 如何在 GCP 上解析来自 Stackdriver 的审核日志条目
我正在尝试使用Python 中的Stackdriver Logging 客户端库检索 BigQuery 审核日志。
根据教程,以下代码应该能够获取日志条目:
但是,这个迭代器只是返回ProtobufEntry
,我找不到如何从这个对象获取实际的日志消息。
上面的代码产生以下输出:
但是,我找不到任何方法来解析这些对象。
如何解析实际的日志消息?
python - 运行 python3 时由于 Google Cloud Datastore 导致的 AttributeError
自从我安装了 Google Cloud 的 Python 包装器(使用sudo pip3 install google.cloud
),我就开始看到这个错误。
每次我运行python3
程序时,即使只使用交互式 shell,我也会看到以下错误:
尽管存在上述错误,但一切正常,但每次运行python3
程序时都看到堆栈跟踪很烦人。
python - 高效地将 Pandas 数据框写入 Google BigQuery
我正在尝试使用此处记录的功能将 a 上传pandas.DataFrame
到 Google Big Query 。问题是直接上传到 Google Cloud Storage 需要 2.3 分钟不到一分钟。我打算上传一堆数据帧(~32),每个数据帧的大小都差不多,所以我想知道什么是更快的选择。pandas.DataFrame.to_gbq()
to_gbq()
这是我正在使用的脚本:
我的问题是,什么更快?
Dataframe
使用pandas.DataFrame.to_gbq()
函数上传- 保存为 CSV,然后使用Python API
Dataframe
将其作为文件上传到 BigQuery - 保存为 CSV,然后使用此过程
Dataframe
将文件上传到 Google Cloud Storage ,然后从 BigQuery 中读取
更新:
备选方案 1 似乎比备选方案 2 更快,(使用pd.DataFrame.to_csv()
and load_data_from_file()
17.9 secs more in average with 3 loops
):
python - 如何使用用户默认凭据以编程方式对受 Cloud Identity-Aware Proxy (Cloud IAP) 保护的资源进行身份验证?
我希望能够使用开发环境上的用户默认凭据以编程方式为 iap 生成一个 id 令牌(即我自己的笔记本电脑,安装并登录了 google cloud sdk)。
遵循文档时,我设法使用服务帐户文件生成了授权令牌。
在我的个人计算机上使用google.auth.default
时,我可以看到类型的凭据google.oauth2.credentials.Credentials
有一个refresh_token
. 我想用它来生成令牌,因为它是在下面的文档中使用 curl 完成的,
Authenticating from a desktop app -> Accessing the application
但我无法让它工作。有人知道是否有办法以这种方式进行身份验证?
python - ImportError 与 py2exe 编译的可执行文件
我正在使用 py2exe 编译一组依赖于 Google Cloud Python API 的脚本。编译后,当我运行可执行文件时,显示以下错误:
我已经用 py2exe 对一般的“ImportError”进行了一些谷歌搜索,我找到的答案似乎不适用于我的问题。
有什么想法吗?