问题标签 [google-cloud-datalab]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
anaconda - Adding python libraries to google datalab environment
I'm using google datalab on google cloud platform. Worked great on the first try and I love how easy it is to now run a jupyter notebook server in the cloud (faster than starting up a localhost server). It's fantastic.
But now I want to install python libraries not included in the basic datalab environment (specifically I need the Bokeh plotting library).
So I opened a google cloud shell from the google cloud console where I manage this jupyter notebook instance, installed miniconda and then the bokeh library. Everything ran without error (e.g. bokeh installs several dependencies along the way), but my jupyter notebook on datalab (which can import other libraries like numpy) still gives me a "no module named bokeh.plotting" error.
Any ideas? Thanks in advance.
google-cloud-datalab - 部署 Google Cloud Datalab 失败并显示“没有准备好足够的虚拟机”
在非美国项目出现问题后,我更改为新项目,但现在我遇到了不同的错误问题。
我现在在美国东部项目区,已启用计费。
这次的问题在此处的日志中有详细说明:
几周后我再次尝试,仍然得到同样的错误。以下是日志:
重复了很多很多,直到最后......
在一个全新的项目中再次尝试,我现在得到一个权限错误:
google-cloud-datalab - 使用 %%chart 命令绘制的图表不呈现
我有这个查询(Datalab 教程笔记本的折线图部分下查询的修改版本。)
然后是对 %%chart 的调用
%%chart bars --fields timestamp,latency --data timeseries
但这似乎没有绘制所需的条形图,即使我没有收到任何错误消息。我错过了什么吗?
google-cloud-datalab - 缺少连接到 Bitbucket 的选项
在我第一次运行 Google Cloud Datalab 时,我能够连接我的 Bitbucket git 存储库。然后我删除了我的项目和虚拟机,并开始了一个新项目。但是现在 Source >Browse 中缺少连接到 Bitbucket 的选项。
有人建议吗?
google-cloud-platform - Google Cloud Datalab 中的 %% 转义前缀支持哪些“命令”?
我在 Google Cloud Datalab 文档中看到 '%%' 转义序列用于执行 Python 以外的其他内容。到目前为止,我已经看到:
%%bash
用于在 shell 中执行任意命令
%%sql
用于执行 BigQuery 查询
%%chart
用于使用 Google 图表显示数据。
我还没有找到双百分号转义序列支持的所有可能命令的列表。一个存在吗?如果没有,任何人都可以至少向我提供更完整的清单吗?
google-cloud-datalab - 如何在我的本地 linux 服务器上运行 google-cloud-datalab?
我已在 Google Developers Console 上注册,但我的项目不是计费项目。我做了“初始化环境”的步骤。和“构建和运行”,如网页https://github.com/GoogleCloudPlatform/datalab/wiki/Development-Environment和https://github.com/GoogleCloudPlatform/datalab/wiki/Build-and-Run描述的。但是当我在部署在本地 linux 服务器上的 Notebook 中运行代码时,我遇到了以下错误:
创建并运行 SQL 查询
bq.Query('SELECT * FROM [cloud-datalab-samples:httplogs.logs_20140615] LIMIT 3').results()
Exception Traceback (most recent call last) in () 1 # 创建并运行 SQL 查询 ----> 2 bq.Query('SELECT * FROM [cloud-datalab-samples:httplogs.logs_20140615] LIMIT 3').results ()
/usr/local/lib/python2.7/dist-packages/gcp/bigquery/_query.pyc in results(self, use_cache) 130 """ 131 if not use_cache or (self._results is None): --> 132 self.execute(use_cache=use_cache) 133 返回 self._results.results 134
/usr/local/lib/python2.7/dist-packages/gcp/bigquery/_query.pyc in execute(self, table_name, table_mode, use_cache, priority, allow_large_results) 343 """ 344 job = self.execute_async(table_name= table_name, table_mode=table_mode, use_cache=use_cache, --> 345 priority=priority, allow_large_results=allow_large_results) 346 self._results = job.wait() 347 return self._results
/usr/local/lib/python2.7/dist-packages/gcp/bigquery/_query.pyc in execute_async(self, table_name, table_mode, use_cache, priority, allow_large_results) 307 allow_large_results=allow_large_results) 308 例外为 e: -- > 309 raise e 310 if 'jobReference' not in query_result: 311 raise Exception('Unexpected query response.')
异常:发送 HTTP 请求失败。 一步一步,我找到了抛出异常的地方: if headers is None: headers = {}
不知道是我的配置错误还是云数据实验室不支持本地部署和运行。也就是说,我们无法在本地数据实验室服务器上运行笔记本中的代码。请给我一些想法。这个问题困扰了我一个星期!谢谢!
google-cloud-platform - Cloud Datalab 无法启动
尝试启动 Cloud Datalab 时不断收到以下错误。尝试删除项目中所有列出的虚拟机,但仍然无法正常工作。
google-cloud-datalab - 将静态文件输入/输出数据实验室的最佳方法?
将文件(例如存储为数千个文本文件的数据)从我的本地计算机获取到我可以轻松地将它们加载到 Jupyter 笔记本的地方的最佳方法是什么?我已经gcloud
在本地计算机上安装了这些工具并按照说明进行操作,但ssh
一直超时。如果我去开发控制台,说我需要以这种方式从“谷歌管理”到“自我管理”实例更改为 SSH。是否datalab
需要由 Google 管理?
google-compute-engine - Cloud Datalab zombie VM
I had a play with Cloud Datalab a few days ago. After I finished I deleted the VM in my list which was named gae-datalab-main-[..]
It successfully deleted.
A couple of days later I noticed back in my list of VMs. So I deleted it again thinking it was just a glitch.
But it's back again today:
Anyone know what's going on here?!
python - 使用 Google Cloud Datalab 时如何将 .gz 文件加载到 BigQuery?
维基百科将他们的日志文件存储为 .gz,BigQuery 能够提取 .gz 文件。
使用 Google Cloud Datalab 时如何将这些文件“移动”到 BigQuery?