问题标签 [google-cloud-datalab]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-app-engine - Cloud datalab 无法部署并出现错误:无法选择区域和/或区域
当我尝试部署 Datalab 时,在部署 datalab appengine 模块期间,我在日志中看到以下错误:
我看到一个名为 datalab 的模块出现(说它在 us-central 中),但是当我返回页面启动它时,它要求我再次部署。我已经重试了 3-4 次,结果相同。
没有别的东西是日志突出为错误或问题。有什么建议可以帮助解决这个问题吗?
sql - 在 Google Cloud Datalab iPython 笔记本中为 TABLE_QUERY 传递参数
我对 Google Cloud Datalab 还是很陌生,并且在执行参数化查询时遇到了一些麻烦。
我按照从Datalab 教程传递查询参数的示例,并尝试将其应用于以下查询:
我想遍历所有user_events表,索引为 0,1,2,3 ...为此,我想传递 TABLE_QUERY 的参数并在循环的一次迭代中查询每个表 - 不是全部桌子同时。(因为我需要在每个表中对用户记录进行排序;一次对所有user_events表执行查询时超出了资源)
1.)我定义了一个新的查询(%%sql --module topUserEvents
等)并从上面的查询中替换了以下部分:
和:
执行查询,将表号作为字符串传递 - 不起作用:
2.) 我还尝试传递整个字符串,将原始查询的一部分替换为:
执行查询,传递整个字符串,返回大查询异常:
有谁知道如何为 TABLE_QUERY 参数传递(一部分)字符串,例如上面的情况?
任何帮助将不胜感激 :)
google-cloud-datalab - 共享数据实验室笔记本
根据我的阅读,我们可以通过下载 .pynb 文件并以这种方式共享或共享 html 链接来共享云数据实验室笔记本。
我在 datalab_main 下创建了一个新文件夹并创建了新笔记本。我已经从 git 存储库源代码中提交了文件,并且它已成功提交。现在,当我尝试共享 html 方式时,存储库提交并没有反映给其他人同一个项目(拥有所有权限),当他们点击 html URL 时,它给出 404,因为我创建的文件夹不是为其他用户创建的。你能帮我吗?
google-bigquery - 无法从 DataLab 连接到 Bigquery API
我在 Python 中运行以下代码以从数据实验室笔记本连接到大查询 api:
我收到以下错误:
() 中的 ImportError Traceback(最近一次调用最后一次)
----> 5 个凭据 = GoogleCredentials.get_application_default() 6 7 bigquery_service = build('bigquery', 'v2', credentials=credentials)
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in >get_application_default() 1202 """ 1203 return self -> 1204 1205 @property 1206 def serialization_data(self):
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in _get_implicit_credentials(cls) 1187 access_token、client_id、client_secret、refresh_token、1188 token_expiry、token_uri、user_agent、revoke_uri=revoke_uri) -> 1189 1190 def create_scoped_required(self): 1191 """这个 Credentials 对象是否是无范围的。
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in _implicit_credentials_from_gce() 1123 def _in_gce_environment(): 1124 """检测代码是否在计算引擎环境中运行。-> 1125 1126返回: 1127 如果在 GCE 环境中运行,则返回 True,否则返回 False。
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in _get_application_default_credential_GCE() 1378 credentials:要保存到公知文件的凭证;1379 它应该是 GoogleCredentials 的一个实例 -> 1380 well_known_file:1381 保存凭据的文件的名称;此参数应该仅用于 1382 测试
/usr/local/lib/python2.7/dist-packages/oauth2client/gce.py in () 24 from oauth2client._helpers import _from_bytes 25 from oauth2client import util ---> 26 from oauth2client.client import HttpAccessTokenRefreshError 27 from oauth2client.客户端导入 AssertionCredentials 28
ImportError:无法导入名称 HttpAccessTokenRefreshError
我错过了什么?为什么这个谷歌提供的例子不适用于数据实验室?
google-cloud-datalab - 在datalab中,是否可以将数据从python传递到图表中?
试图弄清楚是否可以引用 python 数据作为创建图表的来源。
google-app-engine - 无法停止或删除 Google Cloud Platform 上的 datalabs 环境
我无法使用找到的说明删除数据实验室:https://cloud.google.com/datalab/getting-started#manage_instances_and_notebooks在Deleting VM instances 下。不断收到错误 - “错误:此应用程序有一个待处理的操作。请稍候,然后重试。”
一段时间后我继续尝试......但不起作用。我账户的费用正在增加,我无法停止。
已尝试以下操作:如何正确停止 Google Cloud Datalab
google-cloud-datalab - 在 Google Cloud Datalab 中运行 sklearn 0.17
我正在尝试在 Google Datalab 中使用 sklearn.feature_selection 但是,Datalab 默认安装了 0.16.1 版本。我尝试使用安装 0.17 版
这很好用,但是当我运行一个新的代码块时,我仍然得到旧的 sklearn 版本,但路径正确。
现在让我们尝试一个新的 bash 块:
我错过了什么?
google-cloud-datalab - 是否有数据实验室键盘快捷键列表?
我已经开始阅读 datalab 的初始教程和文档,它们偶尔会提供建议的键盘快捷键,但我似乎无法在任何地方找到它们的列表,因此我可以探索各种选项。
任何链接或指导(甚至是我可以在 datalab 中输入的列出所有快捷方式的命令),将不胜感激。:)
svm - 我们如何增加可用于在 Google Cloud DataLabs 中执行 SVM 的 CPU?
我们有一个约 70,000 行和约 7 个特征的数据库,我们正在尝试对其进行基于 SVM 的预测。该服务在停止之前运行了 4-5 小时(没有结果。)我们如何按比例增加或减少进行计算的 CPU 的数量,以便它可以在几分钟而不是几小时内运行?
r - 我们如何将 Azure 机器学习工作室连接到 Google BigQuery?
我们正在尝试使用支持向量机对我们的数据集进行预测,但只有 70,000 行和 7 个特征——我们已经在 Google DataLabs 上尝试了 SVM,但我们的数据集太大,无法在 DataLabs VM 上的任何合理有限时间内进行计算。
我们希望利用一种跨 CPU 内核扩展统计方法的方法,例如 Azure 机器学习工作室上的 R 的 Revolution Analytics 版本,但我们的数据位于 Google BigQuery 上。
我们如何连接 Azure 机器学习工作室上的 R 脚本以在 Google BigQuery 上使用我们的数据集?