问题标签 [azure-notebooks]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
git - Azure Databricks - 从笔记本克隆 git 存储库
我正在尝试使用 GitPython 库从笔记本中克隆托管在 Azure DevOps 上的 git 存储库。我在 git 存储库上生成了具有读/写访问权限的个人访问令牌。
目的是将 git 存储库保留在 DBFS 中,因为它不仅会填充笔记本源,还会填充输出和 MLFlow 模型。
为此,我尝试了以下操作,但仍然面临来自 Git 的错误 128:
总是导致错误,没有更多细节:
我从其他地方检查过,我的 PAT 工作正常。
我还尝试在 Base64 中对 PAT 进行编码,并Authorization : Basic <base64PAT>'
使用下面的命令添加标题 ',但结果是相同的。
对此有任何提示吗?GitPython 是否依赖于我需要更新的另一个配置,还是应该使用另一种方法?
azure - Azure 笔记本可以调用 Azure Functions 吗?
我用谷歌搜索了一下,但问题仍然存在:Azure 笔记本可以调用 Azure Functions 吗?
似乎 Azure Function 不能很好地与 Data Bricks/Notebooks 配合使用?
我可以想办法集成 Azure Functions <--> Data Bricks/Notebooks 我的 Azure Functions 可以将计算结果保存在 SQL 服务器中。笔记本只是从中读取。
但是,我不确定我的方法是否最合适。
非常感谢
apache-spark - 获取 Azure Databricks 沿袭组件
通常在数据块中,我们将有工作区,然后是笔记本。在笔记本中,我们将有命令。我将一一获取这些命令,并基于此每个命令准备沿袭。为了构建沿袭,我们需要源和目标,那么我们如何使用此命令获取源和目标 例如: %python display(dbutils.fs.ls("/databricks-datasets")) 以上是一个命令,那么我们如何确定源和目的地。我知道使用 Spline 工具我们可以获得解决方案,但我们需要处理命令。所以任何人都可以帮我解决这个问题
azure - 无法访问 Azure 机器学习服务笔记本上装载的数据集
我正在使用 Azure 机器学习服务中的笔记本功能。在这个笔记本中,我连接到工作区,检索了相应的数据存储并将我的文件作为文件数据集对象检索。到目前为止一切正常。
现在我尝试挂载这个 file_dataset
一切似乎都很好。快速 ls 给出以下输出:
但这是我的问题:挂载的文件夹是由 root 用户挂载的。我无法访问它——既不能从笔记本也不能从外壳。ls 产生典型的错误path not found
或permission denied
.
azure - 在 Azure Databricks Notebook 上检索群集不活动时间
我是 Azure Databricks 的新手,我正在将它用于一个项目。
正如这里在文档中提到的Automatic termination
那样
您还可以为集群设置自动终止。在集群创建期间,您可以指定inactivity period
希望集群终止的分钟数。current time
如果群集上的运行和运行之间的差异last command
超过指定的非活动期,Azure Databricks 会自动终止该群集。
是否有一种解决方法可以通过集群 API或任何其他方法在 Azure Databricks Notebooks 上获取集群的实时非活动期(当前时间与集群上运行的最后一个命令之间的差异) ?
pyspark - 如何在数据块中将数据框作为笔记本参数传递?
我有一个要求,我需要将 pyspark 数据帧作为笔记本参数传递给子笔记本。本质上,子笔记本几乎没有参数类型为数据框的函数来执行某些任务。现在的问题是我无法使用(不将其写入临时目录)将数据框传递给此子笔记本
我尝试引用此 url - 从 databricks 中的另一个笔记本返回数据帧
但是,我仍然有点困惑如何将数据帧从子笔记本返回到父笔记本,以及从父笔记本返回到另一个子笔记本。
我尝试编写如下代码 -
但它只是返回第一个 tempView 的模式。
请帮忙。我是pyspark的新手。
谢谢。
azure-blob-storage - 即使安装了“Azure-blob-Storage”最新版本 azure-storage-blob==12.9.0,也无法导入名称“BlobServiceClient”
我正在尝试执行脚本'Azure Notebooks'
以将 blob 上传到Azure Data lake Gen 2
using 'Azure-storage-blob'
,但由于我无法做到,所以不能import 'BlobServiceClient'
。我已经'Azure-storage-blob' - 12.9.0
安装了最新版本。但仍然面临进口问题'BlobServiceClient'
下面是代码
下面是错误
python - 无法使用 Python 将文件上传到 Azure Notebooks 中 Azure Datalake Gen 2 中容器中的目录
我正在尝试使用 Python 将数据帧上传到 Azure Notebooks 中 Azure Datalake Gen2 中容器中的目录,但出现错误。
下面是我的代码:
以下是错误:
python - Jupyter 笔记本在 Microsoft Azure 中运行缓慢
我对使用 Microsoft Azure 运行 jupyter 笔记本很陌生。我注意到绘制 2 个 numpy 数组的极坐标图可能需要 30-45 秒,该数组相对较小(每个数组<300 个数据点)。当我必须执行其中几个图时,时间会增加,所以我想知道这是否与特定的计算实例或网络延迟有关?任何见解将不胜感激,谢谢!
scala - 如何解决 Azure synapse scala notebook 错误 TaskCanceledException:任务被取消?
我有下面的 synpase 管道,它有 4 个笔记本活动。我正在使用大型火花池。第二个笔记本抛出错误TaskCanceledException:任务被取消。谁能帮我这个?
笔记本代码:-
管道快照:- 在此处输入图像描述
配置