问题标签 [conda-pack]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Python - 是 conda-pack 跨平台,达到什么水平
我正在使用 conda-pack 打包整个 conda env 并能够将其与脚本捆绑在一起。
我可以排除到什么级别的跨平台?任何操作系统?如果构建在 Linux 上,任何 Linux 都可以工作吗?如果建立在 Ubuntu 上,任何基于 Debian 的工作都可以吗?需要相同的内核版本吗?
从这个意义上说,两个操作系统兼容的最低要求是什么?可以保证吗?
python-3.x - 指定攻击面减少的 Windows 阻止的 Python 核心文件
嗨,我正在 python 中开发一个 excel 插件项目。现在要部署这个项目,我使用conda-pack捆绑依赖项并使用Wixtoolset创建一个 msi 安装程序。挑战是在安装程序工作的不同机器上很多次,但在项目运行时窗口会阻止核心 python 文件说“攻击面减少”,有时在安装窗口会阻止说“攻击面减少”。
在 Windows 10 上被阻止的文件是:
Python3.8.5_x64\Lib\site-packages\win32comext\shell.pyd
Python3.8.5_x64\tcl\reg1.3\tclreg13.dll
因此,任何指导将不胜感激。
python - conda-unpack 脚本在哪里?
我正在尝试按照https://conda.github.io/conda-pack/index.html?highlight=conda%20unpack上的步骤打包和解包 conda env。
但是,我没有看到conda-unpack
脚本。它应该位于哪里?
python - 在 C DLL 中嵌入 conda 环境
我正在使用 conda-pack 在 Windows(Windows 10、64 位、Python 3.8)上创建可重定位的 miniconda 环境。效果很好:我可以使用激活目标机器上的环境
并运行带有所有 conda 好东西的 python。
现在我编译一个用 C 语言编写的 DLL,它嵌入了重新定位的环境。它有效——只要我不尝试使用特定于 conda 的函数(例如 import numpy)——在这种情况下,PyImport_Import(pName)
返回 NULL(在我的情况下为 pName = "python38.dll")。问题显然是环境没有被正确激活。
我已经尝试在其他地方查看帖子:
在 Windows 中设置 PATH、PYTHONHOME 环境变量以指向 env 的所有二进制目录(在 DOS shell 中工作,不嵌入)
将 Py_SetPythonHome(program_name) 和 Py_SetProgramName() 与环境根目录的绝对路径一起使用,希望能激活它
将 Py_SetPath(path) 与 env 二进制目录 (c:\root; c:\root\Lib; c:\root\Scripts;c:\root\DLLs) 的所有绝对路径的逗号分隔列表一起使用
有没有人从 C 中成功使用过这样的嵌入式 conda 环境?
感谢您的任何想法!
维尔纳
python - 解压缩后,Conda 打包的环境不指向正确的 python
因此,我以通常的方式创建了一个 conda env,但略有不同。我将一些额外的文件夹复制到 env 根目录,以便打包它们。
打包到 tar.gz 后,它们就在那里,但是在解压和激活时,它没有指向正确的 python 可执行文件。有任何想法吗?
python - Conda-pack:CondaPackError:由 conda 管理的文件是
所以,我有一个 python 项目,我的所有测试都在其中运行,但是我这样做了:
conda install -y conda-pack
成功了,当我运行时:
conda-pack
我收到了很长的投诉:
我没有看到任何问题,conda list
我仍然可以运行我的测试。我认为我的环境没有问题。想法?
python - 是什么阻止了“conda pack”将猴子补丁添加到包中?
我正在尝试在使用conda pack
打包所有包以进行部署之前对 Python 包进行修补。
脚本设置conda
:
然后它猴子修补库:
然后它将所有内容打包以进行部署:
所以奇怪的是,当我将文件直接复制到构建文件夹中时:
猴子补丁文件在那里。
但是,当我提取时$BUILD_DIR/runtime.tar.gz
,文件是原始形式。
另一个奇怪的行为是,当我手动运行这些步骤时,猴子补丁文件位于$BUILD_DIR/runtime.tar.gz
.
周围有很多容器,所以我认为可能conda
正在使用一些捕获的 tarball,所以我尝试将其添加到脚本中:
但这仍然没有解决问题。
我也尝试使用conda pack
's 显式路径选项,但它也不起作用:
是否conda pack
从其他位置提取文件,除了:/opt/conda/envs/venv/lib/python3.7/site-packages
这并不能解释为什么手动操作会起作用,但也许它会让我找到一块新的岩石来寻找。
感谢您的时间
这是整个脚本:
apache-spark - 使用 Conda 依赖项在 Spark 上运行 Python 应用程序
我正在尝试在 Spark 中运行 Python 脚本。我在客户端模式(即单节点)下运行 Spark,其中包含pandas
通过 Conda 安装的一些依赖项(例如)的 Python 脚本。有各种资源涵盖此用例,例如:
- https://conda.github.io/conda-pack/spark.html
- https://databricks.com/blog/2020/12/22/how-to-manage-python-dependencies-in-pyspark.html
以这些为例,我在 Sparkbin
目录中通过以下命令运行 Spark,其中/tmp/env.tar
包含的 Conda 环境是conda-pack
:
Spark 抛出以下异常:
为什么这不起作用?我对 Python 路径中的 也很好奇./
,因为不清楚 Spark 在哪里解压 tar 文件。我假设我不需要将 tar 文件加载到 HDFS 中,因为这一切都在单个节点上运行(但也许我在集群模式下这样做?)。