问题标签 [blaze]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 插入 MongoDB retuns 无法编码对象
我正在做一个相当简单的插入到来自 Python pandas DataFrame 的本地 MongoDB 中。本质上,我正在调用 datframe.loc[n].to_dict() 并直接从 df 获取我的字典。到目前为止一切都很好,直到我尝试插入,我得到一个“无法编码对象”。直接查看 dict 表明一切看起来都很好,但随后(在写这个问题时)我突然想到检查 dict 中的每种类型,发现一个长 ID 号已转换为 numpy.int64 而不是简单的 int (当我手动创建了 dict,因为 int 可以很好地插入)。
因此,我无法在 pandas 文档中找到任何关于向 to_dict 添加参数的内容,这将允许我覆盖此行为,虽然有解决此问题的蛮力方法,但必须有一些更有说服力的方法来解决此问题不诉诸这种事情。
那么问题是,如何将数据帧的一行转换为字典以插入 MongoDB,确保我只使用可接受的内容类型......或者,我可以在这里进一步备份并使用更简单的方法来获取每一行一个数据框成为Mongo中的一个文档?
谢谢
根据要求,这是该帖子的附录,其中包含我正在使用的数据示例。
这直接来自插入时出错的 to_dict 输出。我将它直接复制到“测试”字典中,效果很好。如果我打印出每个字典的值,我会得到以下内容......
唯一的区别(据我所知)是 Long int,有趣的是,当我执行 Mongo 插入时,它在文档中显示该字段为“Number Long”。希望这有助于澄清 som。
python - 配置 Blaze 并从 Pyramid Web 应用程序启动 Bokeh 服务器
我有一个 Pyramid Web 应用程序,客户希望能够在其上以交互方式绘制大型数据集。
该应用程序当前使用 D3 显示具有缩放、平移、悬停等功能的客户所选数据的子集。但是,如果用户需要查看具有相同功能的完整集,我想使用 Bokeh 服务器并使用下采样。
我遇到麻烦的地方是下采样功能只能用于使用 ServerDataSource 的绘图。
理想情况下,Bokeh 服务器将持续运行,我可以将客户选择的数据推送到它,然后将其用作下采样图的源。但是,据我所知,Blaze 不允许我将数据推送到现有服务器。
相反,我想当用户请求绘图时,我可以使用 Pyramid 的视图之一来修改 Blaze 配置文件,然后启动 Bokeh 服务器。
数据存储在服务器上后,另一个视图将以 Bokeh 服务器作为数据源绘制曲线。
最后,来自 JavaScript 的 Bokeh 服务器窗口已关闭的信号将请求发送到另一个视图,该视图将停止服务器。
但是,在尝试服务 /startBokehServer 时,应用程序以状态 2 退出。回溯包括在下面。
注意:当我从命令行运行 bokeh-server 可执行文件然后从单独的 Python 脚本创建和提供它们时,这些图按我的意图工作。
所以我的问题如下:我可以将数据推送到已经运行的 Bokeh 服务器,然后将其用作数据源进行下采样吗?如果没有,我如何根据 Pyramid 应用程序中的请求启动/停止 Bokeh 服务器?
提前感谢您的帮助!
python - python blaze postgresql无法打印“不同的”虹膜物种
阅读有关blaze的本教程,但在本地 postgresql 数据库中使用 iris 数据集。
使用时我似乎没有得到与显示相同的输出db.iris.Species.distinct()
(请参阅 Ipython 笔记本的 16 中)。
我的连接字符串是postgresql://postgres:postgres@localhost:5432/blaze_test
我的简单 Python 代码是:
我在控制台(使用 Spyder IDE)中得到的只是distinct(_55.iris_data.species)
如何实际打印表中的不同物种?
注意:我知道我在代码中的“物种”部分使用小写的“s”,否则我只会收到错误消息:'Field' object has no attribute 'Species'
python - python blaze (pandas) 无法 safley 转换用户 dtype
我想使用 python blaze从uk nga geonames 下载uk.txt
我想使用 python blaze从uk nga geonames 下载uk.txt
中读取文件,然后odo将其插入 Postgresql 数据库。
代码是:
我收到错误ValueError: cannot safely convert passed user dtype of <i8 for object dtyped data in column 0
,我认为我理解为“无法转换数据类型以插入数据库”
我应该强迫dtype
平等吗?我将如何解决这个问题?
该文件的示例输入是:
由于某种原因,标头没有被正确推断。您可以像这样传递infer_header
关键字参数:
之后,只需odo
将其放入所需的表中:
我想使用 python blaze从uk nga geonames 下载 我想使用 python blaze从uk nga geonames 下载 代码是: 我收到错误 我应该强迫 该文件的示例输入是: 由于某种原因,标头没有被正确推断。您可以像这样传递 之后,只需uk.txt
uk.txt
中读取文件,然后odo将其插入 Postgresql 数据库。ValueError: cannot safely convert passed user dtype of <i8 for object dtyped data in column 0
,我认为我理解为“无法转换数据类型以插入数据库”dtype
平等吗?我将如何解决这个问题?
infer_header
关键字参数:odo
将其放入所需的表中:
python - 使用odo转换pandas hdfstore时维护数据列
我正在使用 blaze 项目中的 odo 按照以下问题中的建议合并多个 pandas hdfstore 表:连接两个大熊猫.HDFStore HDF5 文件
这些商店在设计上具有相同的列和不重叠的索引以及几百万行。单个文件可能适合内存,但总组合文件可能不适合。
有没有办法可以保留创建 hdfstore 的设置?我松开了数据列和压缩设置。
我试过odo(part, whole, datacolumns=['col1','col2'])
没有运气。
或者,将不胜感激对替代方法的任何建议。我当然可以手动执行此操作,但我必须管理块大小以免内存不足。
python - 使用 Blaze 访问 Spark 时出错
尝试用 Blaze 和我的本地 Spark 实例做一些相当简单的事情。使用 blaze 的 into() 加载 csv 文件,然后使用 blaze 的 by()
csv(简单的.csv)
代码
关于这里发生了什么的任何想法?
边注; 这行得通
这也是
一定是我将它“加载”到 Spark 中的方式,对吧?
python - 使用 Blaze 附加 bcolz 列
让我们首先构造一个ctable
:
现在假设我想在这个表中添加一个名为“x_mod”的列。我试过了
但它给
1) 如何分配“x_mod”列然后保存到磁盘?我正在使用大型数据库:计算内存中的列应该没问题,但是我无法将整个加载到ctable
内存中。
2)在相关问题上,这apply
对我也不起作用。难道我做错了什么?
谢谢你的时间!
blaze - Blaze 无法处理 postgresql 数据库的 BIGINT、TEXT 数据结构
我正在尝试 Blaze 分析我的 postgres 数据库中的数据
连接使用
它给出了错误
Blaze好像看不懂我postgresql的数据类型
python - 从字符串构建 sqlalchemy 查询
如何将 sql where 子句字符串转换为 sqlalchemy 查询?我假设我已经知道这张桌子了。
我正在构建一个 Angular webapp,它使用 Flask API 获取数据。Flask 正在使用 sqlalchemy 来查询数据库。jQuery-QueryBuilder fromSQL ( http://querybuilder.js.org/plugins.html#import-export ) 将过滤器导出为原始 SQL,我想将其传递回 api、解析和查询。
例如:
将转换为:
标记 blaze 因为 odo 可能是我需要的。
pandas - 如何在 blaze 中读取制表符分隔的 CSV?
我有一个具有以下格式的“CSV”数据文件(嗯,它是一个 TSV):
该文件可按原样解释pandas
:
但是,当我尝试读取它blaze
(声明使用 pandas 关键字参数)时,会引发异常:
这些都不起作用,pandas 根本没有使用。试图推断列名和类型的“嗅探器”只是csv.Sniffer.sniff()
从标准库调用(失败)。
有没有办法在 blaze 中正确读取这个文件(鉴于它的“小兄弟”有几百 MB,我想使用 blaze 的顺序处理能力)?
感谢您的任何想法。
编辑:我认为这可能是 odo/csv 的问题并提出了问题:https ://github.com/blaze/odo/issues/327
Edit2: 完全错误: