问题标签 [csv-import]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hebrew - 如何将希伯来语的 csv 文件导入 vtiger CRM 中的联系人?
我想将包含希伯来语的 csv 文件导入到 V-tiger CRM 中的联系人中。我尝试导入文件,但希伯来语中的值显示为“?????”。在数据库中,表是 utf8 格式。如何解决这个问题?任何人请帮助我!
out-of-memory - Prestashop 内存不足 CSV 导入错误
在 Prestashop 1.6 中导入我的 CSV 文件(超过 33000 行)时出现内存不足错误。
neo4j - 如何通过导入 csv 数据在这些节点之间创建关系 (a->b->c)
我有一个现有节点的数据库,并希望从 CSV 文件中添加其他关系,如下所示:
我想建立一个关系 (a->b->c) 就像 HEILBRONN->ILSFELD->MUNDELSHEIM
我怎么才能得到它?谢谢。
neo4j - neo4j 批量 .csv 导入的垃圾收集调整/性能下降
我正在将数据批量导入以服务器模式运行的 neo4j 实例(我已经针对 2.2.0 社区和企业版以及 2.1.7 社区运行)。我的应用程序在内存中创建了一堆节点,并且会定期停止编写一系列 .csv 文件并将 cypher 发送到 neo4j 实例以上传文件。(这样做是因为使用普通的旧 REST API 运行应用程序时的性能问题)。
总的来说,我希望上传 150-50 亿个节点,所以原则上,这是 neo4j 声称能够相对较好地处理的类型。
好吧,无论如何,当我对生产数据运行此程序时,我注意到的是应用程序以两种状态运行——一种是 csv 上传每秒处理 2k-8k 个节点,另一种是处理 80-200 个节点每秒节点数。当您将上传视为时间序列时,这两种状态是交织在一起的,随着时间的推移,它会在缓慢状态下花费越来越长的时间。
节点是通过一系列
声明,并且我对我正在合并的所有内容都有索引。这感觉不像是插入语句中的降级,因为减速不是线性的,而是双峰的,这感觉就像在 neo4j 实例中存在垃圾收集一样。为频繁批量插入调整 neo4j JVM 垃圾收集器的最佳方法是什么?
neo4j.properties:
neo4j-wrapper.conf:
这感觉就像是整体堆内存和 Neostore 东西的最佳选择。增加整体堆会降低性能。也就是说,neo4j 垃圾收集日志经常有 GC(分配失败)消息。
编辑:回应迈克尔饥饿:
这台机器有 64 GB 的 RAM,似乎什么都没有用完。似乎任何时候都只使用少量内核。垃圾收集器分析显示垃圾收集器似乎运行得相当频繁。
确切的密码语句是,例如:
虽然有几个这样的语句,我已经尝试了一个并发事务以及并行运行几个(~3)这样的语句(这大约提高了 2 倍)。我已经尝试调整定期提交频率和文件大小。当 csv 文件大约有 100k 行时,这似乎可以最大限度地提高性能,这意味着确实可以关闭定期提交。
我没有在语句上运行配置文件。我会这样做,但我认为通过在 create 语句上使用 MERGE ... 可以避免急切的合并问题。
android - 尝试使用辅助类对象从 Sqlite db 获取数据时出现空指针异常
我想从 .csv 文件中获取数据,在应用程序启动时第一次将其存储到 Sqlite db 中。之后从 Sqlite db 中获取数据并显示在可扩展列表视图中。但是当我尝试时出现空指针异常使用助手类对象调用 DatabaseHelper 类的方法。
数据库助手
` NearByApp 仅调用应用程序启动
主要活动
我在
返回 db.rawQuery(query, null);
线
04-21 14:25:49.810: E/AndroidRuntime(25473): 引起: java.lang.NullPointerException 04-21 14:25:49.810: E/AndroidRuntime(25473): at com.example.nearbuy.database.DatabaseHelper .getExpandableData(DatabaseHelper.java:308)
excel - CSV 引号 + 逗号分隔符和 BREAK LINE :在 EXCEL 中导入不带换行符
我有这种 CSV :
因此,当我使用“从文本文件获取数据”导入EXCEL 2013时,
1)如何说分隔符 IS QUOTES + COMMA,
2)对于Excel,字段中的BREAK LINE是新的数据行......怎么说不是?
我知道 CSV 是 Web 上一个很长的话题,但没有明显的解决方案。所以谢谢你的帮助。
r - 忽略分隔符导入 CSV 数据
我正在使用 RStudio,我想导入 csv 数据。此数据有 3 列,它们用“,”分隔。
现在我输入test <- read.csv("data1.csv", sep=",")
数据已导入,但它仅作为一列导入。
标题没问题,但标题(实际上是 3 个)也只在一列中组合在一起。
如果我设置 header=F,则标题为 V1。所以真的只有一列。为什么我的分离器不工作?
matlab - matlab - CSVIMPORT 函数不适用于巨大的 CSV?
所以我正在使用这个CSVIMPORT 函数,并且我正在尝试导入一个如下所示的 CSV 文件:
等等 948739 行。基本上,第 2 列和第 3 列代表人们的 ID 号,它描述了一个人在事件中对另一个人的呼叫(例如 439105 呼叫 1053224)。每当有人在活动之外呼叫某人时,他们的 ID 都会显示为“外部”。
我只需要导入第 2 列和第 3 列(例如 439105 和 1053224)。问题是我只能让我的代码在一个小的 csv 文件大小而不是一个大的文件上工作......根据这个问题,一个超过一百万行的 csv 文件工作。
根据文档:
[C1 C2 C3] = CSVIMPORT(fileName, 'columns', {'C1', 'C2', C3'}, ... ) 此表单分别返回输出变量 C1、C2 和 C3 中列的数据,列名称区分大小写,并且必须与文件中的列名完全匹配。在列模式下获取数据时,输出列的数量必须与要读取的列数匹配,或者必须为 1。在后一种情况下,列中的数据作为单个单元格矩阵返回。
[C1 C2 C3] = CSVIMPORT(fileName, 'columns', [1, 3, 4], ,'noHeader', true, ... ) 此表单分别返回输出变量 C1、C2 和 C3 中列的数据,当 'noHeader' 选项设置为 true 时,columns 参数必须包含列索引。
所以我用了这个:
使用较小的测试 csv 文件,打印出如下内容:
这就是我想要的。但是,当我使用 948739 行的实际文件执行此操作时,我只会得到一个数字列表,如下所示:
并且持续了很长一段时间......
那么调用 CSVIMPORT 时我做错了吗?我只是想不通...任何帮助将不胜感激,谢谢!
php - 将 CSV 文件导入数据库,并使用 preg_match 查询 400x400 联系人 url
我的导入脚本工作正常。在 $field_csv['imageUrlStr'] 中有一些不同大小的图像 url,我需要获取 400x400 字符串,其中包含我的图像 url 的 url,然后将其插入数据库,但是当我使用当前代码时,同一行得到多次插入。
请帮我。
postgresql - 导入 csv 文件并更新 Postgres 中的现有表
我在 Heroku 上有一个 Postgres 数据库。我使用 pgadmin 连接到它。我将表格数据导出到 csv。编辑了一些单元格,现在我想用更正的 csv 替换同一个表。但是当我尝试导入 csv 我得到这个错误
我研究了这个错误。我知道它试图向现有表添加更多行并且主键发生冲突。但我无法得到我的解决方案。我想用新更新的 csv 替换表格。
谢谢