问题标签 [pentaho-data-integration]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
354 浏览

mongodb - Pentaho Mongo 输入查询表达式中未替换命名参数

我在 Pentaho Kettle 中创建了一个转换,我通过 Mongo 输入从 Mongo 集合中提取一些数据,但我面临的问题是我在同一个转换中创建了两个命名参数,并且它们没有在 Mongo 查询表达式选项卡中被替换. 下面是我的 mongo 查询表达式:

以下是我从命令行尝试过的两个选项:

我正在使用 Mac OSX 和 Pentaho Kettle (CE 5.2)。是否可以在同一个转换中使用命名参数?

0 投票
3 回答
1578 浏览

sql-server - Overflow Exception when trying to write to Sql Server column with decimal(38,0) type from Pentaho

I'm trying to run a job which moves data from a set of tables in an Oracle connection to an Sql Server One. But I'm getting the following exception which causes the job stopping :

What the index 4 is pointing to is a column which has the type Number(38,0) in the oracle schema, the corresponding type for Sql Server table created by Pentaho is decimal(38,0).
The problem is that the very same job is running smoothly for other connections.
I'm using the classes12.jar as jdbc driver. I've tried using ojdbc6.jar (the one which is certified to work with jdk6, jdk7 and jdk8) but could not establish the connection to the database (Oracle 9i)

I've tried upgrading Pentaho Kettle to the latest stable release (Pentaho 7.0). But it's still giving the same problem.

What could be causing this problem ?

0 投票
1 回答
1038 浏览

migration - Pentaho 多表输入 多表输出

关于 Pentaho Spoon(数据集成)的问题: 如何将多个表的输入从一个数据库传输到另一个数据库的多个表?基本上是在目标数据库中自动创建表的 1:1 数据迁移。

我基本上想乘以以下变换:表格变换的图片

0 投票
2 回答
1094 浏览

etl - 如何在 ETL 中查找 csv(Excel) 表的列数?

要计算 csv 文件的行数,我们可以使用 etl 中的 Get Files Rows Count Input。如何查找 csv 文件的列数?

0 投票
1 回答
592 浏览

pentaho - Pentaho Kettle (PDI) table input step with field substitution running slower than using literal

I'll go straight to the point. I have a table input step, which reads records with a query that includes a where clause, as follows:

If a put a literal (i.e. '2017-04-02T00:00:00.000Z') in palce of the question mark, this step reads all new values, which could be thousands, in millis. If I use the field substitution and use the incoming value, it takes minutes.

Do you know why this could be happening? Do you know how to solve the issue?

Thank you very much for your time.

0 投票
2 回答
508 浏览

pentaho - Postgres 到 Json。Pentaho 7.0(数据集成)

我对 postgres 数据库进行查询,并带来两个字段,“USER”和“CREATED”(DATE)

我从创建日期中提取年份,然后遍历记录并根据年份和用户创建新的 json 对象

我想生成一个具有以下结构的json:

我用“Modified Java Script Value”创建了一个修改,我有几个疑问,我想为每年和每个用户检查一个数组,但我看到在下面的数据中只有我可以将它保存为:NUMBRE、STRING、DATA ,布尔值,整数,BIGNUBER,二进制,时间戳,互联网地址。

我不知道如何使用对象内的数组和对象生成我的 json。

0 投票
1 回答
318 浏览

oracle12c - How to speed up the data fetching from oracle database to pentaho data integration?

I am using pentaho data integration 5.4.1.130 and Oracle 12c. I have successfully connected oracle database using ojdbc7.jar (using jre 1.7.0.51 for pentaho). But when I tried to preview a table from oracle database in transformation, I'm getting the below error.

Thanks in Advance.

Here's the log:

0 投票
1 回答
2261 浏览

mapper - Pentaho 数据集成 (Spoon) 值映射器通配符

Pentaho Spoon 中的值映射器转换是否有通配符?我做了一些挖掘,只找到了上传文件和文档的通配符解决方案。我需要能够映射包含特定单词的任何和所有潜在值,但我没有办法识别包含该单词的短语的所有可能变体。

示例:将网站值映射到类别。

值 -> 映射类别

facebook.com -> 脸书

m.facebook.com -> 脸书

google.com -> 谷歌

google.ca -> 谷歌

我更喜欢使用通配符(例如,我们称之为 %),以便一个映射在我的值映射器中捕获给定类别(例如 %facebook% -> Facebook)的所有案例。另一个好处是通配符可以正确映射任何未来的站点流量值。(例如,假设的 l.facebook.com 将被正确映射,如果它曾经输入我的数据)

我尝试了各种字符作为通配符,但都没有奏效。+ \ * %

谢谢,麻烦您了!

0 投票
1 回答
197 浏览

pentaho-spoon - 如何让 pentaho 转型的一个步骤一天运行两次或多次?

我有 1 个包含多个步骤的转换。我想一天运行两次(每 12 小时)。有什么想法吗?

0 投票
1 回答
761 浏览

pentaho - 获取水壶 pentaho 流量的值

我正在使用 Pentaho 数据集成 Spoon。

简短描述:我想获取从流中读取的每一行的值出现在流中的次数。

详细描述:我正在做事实表的转换,当我读取一个csv文件的数据时,我有一个客户在特定时间乘坐了某架飞机。我想添加一个可用座位列,当它出现时读取客户乘坐混凝土飞机旅行的数据,在前面的流程中查看该飞机的可用座位数并减去 1。

例子。

最初,航班 1 有 160 个座位,而航班 2 有 320 个座位。

我可以添加一个值是可用座位总数的列。

但之后我不知道如何在每次流量读数中获得特定航班的可用座位的最小值。

我想要在我的流程中的最终输出..

非常感谢您花时间阅读我的问题。