`
hanyi366
  • 浏览: 283841 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

Kettle

    博客分类:
  • ETL
 
阅读更多

使用Kettle一个多月,记录一下临时的感受和印象较深刻的步骤。
(基于Kettle 4.1.0 stable, SQL Server 2005, WindowsXP & 2003)

几点用法

1. 在一个Transformation里面的不同步骤中传递参数
1) 向Execute SQL Script传递参数
步骤-1:从数据源头获取一行数据
步骤 0:Select Values (针对一行进行有选择地取出某些字段,比如取出5个字段,每个字段作为变量参数,传递给下一步的SQL)
步骤 1:Execute SQL Script(进一步选取上一步输出的某几个字段值,比如从上面5个字段里面再筛选出4个,作为执行SQL的参数)
这4个字段是:aid,bid,date,amount,其中id是string,date是datetime,amount是decimal
那么在步骤 1中的SQL脚本中使用如下:

Java代码 复制代码 收藏代码
  1. declare @aid varchar(20)
  2. declare @bid varchar(20)
  3. declare @date datetime
  4. declare @amount decimal(19, 2)
  5. set @aid = '?'
  6. set @bid = '?'
  7. set @date = '?'
  8. set @amount = ?
  9. ...
declare @aid varchar(20)
declare @bid varchar(20)
declare @date datetime
declare @amount decimal(19, 2)

set @aid = '?'
set @bid = '?'
set @date = '?'
set @amount = ? 
...



其中@amount的?是不需要引号的。因为kettle实际上用的是全局替换(这一点很重要,我被迷惑了很久),如同C/C++中的const常量,编译后全部替换成指定的值。
否则如果amount的值是20, 如果加了引号,就变成了set @amount = '20',这和decimal的类型冲突。会出错。而id和date类型的变量就可以赋值为字符类型。

选项要点:
Execute for each row
要选中。很好理解,对每一行输入都要执行该SQL语句
Execute as a single statement:
要选中。否则你在里面写的大段大段的SQL就被一行一行地执行,会大面积出错。
Variable Substituation:
要选中。这里牵涉到传进来的多个参数的赋值顺序问题。上面的aid先赋值,那系统怎么知道第一个问号是上一步传进来的哪个参数呢?就要由这一步来决定顺序。要在左下方的表格里指定好传进来的参数列表和顺序

2)向Table Output中的SQL Script传递参数
Table Output也可以使用SQL,同样也可以使用参数。不过这里使用的参数就不是全局替换了。这个就和通常编程序里面遇到的?类似了。举例:

步骤0:获取当前数据仓库的时间戳,然后从源数据库抽取出大于该时间戳的数据进行增量处理。本步骤返回时间戳。
步骤1:使用Table Output。利用SQL并且使用上步传进来的时间 datetime 类型。本步骤里唯一打勾的就是对Replace Variables in Script

这一次datetime类型作为参数,在SQL中使用的就是?,而不需要引号。要区别于上一个主题中的全局替换。

2. 在不同的Transformation/Sub Job 中传递参数
下面这篇文档说得很好了。
Using Named Parameters in Kettle
http://type-exit.org/adventures-with-open-source-bi/2010/07/using-named-parameters-in-kettle/

3. 循环处理
这个是避免不了的。ETL时总会遇到这种事情。抓来一行数据,处理到多个表中。再继续处理下一行。这个网上的例子很多,就不再啰嗦。我试过的可行的办法是:
在上一个Transformation中的最后一步用Copy Rows to Results作为末节点
在当前Transformation中的第一步使用Get Rows From Results,并且,对当前的Transformation的属性 Execute for every input row 打勾 (Advanced tab)

这两步足矣,但是不幸的是它有内存泄漏。所以承受不起很大的数据量。如果你每天增量循环处理的数据量小于1万条,那还凑合。这是个不太准的说法。实际上这个和你的机器内存,数据量大小有直接关系。

4. 定期处理
比如只有周一做某一件事,其它日子跳过这一步。可以使用JavaScript,封装在一个Tranformation中,返回true/false。然后在下一个Transformation中进行条件判断和处理,合理使用Dummy这个节点。我曾经想在一个Tranformation完成上述处理。发觉很麻烦,有点被绑架的感觉。为了一个简单的步骤要额外造出很多轮子。反而分开处理还相对方便一点。

用后感受
使用Kettle一个多月,积累了一些想法。以后可以慢慢修正。

1. Tranformation内部还是之间
我有贪心的感觉总想把相关联的步骤放在一个Tranformation里面解决。但是有时候根本不合适,反而更麻烦。网上也有很多讨论,其中较多人推荐的一个方案就是把某些动作独立到各自的Tranformation中,从而简化处理的复杂度。

2. 性能
我用的不多,所以不好一棍子打死。毕竟才用了不到2个月。分区和集群都没有研究过。所以本观点具有时效性。但还是觉得Kettle性能方面确实没什么优势。看到有的人用kettle说每天能处理几个G的数据都没问题,我表示怀疑。当然如果相对简单的并发抽取,并发导出而没有较多的中间数据处理步骤,应该可以做得到吧。

我把含有一个20万,两个15万条数据的xml文件简单直接导入三个单个数据库表中用了20多分钟,而且还没有加索引(64位windows,8G),并发执行。不过把这三个表反过来导出到xml文件中,就很快了,几十秒。

我这里主要是指在进行对每行循环处理的时候有内存泄漏。循环处理了几万条以后内存使用量达到8G,垃圾回收不回去,不停的增长。这就是问题了。所以后来改了策略,先到一个数据库里把之前的历史数据用存储过程,游标等常规手段进行抽取,花了十几个小时。之后就是每天的增量更新,最多不过2000条。绕过了这个问题。

我又想,这也许就是开源软件的通病?据说(没试过),Mondrian的OLAP Server 也是处理不了大数据,我在网上看到类似的讨论。我用过BIRT进行Cross table的变换,导出的excel文件接近30M,也是慢的不行,本地处理需要5分钟以上。毕竟BIRT的强项不是多维查询,还是以展现为主吧。

3. 并发和同步
基本上Tranformation内部是并发的,除非你特别指定需要同步。这样的设计理由很简单,提高处理速度。对于Transformation之间包括sub job,缺省是顺序执行,不是并发的,你可以指定并发。
但是也不一定。所以上述的描述并不准确。

比如在Tranformation内部使用Block this step until steps finish,有时候就不管用。
再比如在Tranformation之间的动作也不一定严格顺序,有时候上一步的文件处理压缩还没完成,下一步的删除文件动作就开始了。结果把不该删的先删掉了。当然这个都是设计问题。

重点是不要迷信,重点是你必须要测试它的行为是不是你需要的。你希望并发,那就要测试一下它真的并发了吗?你希望它顺序执行,就要多次测试,是否真的同步执行了。实践是检验真理的唯一标准。

4. bug
Kettle的小问题还是很多的。我没有资格去抱怨人家的劳动成果。只是觉得在开发的时候测试很重要。有时候根据文档说明想当然地用了合适的步骤去做事,结果偏偏不按你想的那样出现。搞到最后,就是更加细心,更加胆小,有点不信任的感觉。
比如在使用4.0.1 stable 版时用到了支持数据库事务的属性,发现一到commit的时候就停住不走了。后来翻啊翻,发现是个bug,有人已经报到kettle项目的JIRA里面去了。据说4.1.0已经fix了,还没有测试过。 Kettle支持的功能越来越多,现在还支持JSON输入,bug也会增加,不可避免。

还是那句话:全面的测试很必要的,实践是检验真理的唯一标准。

Kettle还是好东西,为什么,就因为它是LGPL。以不同的生活水平来比较Kettle和Informatica也没什么意思。

好的网站
在研究的时候经常会被google导到这个网站http://type-exit.org/adventures-with-open-source-bi/
虽然它的方案有时候并不正确。但是讨论的内容比较全面。学习Kettle的人可以参考一下这个网站。

分享到:
评论
1 楼 markss 2014-07-25  
您好,请问kettle循环处理的内存泄漏问题是否已经解决了?毕竟Copy Rows to Results这种方式使用的真的很多,或者在什么情况下才会释放占用的内存,谢谢。

相关推荐

    ETL之kettle基础-PPT讲解

    内容概要:ETL之kettle包含26张PPT,kettle安装、使用、如何连接等,使用PDI9.2演示、什么是ETL、什么是Kettle、kettle安装、kettle目录结构、转换和作业、kettle操作、数据库连接、注意事项。 适合人群:具备一定...

    本地简单kettle抽MySQL数据到ES中 案例.zip

    本地简单kettle抽MySQL数据到ES中 案例.zip本地简单kettle抽MySQL数据到ES中 案例.zip 本地简单kettle抽MySQL数据到ES中 案例.zip本地简单kettle抽MySQL数据到ES中 案例.zip 本地简单kettle抽MySQL数据到ES中 案例....

    20210511_kettle抽取mysql增量到ES中.zip

    20210511_kettle抽取mysql增量到ES中.zip20210511_kettle抽取mysql增量到ES中.zip20210511_kettle抽取mysql增量到ES中.zip20210511_kettle抽取mysql增量到ES中.zip20210511_kettle抽取mysql增量到ES中.zip20210511_...

    PDF 文本抽取 (Kettle 插件)

    这个kettle 的插件,它可以从一个或多个 PDF 文件中抽取文本内容,抽取后的文本一页作为一行记录,便于后续处理,如写入数据库等等。 帮助手册 http://www.xgndata.com/resources/kettle/PFR_UserGuide_zh_CN.pdf ...

    Kettle中使用JavaScrip调用jar包对文件内容进行MD5加密的操作方法

    Kettle中使用JavaScript调用jar包对文件内容进行MD5加密.本文主要知识点: JavaScript调用jar包对文件内容进行MD5加密,返回加密md5值 Kettle实现对文件内容的加密,返回加密md5值 2.使用方法 1)下载jar包 ...

    Kettle的Web端管理工具Kettle-Manager.zip

    kettle管理工具专门为kettle这款优秀的ETL工具开发的web端管理工具。项目简介kettle作为非常优秀的开源ETL工具得到了非常广泛的使用,一般的使用的都是使用客户端操作管理,但问题是当投入生产环境使用时,动辄上百...

    《ETL数据整合与处理(Kettle)》教学教案 —04字段处理.pdf

    《ETL数据整合与处理(Kettle)》教学教案 —04字段处理.pdf《ETL数据整合与处理(Kettle)》教学教案 —04字段处理.pdf《ETL数据整合与处理(Kettle)》教学教案 —04字段处理.pdf《ETL数据整合与处理(Kettle)》教学教案 ...

    Kettle增量同步.rar

    Kettle增量同步,里边包含项目文件可能需要你新建数据库。源数据为Oracle,目标数据库为PostgreSQL. 增量记录表.SQL 用来生成 edp_etl_record 表 记录每次更新数据的执行记录过程。 更新时先取出edp_etl_record 表...

    kettle6与kettle7版本比较

    我自己编写的KETTLE6.1与KETTLE7.1版本之间的差距比较

    kettle-manager0.4.0解压即用百度网盘地址.txt

    1、集成安装包直接集成了kettle、mysql、kettle-manager,这样能减低对部署人员的技术要求。 2、下载集成安装包,按安装包中的文档操作即可,很简单几步,还配有截图,应该算是没有难度了。 3、关键提示:执行init...

    kettle 7.1 官方例子(附带文档整理-中英文对照)

    Kettle是一款国外开源的ETL工具,纯java编写,可以在Window、Linux、Unix上运行,数据抽取高效稳定。 Kettle 中文名称叫水壶,该项目的主程序员MATT 希望把各种数据放到一个壶里,然后以一种指定的格式流出。 这是我...

    《ETL数据整合与处理(Kettle)》教学教案 —03记录处理.pdf

    《ETL数据整合与处理(Kettle)》教学教案 —03记录处理.pdf《ETL数据整合与处理(Kettle)》教学教案 —03记录处理.pdf《ETL数据整合与处理(Kettle)》教学教案 —03记录处理.pdf《ETL数据整合与处理(Kettle)》教学教案 ...

    基于Kettle+Clickhouse+Superset构建亿级大数据实时数据分析平台视频教程

    基于Kettle+Clickhouse+Superset构建亿级大数据实时数据分析平台视频教程,该系统以热门的互联网电商实际业务应用场景为案例讲解,对电商数据的常见实战指标处理使用kettle等工具进行了详尽讲解,具体指标包括:流量...

    kettle 9.2 各版本 drivers

    kettle 9.2 各版本 drivers

    kettle-core-8.1.0.0-365_kettle_kettle达梦8_

    适配了达梦数据库的kettle核心代码。

    kettle7.1.rar

    kettle7.1下载资源

    kettle-9.2.0.4-R pdi-ce-9.2.0.4-591 亲测可用

    Pentaho Data Integration(原名 kettle)是业界使用最广泛的企业级开源可视化ETL数据清洗系统。它非常适合企业数据研究人员、数据库管理员等使用,用于实现企业内部系统之间的数据集成和构建数据仓库。无论是处理...

    【kettle】10分钟搞定kettle源码部署

    Kettle是一个开源项目,作为ETL工具,kettle提供了丰富的功能和简洁的图形化界面。作为免费开源的ETL工具,可以通过其桌面程序进行ETL步骤的开发并执行。kettle以插件形式来实现每个转换步骤的工作,发行版中已经...

    《ETL数据整合与处理(Kettle)》教学教案 —02源数据获取.pdf

    《ETL数据整合与处理(Kettle)》教学教案 —02源数据获取.pdf《ETL数据整合与处理(Kettle)》教学教案 —02源数据获取.pdf《ETL数据整合与处理(Kettle)》教学教案 —02源数据获取.pdf《ETL数据整合与处理(Kettle)》...

    kettle服务本地jar包,kettle-core,kettle-dbdialog,kettle-engine,pentaho

    kettle-core-7.1.0.0-12.jar kettle-dbdialog-7.1.0.0-12.jar kettle-engine-7.1.0.0-12.jar pentaho-metadata-7.1.0.0-12.jar

Global site tag (gtag.js) - Google Analytics