Sqoop的使用应该是Oozie里面最常用的了,因为很多BI数据分析都是基于业务数据库来做的,因此需要把mysql或者oracle的数据导入到hdfs中再利用mapreduce或者spark进行ETL,生成报表信息。
因此本篇的Sqoop Action其实就是运行一个sqoop的任务而已。
同样action会等到sqoop执行成功后,才会执行下一个action。为了运行sqoop action,需要提供job-tracker
,name-node
,command
或者arg
元素。
sqoop action也可以在开启任务前去创建或者删除hdfs中的目录。
sqoop action的配置可以通过job-xml指定文件进行配置,也可以直接在configuration元素中配置。
语法规则
... ... [JOB-TRACKER] [NAME-NODE] ... ... ... [PROPERTY-NAME] [PROPERTY-VALUE] [SQOOP-COMMAND] [SQOOP-ARGUMENT] ...[FILE-PATH] ...[FILE-PATH] ...
- prepare元素,用于创建或者删除指定的hdfs目录。
- job-xml可以指定sqoop action的参数配置
- confuguration用于配置sqoop任务
sqoop command
sqoop命令可以通过command和arg标签组成。
当使用command元素时,oozie将会按照空格切分命令,作为参数。因此当你使用query的时候,就不能用command了!
当使用arg的时候,每个arg都是一个参数。
所有的参数部分,都可以使用EL表达式。
例子
基于command的例子
... ... foo:8021 bar:8020 mapred.compress.map.output true import --connect jdbc:hsqldb:file:db.hsqldb --table TT --target-dir hdfs://localhost:8020/user/tucu/foo -m 1
基于arg元素的例子
... ... foo:8021 bar:8020 mapred.compress.map.output true import --connect jdbc:hsqldb:file:db.hsqldb --table TT --target-dir hdfs://localhost:8020/user/tucu/foo -m 1
遇到的问题
经常会遇到这种问题:直接使用sqoop可以执行,但是在oozie中就无法执行了。这个时候可以按照下面的思路进行排查:
- 1 oozie中的lib是否与sqoop相同。对比sqoop/lib以及oozie/lib/xxx/sqoop就可以了
- 2 oozie中如果是以arg这种方式启动。那么问题很有可能出在query的别名以及split-by参数上.... 因为在sqoop中可以自动推断,但是在oozie中就无法知道字段所属的表了。
举个例子
sqoop --import .... --query "select a.*,b.* from t1 a left join t2 b on a.id=b.id..." --split-by id ...
这个时候oozie里面,无法知道id到底是哪个表的。需要指定它的别名才可以
...--split-by a.id ...