尚硅谷大數據技術之Sqoop第5章 Sqoop一些常用命令及參數
5.2.8 命令&參數:create-hive-table
生成與關系數據庫表結構對應的hive表結構。
命令:
如:
$ bin/sqoop create-hive-table \ --connect jdbc:mysql://hadoop102:3306/company \ --username root \ --password 000000 \ --table staff \ --hive-table hive_staff |
參數:
序號 |
參數 |
說明 |
1 |
--hive-home?<dir> |
Hive的安裝目錄,可以通過該參數覆蓋掉默認的Hive目錄 |
2 |
--hive-overwrite |
覆蓋掉在Hive表中已經存在的數據 |
3 |
--create-hive-table |
默認是false,如果目標表已經存在了,那么創建任務會失敗 |
4 |
--hive-table |
后面接要創建的hive表 |
5 |
--table |
指定關系數據庫的表名 |
5.2.9 命令&參數:eval
可以快速的使用SQL語句對關系型數據庫進行操作,經常用于在import數據之前,了解一下SQL語句是否正確,數據是否正常,并可以將結果顯示在控制臺。
命令:
如:
$ bin/sqoop eval \ --connect jdbc:mysql://hadoop102:3306/company \ --username root \ --password 000000 \ --query "SELECT * FROM staff" |
參數:
序號 |
參數 |
說明 |
1 |
--query或--e |
后跟查詢的SQL語句 |
5.2.10 命令&參數:import-all-tables
可以將RDBMS中的所有表導入到HDFS中,每一個表都對應一個HDFS目錄
命令:
如:
$ bin/sqoop import-all-tables \ --connect jdbc:mysql://hadoop102:3306/company \ --username root \ --password 000000 \ --warehouse-dir?/all_tables |
參數:
序號 |
參數 |
說明 |
1 |
--as-avrodatafile |
這些參數的含義均和import對應的含義一致 |
2 |
--as-sequencefile |
|
3 |
--as-textfile |
|
4 |
--direct |
|
5 |
--direct-split-size <n> |
|
6 |
--inline-lob-limit <n> |
|
7 |
--m或—num-mappers <n> |
|
8 |
--warehouse-dir <dir> |
|
9 |
-z或--compress |
|
10 |
--compression-codec |