Skip to content

Latest commit

 

History

History
307 lines (233 loc) · 9.07 KB

File metadata and controls

307 lines (233 loc) · 9.07 KB

LOAD

description

Palo 目前支持以下4种导入方式:

1. Hadoop Load:基于 MR 进行 ETL 的导入。
2. Broker Load:使用 broker 进行进行数据导入。
3. Stream Load:通过 http 协议进行流式数据导入。

本帮助主要描述第一种导入方式,即 Hadoop Load 相关帮助信息。其余导入方式可以使用以下命令查看帮助:

!!!该导入方式可能在后续某个版本即不再支持,建议使用其他导入方式进行数据导入。!!!

  1. help broker load;
  2. help stream load;

Hadoop Load 仅适用于百度内部环境。公有云、私有云以及开源环境无法使用这种导入方式。 该导入方式必须设置用于 ETL 的 Hadoop 计算队列,设置方式可以通过 help set property 命令查看帮助。

语法:

LOAD LABEL load_label
(
data_desc1[, data_desc2, ...]
)
[opt_properties];
  1. load_label

    当前导入批次的标签。在一个 database 内唯一。 语法:

    [database_name.]your_label
  2. data_desc

    用于描述一批导入数据。 语法:

    DATA INFILE
    (
    "file_path1"[, file_path2, ...]
    )
    [NEGATIVE]
    INTO TABLE `table_name`
    [PARTITION (p1, p2)]
    [COLUMNS TERMINATED BY "column_separator"]
    [FORMAT AS "file_type"]
    [(column_list)]
    [COLUMNS FROM PATH AS (columns_from_path)]
    [SET (k1 = func(k2))]

    说明:

    file_path:

    文件路径,可以指定到一个文件,也可以用 * 通配符指定某个目录下的所有文件。通配符必须匹配到文件,而不能是目录。

    PARTITION:

    如果指定此参数,则只会导入指定的分区,导入分区以外的数据会被过滤掉。 如果不指定,默认导入table的所有分区。

    NEGATIVE:

    如果指定此参数,则相当于导入一批“负”数据。用于抵消之前导入的同一批数据。 该参数仅适用于存在 value 列,并且 value 列的聚合类型仅为 SUM 的情况。

    column_separator:

    用于指定导入文件中的列分隔符。默认为 \t 如果是不可见字符,则需要加\x作为前缀,使用十六进制来表示分隔符。 如hive文件的分隔符\x01,指定为"\x01"

    file_type:

    用于指定导入文件的类型,例如:parquet、orc、csv。默认值通过文件后缀名判断。

    column_list:

    用于指定导入文件中的列和 table 中的列的对应关系。 当需要跳过导入文件中的某一列时,将该列指定为 table 中不存在的列名即可。

    语法:

    (col_name1, col_name2, ...)

    columns_from_path:

    用于指定需要从文件路径中解析的字段。

    语法:

    (col_from_path_name1, col_from_path_name2, ...)

    SET:

    如果指定此参数,可以将源文件某一列按照函数进行转化,然后将转化后的结果导入到table中。 目前支持的函数有:

    strftime(fmt, column) 日期转换函数 fmt: 日期格式,形如%Y%m%d%H%M%S (年月日时分秒) column: column_list中的列,即输入文件中的列。存储内容应为数字型的时间戳。 如果没有column_list,则按照palo表的列顺序默认输入文件的列。

    time_format(output_fmt, input_fmt, column) 日期格式转化 output_fmt: 转化后的日期格式,形如%Y%m%d%H%M%S (年月日时分秒) input_fmt: 转化前column列的日期格式,形如%Y%m%d%H%M%S (年月日时分秒) column: column_list中的列,即输入文件中的列。存储内容应为input_fmt格式的日期字符串。 如果没有column_list,则按照palo表的列顺序默认输入文件的列。

    alignment_timestamp(precision, column) 将时间戳对齐到指定精度 precision: year|month|day|hour column: column_list中的列,即输入文件中的列。存储内容应为数字型的时间戳。 如果没有column_list,则按照palo表的列顺序默认输入文件的列。 注意:对齐精度为year、month的时候,只支持20050101~20191231范围内的时间戳。

    default_value(value) 设置某一列导入的默认值 不指定则使用建表时列的默认值

    md5sum(column1, column2, ...) 将指定的导入列的值求md5sum,返回32位16进制字符串

    replace_value(old_value[, new_value]) 将导入文件中指定的old_value替换为new_value new_value如不指定则使用建表时列的默认值

    hll_hash(column) 用于将表或数据里面的某一列转化成HLL列的数据结构

  3. opt_properties

    用于指定一些特殊参数。

    语法:

    [PROPERTIES ("key"="value", ...)]
    可以指定如下参数:
    cluster:          导入所使用的 Hadoop 计算队列。
    timeout:         指定导入操作的超时时间。默认超时为3天。单位秒。
    max_filter_ratio:最大容忍可过滤(数据不规范等原因)的数据比例。默认零容忍。
    load_delete_flag:指定该导入是否通过导入key列的方式删除数据,仅适用于UNIQUE KEY,
            导入时可不指定value列。默认为false。
    
  4. 导入数据格式样例

    整型类(TINYINT/SMALLINT/INT/BIGINT/LARGEINT):1, 1000, 1234 浮点类(FLOAT/DOUBLE/DECIMAL):1.1, 0.23, .356 日期类(DATE/DATETIME):2017-10-03, 2017-06-13 12:34:03。 (注:如果是其他日期格式,可以在导入命令中,使用 strftime 或者 time_format 函数进行转换) 字符串类(CHAR/VARCHAR):"I am a student", "a" NULL值:\N

example

  1. 导入一批数据,指定超时时间和过滤比例。指定导入队列为 my_cluster。

    LOAD LABEL example_db.label1
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/file")
    INTO TABLE `my_table`
    )
    PROPERTIES
    (
    "cluster" = "my_cluster",
    "timeout" = "3600",
    "max_filter_ratio" = "0.1"
    );

    其中 hdfs_host 为 namenode 的 host,hdfs_port 为 fs.defaultFS 端口(默认9000)

  2. 导入一批数据,包含多个文件。导入不同的 table,指定分隔符,指定列对应关系

    LOAD LABEL example_db.label2
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/file1")
    INTO TABLE `my_table_1`
    COLUMNS TERMINATED BY ","
    (k1, k3, k2, v1, v2),
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/file2")
    INTO TABLE `my_table_2`
    COLUMNS TERMINATED BY "\t"
    (k1, k2, k3, v2, v1)
    );
  3. 导入一批数据,指定hive的默认分隔符\x01,并使用通配符*指定目录下的所有文件

    LOAD LABEL example_db.label3
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/*")
    NEGATIVE
    INTO TABLE `my_table`
    COLUMNS TERMINATED BY "\\x01"
    );
  4. 导入一批“负”数据

    LOAD LABEL example_db.label4
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/old_file)
    NEGATIVE
    INTO TABLE `my_table`
    COLUMNS TERMINATED BY "\t"
    );
  5. 导入一批数据,指定分区

    LOAD LABEL example_db.label5
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/file")
    INTO TABLE `my_table`
    PARTITION (p1, p2)
    COLUMNS TERMINATED BY ","
    (k1, k3, k2, v1, v2)
    );
  6. 导入一批数据,指定分区, 并对导入文件的列做一些转化,如下:

    表结构为:
    k1 datetime
    k2 date
    k3 bigint
    k4 varchar(20)
    k5 varchar(64)
    k6 int
    
    假设数据文件只有一行数据,5列,逗号分隔:
    
    1537002087,2018-08-09 11:12:13,1537002087,-,1
    
    数据文件中各列,对应导入语句中指定的各列:
    tmp_k1, tmp_k2, tmp_k3, k6, v1
    
    转换如下:
    
    1) k1:将 tmp_k1 时间戳列转化为 datetime 类型的数据
    2) k2:将 tmp_k2 datetime 类型的数据转化为 date 的数据
    3) k3:将 tmp_k3 时间戳列转化为天级别时间戳
    4) k4:指定导入默认值为1
    5) k5:将 tmp_k1、tmp_k2、tmp_k3 列计算 md5 值
    6) k6:将导入文件中的 - 值替换为 10
    
    LOAD LABEL example_db.label6
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/file")
    INTO TABLE `my_table`
    PARTITION (p1, p2)
    COLUMNS TERMINATED BY ","
    (tmp_k1, tmp_k2, tmp_k3, k6, v1)
    SET (
    k1 = strftime("%Y-%m-%d %H:%M:%S", tmp_k1),
    k2 = time_format("%Y-%m-%d %H:%M:%S", "%Y-%m-%d", tmp_k2),
    k3 = alignment_timestamp("day", tmp_k3),
    k4 = default_value("1"),
    k5 = md5sum(tmp_k1, tmp_k2, tmp_k3),
    k6 = replace_value("-", "10")
    )
    );
  7. 导入数据到含有HLL列的表,可以是表中的列或者数据里面的列

    LOAD LABEL example_db.label7
    (
    DATA INFILE("hdfs://hdfs_host:hdfs_port/user/palo/data/input/file")
    INTO TABLE `my_table`
    PARTITION (p1, p2)
    COLUMNS TERMINATED BY ","
    SET (
    v1 = hll_hash(k1),
    v2 = hll_hash(k2)
    )
    );

keyword

LOAD