CREATE EXTERNAL TABLE

定义一个新的外部表。

概要

  1. CREATE [READABLE] EXTERNAL TABLE table_name
  2. ( column_name data_type [, ...] | LIKE other_table )
  3. LOCATION ('file://seghost[:port]/path/file' [, ...])
  4. | ('gpfdist://filehost[:port]/file_pattern[#transform=trans_name]'
  5. [, ...]
  6. | ('gpfdists://filehost[:port]/file_pattern[#transform=trans_name]'
  7. [, ...])
  8. | ('gphdfs://hdfs_host[:port]/path/file')
  9. | ('s3://S3_endpoint[:port]/bucket_name/[S3_prefix]
  10. [region=S3-region]
  11. [config=config_file]')
  12. [ON MASTER]
  13. FORMAT 'TEXT'
  14. [( [HEADER]
  15. [DELIMITER [AS] 'delimiter' | 'OFF']
  16. [NULL [AS] 'null string']
  17. [ESCAPE [AS] 'escape' | 'OFF']
  18. [NEWLINE [ AS ] 'LF' | 'CR' | 'CRLF']
  19. [FILL MISSING FIELDS] )]
  20. | 'CSV'
  21. [( [HEADER]
  22. [QUOTE [AS] 'quote']
  23. [DELIMITER [AS] 'delimiter']
  24. [NULL [AS] 'null string']
  25. [FORCE NOT NULL column [, ...]]
  26. [ESCAPE [AS] 'escape']
  27. [NEWLINE [ AS ] 'LF' | 'CR' | 'CRLF']
  28. [FILL MISSING FIELDS] )]
  29. | 'AVRO'
  30. | 'PARQUET'
  31. | 'CUSTOM' (Formatter=<formatter_specifications>)
  32. [ ENCODING 'encoding' ]
  33. [ [LOG ERRORS] SEGMENT REJECT LIMIT count
  34. [ROWS | PERCENT] ]
  35. CREATE [READABLE] EXTERNAL WEB TABLE table_name
  36. ( column_name data_type [, ...] | LIKE other_table )
  37. LOCATION ('http://webhost[:port]/path/file' [, ...])
  38. | EXECUTE 'command' [ON ALL
  39. | MASTER
  40. | number_of_segments
  41. | HOST ['segment_hostname']
  42. | SEGMENT segment_id ]
  43. FORMAT 'TEXT'
  44. [( [HEADER]
  45. [DELIMITER [AS] 'delimiter' | 'OFF']
  46. [NULL [AS] 'null string']
  47. [ESCAPE [AS] 'escape' | 'OFF']
  48. [NEWLINE [ AS ] 'LF' | 'CR' | 'CRLF']
  49. [FILL MISSING FIELDS] )]
  50. | 'CSV'
  51. [( [HEADER]
  52. [QUOTE [AS] 'quote']
  53. [DELIMITER [AS] 'delimiter']
  54. [NULL [AS] 'null string']
  55. [FORCE NOT NULL column [, ...]]
  56. [ESCAPE [AS] 'escape']
  57. [NEWLINE [ AS ] 'LF' | 'CR' | 'CRLF']
  58. [FILL MISSING FIELDS] )]
  59. | 'CUSTOM' (Formatter=<formatter specifications>)
  60. [ ENCODING 'encoding' ]
  61. [ [LOG ERRORS] SEGMENT REJECT LIMIT count
  62. [ROWS | PERCENT] ]
  63. CREATE WRITABLE EXTERNAL TABLE table_name
  64. ( column_name data_type [, ...] | LIKE other_table )
  65. LOCATION('gpfdist://outputhost[:port]/filename[#transform=trans_name]'
  66. [, ...])
  67. | ('gpfdists://outputhost[:port]/file_pattern[#transform=trans_name]'
  68. [, ...])
  69. | ('gphdfs://hdfs_host[:port]/path')
  70. FORMAT 'TEXT'
  71. [( [DELIMITER [AS] 'delimiter']
  72. [NULL [AS] 'null string']
  73. [ESCAPE [AS] 'escape' | 'OFF'] )]
  74. | 'CSV'
  75. [([QUOTE [AS] 'quote']
  76. [DELIMITER [AS] 'delimiter']
  77. [NULL [AS] 'null string']
  78. [FORCE QUOTE column [, ...]] ]
  79. [ESCAPE [AS] 'escape'] )]
  80. | 'AVRO'
  81. | 'PARQUET'
  82. | 'CUSTOM' (Formatter=<formatter specifications>)
  83. [ ENCODING 'write_encoding' ]
  84. [ DISTRIBUTED BY (column, [ ... ] ) | DISTRIBUTED RANDOMLY ]
  85. CREATE WRITABLE EXTERNAL TABLE table_name
  86. ( column_name data_type [, ...] | LIKE other_table )
  87. LOCATION('s3://S3_endpoint[:port]/bucket_name/[S3_prefix]
  88. [region=S3-region]
  89. [config=config_file]')
  90. [ON MASTER]
  91. FORMAT 'TEXT'
  92. [( [DELIMITER [AS] 'delimiter']
  93. [NULL [AS] 'null string']
  94. [ESCAPE [AS] 'escape' | 'OFF'] )]
  95. | 'CSV'
  96. [([QUOTE [AS] 'quote']
  97. [DELIMITER [AS] 'delimiter']
  98. [NULL [AS] 'null string']
  99. [FORCE QUOTE column [, ...]] ]
  100. [ESCAPE [AS] 'escape'] )]
  101. CREATE WRITABLE EXTERNAL WEB TABLE table_name
  102. ( column_name data_type [, ...] | LIKE other_table )
  103. EXECUTE 'command' [ON ALL]
  104. FORMAT 'TEXT'
  105. [( [DELIMITER [AS] 'delimiter']
  106. [NULL [AS] 'null string']
  107. [ESCAPE [AS] 'escape' | 'OFF'] )]
  108. | 'CSV'
  109. [([QUOTE [AS] 'quote']
  110. [DELIMITER [AS] 'delimiter']
  111. [NULL [AS] 'null string']
  112. [FORCE QUOTE column [, ...]] ]
  113. [ESCAPE [AS] 'escape'] )]
  114. | 'CUSTOM' (Formatter=<formatter specifications>)
  115. [ ENCODING 'write_encoding' ]
  116. [ DISTRIBUTED BY (column, [ ... ] ) | DISTRIBUTED RANDOMLY ]

描述

有关外部表的详细信息请参阅Greenplum数据库管理员指南中的装载和卸载数据。

CREATE EXTERNAL TABLE 或CREATE EXTERNAL WEB TABLE 在Greenplum数据库中创建一个新的可读外部表定义。可读外部表通常用于快速并行数据加载。 定义外部表后,可以使用SQL命令直接(并行)查询其数据。 例如, 用户可以选择,加入或排序外部表数据。用户还可以创建外部表的视图。 DML操作 (更新, 插入, 删除, 或 TRUNCATE) 在可读外部表上不可操作,用户不能在可读外部表上创建索引。

CREATE WRITABLE EXTERNAL TABLE 或 CREATE WRITABLE EXTERNAL WEB TABLE 在Greenplum数据库中创建一个新的可写外部表定义。 可写外部表通常用于将数据从数据库卸载到一组文件或命名管道中。 可写外部Web表也可用于将数据输出到可执行程序。可写外部表格也可以用作Greenplum并行MapReduce计算的输出目标。 一旦写入外部表被定义,可以从数据库表中选择数据并将其插入到可写外部表中。 可写外部表仅允许 插入 操作 – 选择, 更新, 删除 或 TRUNCATE 不被允许。

常规外部表和外部Web表之间的主要区别是它们的数据源。常规可读外部表访问静态平面文件,而外部Web表访问动态数据源 - 无论是在Web服务器上还是通过执行OS命令或脚本。

该 FORMAT 子句用于描述外部表格文件的格式。 有效的文件格式是分隔文本 (TEXT) 逗号分隔值(CSV) 格式, 与PostgreSQL可用的格式化选项类似 COPY 命令。 如果文件中的数据不使用默认列分隔符,转义字符,空字符串等,则必须指定其他格式选项,以便外部文件中的数据被Greenplum数据库正确读取。 有关使用自定义格式的信息,请参阅Greenplum数据库管理员指南中的装载和卸载数据。

为了gphdfs 协议, 用户可以指定 AVRO 或 PARQUET 在 FORMAT 子句读取或写入Avro或Parquet格式文件。 有关Avro和Parquet文件的信息, 参阅gphdfs协议的HDFS文件格式支持

在创建写入或从Amazon Web Services(AWS)S3存储区中读取的外部表之前,必须配置Greenplum数据库以支持协议。S3外部表可以使用CSV或文本格式的文件 可写的S3外部表仅支持插入 操作. 请参见 s3协议配置

参数

READABLE | WRITABLE

指定外部表的类型,默认可读。可读外部表用于将数据加载到Greenplum数据库中。可写外部表用于卸载数据。

WEB

在Greenplum数据库中创建可读或可写的外部Web表定义。 有两种形式的可读外部Web表格 - 那些访问文件的形式 http:// 协议或通过执行OS命令访问数据的协议。 可写外部Web表将数据输出到可接受数据输入流的可执行程序。在执行查询期间,外部Web表不能重新计算。

该 s3协议不支持外部Web表。但是,用户可以创建一个外部Web表,执行第三方工具直接从S3读取数据或向S3写入数据。

table_name

新外部表的名称。

column_name

在外部表定义中创建的列的名称。与常规表不同,外部表不具有列约束或默认值,因此不要指定。

LIKE other_table

该LIKE 子句指定新的外部表自动复制所有列名,数据类型和Greenplum分发策略的表。 如果原始表指定了任何列约束或默认列值,那么它们将不会被复制到新的外部表定义中。

data_type

列的数据类型。

LOCATION (‘protocol://host[:port]/path/file’ [, …])

对于可读外部表,指定用于填充外部表或Web表的外部数据源的URI。常规可读外部表允许 gpfdist 或 文件 协议。 外部Web表允许 http 协议。 如果端口被省略, 端口 8080 被假定为 http和 gpfdist 协议, 端口 9000为 gphdfs 协议。 如果使用 gpfdist 协议, the 路径 是相对于gpfdist服务文件的目录 (启动gpfdistgpfdist 程序时指定的目录)。此外, gpfdist 使用通配符或其他C-style模式匹配(例如, 空格符为[[:space:]])表示 目录中的多个文件。例如:

  1. 'gpfdist://filehost:8081/*'
  2. 'gpfdist://masterhost/my_load_file'
  3. 'file://seghost1/dbfast1/external/myfile.txt'
  4. 'http://intranet.example.com/finance/expenses.csv'

对于 gphdfs 协议, URI的 LOCATION 不能包含以下四个字符: \, ‘, <, >. 如果URI包含任何此类字符,该CREATE EXTERNAL TABLE 命令将返回错误。

如果用户正在使用MapR集群gphdfs 协议,用户需要指定一个特定的集群和文件:

  • 要指定默认群集,MapR配置文件中的第一个目录 /opt/mapr/conf/mapr-clusters.conf, 使用以下语法指定表的位置:

    1. LOCATION ('gphdfs:///file_path')

    该 file_path 是文件路径。

  • 要指定配置文件中列出的另一个MapR集群,请使用以下语法指定文件:

    1. LOCATION ('gphdfs:///mapr/cluster_name/file_path')

    cluster_name 是在配置文件中指定的集群的名称并且 file_path是文件的路径

对于可写外部表,指定 gpfdist 进程或S3协议将会从Greenplum的Segment收集输出的数据并将其写入一个或多个命名文件。 对于gpfdist 该路径 是相对于 gpfdist服务文件的目录 (启动 gpfdist 程序时指定的目录)。如果多个 gpfdist 列 出了位置, 发送数据的Segment将在可用的输出位置间均匀分配 例如:

  1. 'gpfdist://outputhost:8081/data1.out',
  2. 'gpfdist://outputhost:8081/data2.out'

有两个 gpfdist 如上述示例中列出的位置,一半的Segment将其输出数据发送到 data1.out 文件,并且 另一半发送到 data2.out 文件中。

在可选择的 #transform=trans_name中, 用户可以 指定要在加载或提取数据时应用的转换。 trans_name 是用户运行 gpfdist 实用程序指定的YAML配置文件的转换名称。有关 指定转换的信息,请参见Greenplum实用指南中的gpfdist

如果用户指定gphdfs作为将文件读取或写入Hadoop文件系统(HDFS)的协议,用户可以指定 FORMAT 子句通过用AVRO 或 PARQUET。

有关指定Avro或Parquet文件位置的信息, 参阅 gphdfs协议的HDFS文件格式支持

当用户用 s3 协议创建一个外部表时,只支持 TEXT 和CSV格式。 这些文件可以是gzip压缩格式。 该 s3 协议 该S3协议识别gzip格式并解压缩文件。只支持gzip压缩格式。

用户可以指定 s3 协议 访问Amazon S3上的数据或Amazon S3兼容服务上的数据。 在用户用 s3 协议创建外部表之前, 用户必须配置Greenplum数据库。有关配置Greenplum数据库的信息, 参阅 s3协议配置

对于 s3协议来说, LOCATION 子句指定数据文件为表上传的S3端点和存储桶名称。对于可写外部表,用户可以为插入到表中的数据创建新文件时指定一个可选的S3文件前缀。

如果为只读S3表指定了S3_prefix ,则 s3选择那些具有指定的S3文件前缀的文件。

注解: 尽管 S3_prefix 是语法的可选部分,但应始终为可写和只读S3表包含一个S3前缀,以分隔数据集作为 CREATE EXTERNAL TABLE 的语法。

The LOCATION 子句中的config参数 指定包含Amazon Web Services (AWS)连接凭据和通信参数所需的s3 协议配置参数文件的位置。 有关s3 配置文件参数的信息, 参见 s3协议配置文件

这是一个使用 s3协议定义的只读外部表的示例。 .

  1. CREATE READABLE EXTERNAL TABLE S3TBL (date text, time text, amt int)
  2. LOCATION('s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/
  3. config=/home/gpadmin/aws_s3/s3.conf')
  4. FORMAT 'csv';

S3桶位于S3端点s3-us-west-2.amazonaws.com, s3的桶名称为s3test.example.com。 桶中文件的s3前缀为 /dataset1/normal/。配置文件位于所有Greenplum数据库的Segment的 /home/gpadmin/s3/s3.conf 中。

这个只读外部表示例指定相同的位置,并使用 region参数指定Amazon s3区域us-west-2 。

  1. CREATE READABLE EXTERNAL TABLE S3TBL (date text, time text, amt int)
  2. LOCATION('s3://amazonaws.com/s3test.example.com/dataset1/normal/
  3. region=s3-us-west-2 config=/home/gpadmin/aws_s3/s3.conf')
  4. FORMAT 'csv';

该端口在LOCATION 子句中的URL中是可选的。如果在LOCATION的子句的URL中未指定 端口 则 < clause, the s3配置文件参数 加密会影响s3协议使用的端口 (port 80 for HTTP 或port 443 for HTTPS)。如果指定端口,则使用该端口,而不管加密设置如何。例如,如果在 s3配置文件中的LOCATION子句中指定了端口80,并且 encryption=true,则HTTPS请求将发送到端口80端口而不是443,并记录警告。

LOCATION子句中的config参数指定包含Amazon Web Services(AWS)连接凭据和通信参数的所需s3协议配置文件的位置。 将s3的配置文件参数 版本设置为 2 并在LOCATION子句中指定 region 参数。 (如果版本是2, 则LOCATION子句中需要region 参数。)在LOCATION子句中定义服务时,可以在 URL中指定服务端点,并在 region参数中指定服务器。这是一个LOCATION 子句示例, 包含了一个region 参数并指定了一个Amazon S3兼容服务。

  1. LOCATION ('s3://test.company.com/s3test.company/dataset1/normal/ region=local-test
  2. config=/home/gpadmin/aws_s3/s3.conf')

当 版本参数是2时, 还可以指定一个Amazon S3端点。 此示例指定了Amazon S3端点。

  1. LOCATION ('s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/ region=us-west-2
  2. config=/home/gpadmin/aws_s3/s3.conf')

更多关于s3协议的信息,参阅Greenplum数据库管理员指南中的s3://协议

ON MASTER

将所有与表相关的操作限制在Greenplum主Segment。 仅允许使用 s3或自定义协议创建的可读写的外部表。gpfdist, gpfdists, gphdfs,和文件协议 不支持 ON MASTER。

注意: 在使用 ON MASTER子句创建的外部表进行阅读或写入时,请注意潜在的资源影响。将表操作仅限于Greenplum主分区时,可能会遇到性能问题。

EXECUTE ‘command’ [ON …]

允许只读可读外部Web表或可写外部表。 对于可读取的外部Web表,要指定由Segment实例执行的OS命令。 该 命令可以是单个OS命令或脚本。 ON子句用于指定哪些Segment实例将执行给定的命令。

  • ON ALL是默认值。 该命令将由Greenplum数据库系统中所有Segment主机上的每个活动(主)Segment实例执行。如果命令执行一个脚本,该脚本必须位于所有Segment主机上的相同位置,并且可由Greenplum超级用户 (gpadmin)执行。
  • ON MASTER仅在主机主机上运行命令。

    注意: 当指定ON MASTER子句时,外部web表不支持日志记录 。

  • ON number表示命令将由指定数量的Segment执行。Greenplum数据库系统在运行时随机选择特定的Segment。如果命令执行脚本,该脚本必须位于所有Segment主机上的相同位置,并且可由Greenplum超级用户(gpadmin)执行。

  • HOST意味着命令将由每个Segment主机上的一个Segment执行(每个Segment主机一次),而不管每个主机的活动Segment实例数如何。
  • HOST segment_hostname表示该命令将由指定Segment主机上的所有活动(主)Segment实例执行。
  • SEGMENT segment_id表示命令只能由指定的Segment执行一次。 用户可以通过查看系统目录表 gp_segment_configuration中的内容编号来确定Segment实例的ID。 Greenplum数据库的Master的 内容 ID始终为 -1。

对于可写外部表, EXECUTE子句中指定的 命令必须准备好将数据管道传输到其中。由于具有发送数据的所有Segment都将其输出写入指定的命令或程序, 因此 ON的唯一可选项为ON ALL。

FORMAT ‘TEXT | CSV | AVRO | PARQUET’ (options)

指定外部或Web表格数据的格式 - 纯文本 (TEXT)或或逗号分隔值(CSV) 格式。

仅使用 gphdfs协议支持 AVRO 和 PARQUET格式。

有关指定AVRO 和 PARQUET文件格式时的选项的信息,参阅gphdfs协议的HDFS文件格式支持

FORMAT ‘CUSTOM’ (formatter=formatter_specification)

指定自定义数据格式。 formatter_specification 指定用于格式化数据的函数,后跟格式化函数的逗号分隔参数。 格式化程序规范的长度,包括Formatter=的字符串的长度可以高达约50K字节。

有关使用自定义格式的信息,请参阅 Greenplum数据库管理员指南中的“装载和卸载数据”。

DELIMITER

指定单个ASCII字符,用于分隔每行(行)数据中的列。 默认值为TEXT模式下的制表符, CSV格式为逗号。在可读外部表的TEXT模式下,对于将非结构化数据加载到单列表中的特殊用例,可以将分隔符设置为OFF

对于s3协议,分隔符不能是换行符 (\n)或回车字符(\r)。

NULL

指定表示NULL值的字符串。在 TEXT 模式下,默认值是 \N(反斜杠-N), CSV模式中不含引号的空值。在 TEXT模式下用户可能更希望不想将NULL值与空字符串区分开的情况下,也能使用 NULL 字符串。使用外部和Web表时,与此字符串匹配的任何数据项将被视为NULL值。使用外部和Web表格时,与此字符串匹配的任何数据项将被视为NULL值。

作为text 格式的示例,此FORMAT 子句可用于指定两个单引号 (‘’) 的字符串为NULL 值。

  1. FORMAT 'text' (delimiter ',' null '\'\'\'\'' )

ESCAPE

指定用于C转义序列的单个字符 (例如 \n,\t,\100, 等等) 以及用于转义可能被视为行或列分隔符的数据字符。 确保选择在实际列数据中的任何地方都不使用的转义字符。 默认转义字符是文本格式文件的\(反斜杠)和csv格式文件的 “ (双引号) ,但是可以指定其他字符来表示转义,也可以禁用文本转义 通过指定值’OFF’作为转义值, 格式化的文件对于诸如文本格式的Web日志数据之类的数据非常有用,这些数据具有许多不希望转义的嵌入式反斜杠。

NEWLINE

指定数据文件中使用的换行符– LF (换行符, 0x0A), CR (回车符号, 0x0D), 或 CRLF (回车加换行, 0x0D 0x0A). 如果未指定,Greenplum数据库的Segment将通过查看其接收的第一行数据并使用遇到的第一个换行符来检测换行类型。

HEADER

对于可读外部表,指定数据文件中的第一行是标题行(包含表列的名称),不应作为表的数据包含。 如果使用多个数据源文件,则所有文件必须有标题行。

对于 s3协议,标题行中的列名不能包含换行符 (\n) 或回车符 (\r)。

QUOTE

指定 CSV模式的报价字符。 默认值为双引号 (“)。

FORCE NOT NULL

在CSV 模式下,处理每个指定的列,就像它被引用一样,因此不是一个 NULL 值。对于 CSV模式中的默认空字符串(两个分隔符之间不存在),这将导致将缺少的值作为零长度字符串计算。

FORCE QUOTE

在可写外部表的CSV 模式下,强制引用用于每个指定列中的所有非NULL 值。 NULL 输出从不引用。

FILL MISSING FIELDS

在可读外部表的 TEXT和CSV模式下, 指定 FILL MISSING FIELDS时,当一行数据在行或行的末尾缺少数据字段时,将丢失尾字段值设置为 NULL (而不是报告错误)。空行,具有NOT NULL约束的字段和行上的尾随分隔符仍然会报告错误。

ENCODING ‘encoding’

字符集编码用于外部表。 指定一个字符串常量 (如 ‘SQL_ASCII’), 一个整数编码号或者 DEFAULT 来使用默认的客户端编码。 参见字符集支持

LOG ERRORS

这是一个可选的子句,可以在SEGMENT REJECT LIMIT 子句之前记录有关具有格式错误的行的信息。 错误日志信息在内部存储,并使用Greenplum数据库内置SQL函数 gp_read_error_log()访问。

参见注解 有关错误日志信息和内置函数的信息,以查看和管理错误日志信息。

SEGMENT REJECT LIMIT count [ROWS | PERCENT]

在单行错误隔离模式下运行COPY FROM操作。如果输入行具有格式错误,则它们将被丢弃,前提是在加载操作期间在任何Greenplum的Segment实例上未达到拒绝限制计数。 The 拒绝限制计数可以指定为行数(默认值)或总行数百分比(1-100)。如果使用PERCENT,则每个Segment只有在处理了参数 gp_reject_percent_threshold所指定的行数之后才开始计算坏行百分比。 gp_reject_percent_threshold的默认值为300行。诸如违反 NOT NULL, CHECK, 或 UNIQUE约束的约束错误仍将以“all-or-nothing”输入模式进行处理。 如果没有达到限制,所有好的行将被加载,任何错误行被丢弃。

注解: 读取外部表时,如果未首先触发 SEGMENT REJECT LIMIT 或未指定SEGMENT REJECT LIMIT,则Greenplum数据库将限制可能包含格式错误的初始行数。 如果前1000行被拒绝,则 COPY操作将被停止并回滚。

可以使用Greenplum数据库服务器配置参数 gp_initial_bad_row_limit更改初始拒绝行的数量限制。 有关参数的信息,请参阅服务器配置参数

DISTRIBUTED BY (column, [ … ] )

DISTRIBUTED RANDOMLY

用于为可写外部表格声明Greenplum数据库分发策略。默认情况下,可写外部表是随机分布的。如果要从中导出数据的源表具有散列分发策略,则为可写外部表定义相同的分发密钥列可以通过消除在互连上移动行的需要来改善卸载性能。 当用户发出诸如 INSERT INTO wex_table SELECT * FROM source_table,的卸载命令时,如果两个表具有相同的散列分布策略,则可以将卸载的行直接从Segment发送到输出位置。

示例

在端口8081 的后台启动 gpfdist文件服务器程序,从目录 /var/data/staging提供文件:

  1. gpfdist -p 8081 -d /var/data/staging -l /home/gpadmin/log &

创建一个名为 ext_customer的可读外部表使用的 gpfdist 协议和gpfdist 目录中找到的任何文本格式的文件(*.txt) 文件格式化为管道 (|)作为列分隔符,空格为NULL。 也可以在单行错误隔离模式下访问外部表:

  1. CREATE EXTERNAL TABLE ext_customer
  2. (id int, name text, sponsor text)
  3. LOCATION ( 'gpfdist://filehost:8081/*.txt' )
  4. FORMAT 'TEXT' ( DELIMITER '|' NULL ' ')
  5. LOG ERRORS SEGMENT REJECT LIMIT 5;

创建与上述相同的可读外部表定义,但使用CSV格式的文件:

  1. CREATE EXTERNAL TABLE ext_customer
  2. (id int, name text, sponsor text)
  3. LOCATION ( 'gpfdist://filehost:8081/*.csv' )
  4. FORMAT 'CSV' ( DELIMITER ',' );

使用文件协议和具有标题行的几个CSV格式的 文件创建名为 ext_expenses的可读外部表:

  1. CREATE EXTERNAL TABLE ext_expenses (name text, date date,
  2. amount float4, category text, description text)
  3. LOCATION (
  4. 'file://seghost1/dbfast/external/expenses1.csv',
  5. 'file://seghost1/dbfast/external/expenses2.csv',
  6. 'file://seghost2/dbfast/external/expenses3.csv',
  7. 'file://seghost2/dbfast/external/expenses4.csv',
  8. 'file://seghost3/dbfast/external/expenses5.csv',
  9. 'file://seghost3/dbfast/external/expenses6.csv'
  10. )
  11. FORMAT 'CSV' ( HEADER );

创建一个可读的外部Web表,每个Segment主机执行一次脚本:

  1. CREATE EXTERNAL WEB TABLE log_output (linenum int, message
  2. text) EXECUTE '/var/load_scripts/get_log_data.sh' ON HOST
  3. FORMAT 'TEXT' (DELIMITER '|');

创建一个名为sales_out 的可写外部表,它使用 gpfdist将输出数据写入名为sales.out的文件。 文件格式化为管道(|)作为列分隔符,空格空。

  1. CREATE WRITABLE EXTERNAL TABLE sales_out (LIKE sales)
  2. LOCATION ('gpfdist://etl1:8081/sales.out')
  3. FORMAT 'TEXT' ( DELIMITER '|' NULL ' ')
  4. DISTRIBUTED BY (txn_id);

创建一个可写的外部Web表,其将Segment接收的输出数据管理到名为to_adreport_etl.sh的可执行脚本:

  1. CREATE WRITABLE EXTERNAL WEB TABLE campaign_out
  2. (LIKE campaign)
  3. EXECUTE '/var/unload_scripts/to_adreport_etl.sh'
  4. FORMAT 'TEXT' (DELIMITER '|');

使用上面定义的可写外部表来卸载所选数据:

  1. INSERT INTO campaign_out SELECT * FROM campaign WHERE
  2. customer_id=123;

注解

指定LOG ERRORS子句时,Greenplum数据库会捕获读取外部表数据时发生的错误。 用户可以查看和管理捕获的错误日志数据。

  • 使用内置的SQL函数 gp_read_error_log(‘table_name’)。它需要对table_name具有 SELECT特权。 此示例显示使用COPY命令加载到表 ext_expenses 中的数据的错误日志信息:

    1. SELECT * from gp_read_error_log('ext_expenses');

    有关错误日志格式的信息,请参阅 Greenplum数据库管理员指南中的在错误日志中查看不正确的行

    如果 table_name不存在,该函数返回FALSE。

  • 如果指定的表存在错误日志数据,新的错误日志数据将附加到现有的错误日志数据。 错误日志信息不会复制到镜像Segment。

  • 使用内置的SQL函数 gp_truncate_error_log(‘table_name’) 删除 table_name的错误日志数据。 它需要表所有者权限,此示例删除将数据移动到表中时捕获的错误日志信息 ext_expenses:

    1. SELECT gp_truncate_error_log('ext_expenses');

    如果 table_name不存在,该函数返回 FALSE。

    指定*通配符以删除当前数据库中现有表的错误日志信息。指定字符串 *.*以删除所有数据库错误日志信息,包括由于以前的数据库问题而未被删除的错误日志信息。如果指定*,则需要数据库所有者权限。 如果指定了*.* 则需要操作系统超级用户权限。

HDFS文件格式支持gphdfs协议

如果用户指定了gphdfs协议将文件读取或写入Hadoop文件系统(HDFS), 则可以通过使用 FORMAT子句指定文件格式来读取或写入Avro或Parquet格式文件。

要从Avro或Parquet文件读取数据或将数据写入到Avro或Parquet文件中,用户可以使用 CREATE EXTERNAL TABLE 命令创建一个外部表,并指定 LOCATION子句中的Avro文件的位置和FORMAT 子句中’AVRO’ 。此示例用于从Avro文件读取的可读外部表。

  1. CREATE EXTERNAL TABLE tablename (column_spec) LOCATION ( 'gphdfs://location') FORMAT 'AVRO'

该 位置 该位置可以是包含一组文件的文件名或目录。 对于文件名,用户可以指定通配符*来匹配任意数量的字符。 如果位置在读取文件时指定了多个文件,Greenplum数据库将使用第一个文件中的模式作为其他文件的模式。

作为 位置 参数的一部分,用户可以指定读取或写入文件的选项。 在文件名后,用户可以使用HTTP查询字符串语法指定参数?并在字段值对之间使用&。

对于此示例 位置参数,此URL设置Avro格式可写外部表的压缩参数。

  1. 'gphdfs://myhdfs:8081/avro/singleAvro/array2.avro?compress=true&compression_type=block&codec=snappy' FORMAT 'AVRO'

有关使用外部表读取和编写Avro和Parquet格式文件的信息,,请参阅Greenplum数据库管理员指南 中的“装载和卸载数据”。

Avro文件

对于可读外部表,唯一有效的参数是 模式。阅读多个Avro文件时,可以指定包含Avro模式的文件。 请参阅 Greenplum数据库管理员指南中的“Avro模式覆盖”。

对于可写外部表,可以指定 模式,命名空间,和参数进行压缩。

表1. Avro格式外部表位置参数
参数可读/可写默认值
模式URL_to_schema_file可读并可写没有。
对于一个可读的外部表
  • 指定的方案会覆盖Avro文件中的模式。 请参阅“Avro Schema覆盖”
  • 如果未指定,Greenplum数据库将使用Avro文件模式。
对于可写的外部表
  • 在创建Avro文件时使用指定的模式。
  • 如果未指定,Greenplum数据库将根据外部表定义创建一个模式。
命名空间avro_namespace可写public.avro

如果指定,则为一个有效的avro 命名空间

压缩true或者false可写错误
compression_typeblock可写可选的。

对于avro 格式,如果 compresstruecompression_type必须为block

codecdeflate或者snappy可写deflate
codec_level (只对deflate codec)1到9之间的整数可写6

该级别控制速度和压缩之间的权衡。 有效值为1到9,其中1是最快的,9是最压缩的。

这组参数指定 snappy 压缩:

  1. 'compress=true&codec=snappy'

这两组参数指定 deflate 压缩并且等效于

  1. 'compress=true&codec=deflate&codec_level=1'
  2. 'compress=true&codec_level=1'

gphdfs Avro文件的限制

对于Greenplum数据库可写外部表定义,列不能指定 NOT NULL子句。

Greenplum数据库仅支持Avro文件中的单个顶级模式,或者在 CREATE EXTERNAL TABLE命令中使用模式参数指定。 如果Greenplum数据库检测到多个顶级模式,则会返回错误。

Greenplum数据库不支持Avro 地图数据类型,并在遇到错误时返回错误。

当Greenplum数据库从Avro文件读取数组时,数组将转换为文本文本值。 例如,数组 [1,3]转换为’{1,3}’。

支持用户定义的类型(UDT),包括数组UDT。 对于可写外部表,类型将转换为字符串。

Parquet 文件

对于外部表,可以在该 位置指定的文件之后添加参数。此表列出了有效的参数和值。

表 2. Parquet 格式外部表位置参数
选项可读/可写默认值
模式URL_to_schema可写没有。

如果未指定,Greenplum数据库将根据外部表定义创建一个模式。

pagesize> 1024 Bytes可写1 MB
rowgroupsize> 1024 Bytes可写8 MB
versionv1, v2可写v1
codecUNCOMPRESSED, GZIP, LZO, snappy可写UNCOMPRESSED
dictionaryenable1true, false可写false
dictionarypagesize1> 1024 Bytes可写512 KB

注解:

  1. 创建一个内部字典。 如果文本列包含相似或重复的数据,启用字典可能会改进Parquet文件压缩。

s3协议配置

s3协议与URI一起使用以指定Amazon Simple Storage Service(Amazon S3)存储区中文件的位置。该协议创建或下载 LOCATION 子句指定的所有文件。每个Greenplum数据库的Segment实例一次使用多个线程下载或上传一个文件。请参阅s3:// 协议 在 Greenplum数据库管理员指南”。

配置和使用S3外部表

按照以下基本步骤配置S3协议并使用S3外部表,使用可用链接获取更多信息。 另请参见 s3协议限制,以更好地了解S3外部表的功能和限制:

  1. 配置每个数据库以支持s3协议:

    1. 在每个将使用s3 协议, 访问S3存储区的数据库中,为s3 协议库创建读写功能:

      1. CREATE OR REPLACE FUNCTION write_to_s3() RETURNS integer AS
      2. '$libdir/gps3ext.so', 's3_export' LANGUAGE C STABLE;
      1. CREATE OR REPLACE FUNCTION read_from_s3() RETURNS integer AS
      2. '$libdir/gps3ext.so', 's3_import' LANGUAGE C STABLE;
    2. 在访问S3存储区的每个数据库中,声明 s3 协议并指定在上一步中创建的读写功能:

      1. CREATE PROTOCOL s3 (writefunc = write_to_s3, readfunc = read_from_s3);

      注解:协议名称s3必须与为创建用于访问S3资源的外部表指定的URL的协议相同。

      每个Greenplum数据库的Segment实例调用相应的功能。所有Segment主机都必须具有访问S3存储桶的权限。

  2. 在每个Greenplum数据库的Segment,创建并安装s3 协议配置文件:

    1. 使用 gpcheckcloud 实用程序创建模板s3协议配置文件:

      1. gpcheckcloud -t > ./mytest_s3.config
    2. 编辑模板文件以指定连接到S3位置所需的accessid 和 secret。 有关配置其他协议参数的信息,参阅s3协议配置文件

    3. 将文件复制到所有主机上所有Greenplum数据库Segment的相同位置和文件名。默认的文件位置是 gpseg_data_dir/gpseg_prefixN/s3/s3.conf。 gpseg_data_dir 是Greenplum数据库Segment的数据目录的路径,gpseg_prefix 是Segment前缀, N 是Segment的ID。在初始化Greenplum数据库系统时,会设置Segment数据目录,前缀和ID。

      如果将文件复制到其他位置或文件名,则必须使用s3协议URL中的 配置 参数 。 请参阅 关于S3协议配置参数

    4. 使用 gpcheckcloud 实用程序验证与S3存储桶的连接:

      1. gpcheckcloud -c "s3://<s3-endpoint>/<s3-bucket> config=./mytest_s3.config"

      指定系统配置文件的正确路径,以及要检查的S3端点名称和存储桶。 gpcheckcloud 尝试连接到S3端点并列出s3存储区中的任何文件(如果可用)。 成功的连接以消息结束:

      1. Your configuration works well.

      用户可以选择使用 gpcheckcloud 来验证是否从S3存储区中上载和下载,像 Using the gpcheckcloud Utility中所述。

  3. 完成以前创建和配置S3协议的步骤之后,用户可以在 CREATE EXTERNAL TABLE 命令中指定S3协议URL来定义S3外部表。 对于只读S3表,URL定义用于选择构成S3表的现有数据文件的位置和前缀。 例如:

    1. CREATE READABLE EXTERNAL TABLE S3TBL (date text, time text, amt int)
    2. LOCATION('s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/
    3. config=/home/gpadmin/aws_s3/s3.conf')
    4. FORMAT 'csv';

    对于可写的S3表,协议URL定义了Greenplum数据库存储表的数据文件的S3位置,以及为表INSERT操作创建文件时使用的前缀。 例如:

    1. CREATE WRITABLE EXTERNAL TABLE S3WRIT (LIKE S3TBL)
    2. LOCATION('s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/
    3. config=/home/gpadmin/aws_s3/s3.conf')
    4. FORMAT 'csv';

    参阅 关于S3协议的URL获取更多信息。

s3协议限制

这些是s3 的协议限制:

  • 只支持S3路径样式的URL。

    1. s3://S3_endpoint/bucketname/[S3_prefix]
  • 只支持S3端点。该协议不支持S3桶的虚拟主机(将域名绑定到S3桶)。

  • 支持AWS签名版本2和版本4的签名过程。

    有关每个签名过程支持的S3端点的信息,请参阅http://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region.

  • CREATE EXTERNAL TABLE命令的 LOCATION子句中只支持一个URL和可选的配置文件。

  • 如果在CREATE EXTERNAL TABLE命令中未指定 NEWLINE 参数,则在特定前缀的所有数据文件中,换行符必须相同。 如果某些具有相同前缀的数据文件中的换行字符不同,则对文件的读取操作可能会失败。
  • 对于可写入的S3外部表,只支持INSERT 操作。不支持 UPDATE, DELETE, 和 TRUNCATE 操作。
  • 由于Amazon S3允许最多10,000个部分用于多部分上传,所以128MB 最大 块 值 支持每个Greenplum数据库Segment的可写入s3表的最大插入大小1.28TB。 用户必须确保 chunksize设置可以支持表的预期表格大小。 有关上传到S3的更多信息,请参阅S3文档中的多部分上传概述
  • 利用Greenplum数据库执行的并行处理Segment实例中,只读S3表的S3位置中的文件的大小应类似,文件数量应允许多个Segment从S3位置下载数据。 例如,如果Greenplum数据库 系统由16个Segment组成,网络带宽足够,在S3位置创建16个文件允许每个Segment从一个文件下载 S3位置。 相比之下,如果位置只包含1或2个文件,则只有1个或2Segment下载数据。

关于S3协议URL

对于 s3 协议,用户可以在 CREATE EXTERNAL TABLE命令的 LOCATION 子句中指定文件的位置和可选的配置文件位置。语法如下:

  1. 's3://S3_endpoint[:port]/bucket_name/[S3_prefix] [region=S3_region] [config=config_file_location]'

s3 协议要求用户指定S3端点和S3桶名称。 每个Greenplum数据库Segment实例必须能够访问S3位置。 可选的S3_prefix 值用于为只读S3表选择文件,也可用作为S3可写表上传文件时使用的文件名前缀。

注意:Greenplum数据库s3协议URL必须包含S3端点主机名。

要在 LOCATION子句中指定ECS端点(Amazon S3兼容服务),必须将s3 配置文件参数设置为 版本 2。 版本 参数 控制LOCATION 中是否使用 region 参数。 用户还可以在 版本参数为2时指定Amazon S3位置。 有关 版本 参数的信息,参见s3协议配置文件

注意: 虽然 S3_prefix 是语法的可选部分, 但是用户应该始终为可写和只读S3表包含一个S3前缀,以分隔数据集作为CREATE EXTERNAL TABLE语法的一部分。

对于可写的S3表,s3协议URL指定了Greenplum数据库上传表的数据文件的端点和存储桶名称。 对于上传文件的S3用户标识, S3桶权限必须为 Upload/Delete。 由于将数据插入到表中,S3文件前缀用于上传到S3位置的每个新文件。 请参阅关于S3数据文件

对于只读S3表,S3文件前缀是可选的。 如果指定了 S3_prefix,则s3协议将以指定前缀开头的所有文件选择为外部表的数据文件。 s3协议不使用斜杠字符(/) 作为分隔符,因此前缀后面的斜杠字符将被视为前缀本身的一部分。

例如,考虑以下5个文件,每个文件都有名为 S3_endpoint 的 s3-us-west-2.amazonaws.com 和 bucket_name test1:

  1. s3://s3-us-west-2.amazonaws.com/test1/abc
  2. s3://s3-us-west-2.amazonaws.com/test1/abc/
  3. s3://s3-us-west-2.amazonaws.com/test1/abc/xx
  4. s3://s3-us-west-2.amazonaws.com/test1/abcdef
  5. s3://s3-us-west-2.amazonaws.com/test1/abcdefff
  • 如果S3 URL是作为s3://s3-us-west-2.amazonaws.com/test1/abc提供的, 那么 abc前缀会选择所有5个文件。
  • 如果S3 URL被提供为s3://s3-us-west-2.amazonaws.com/test1/abc/, 则 abc/ prefix 选择文件 s3://s3-us-west-2.amazonaws.com/test1/abc/ 和 s3://s3-us-west-2.amazonaws.com/test1/abc/xx.
  • 如果S3 URL以s3://s3-us-west-2.amazonaws.com/test1/abcd提供,则 abcd前缀会选择文件 s3://s3-us-west-2.amazonaws.com/test1/abcdef 和 s3://s3-us-west-2.amazonaws.com/test1/abcdefff

S3_prefix中不支持通配符;然而,S3前缀的功能就好像一个通配符紧随着前缀本身。

由S3 URL (S3_endpoint/bucket_name/S3_prefix) 选择的所有文件都用作外部表的源,因此它们必须具有相同的格式。 每个文件还必须包含完整的数据行。数据行不能在文件之间分割。对于正在访问文件的S3用户标识,S3文件权限必须是Open/Download和View

有关Amazon S3端点的信息,请参阅 http://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region。 有关S3桶和文件夹的信息,请参阅Amazon S3文档https://aws.amazon.com/documentation/s3/。 有关S3文件前缀的信息,请参阅Amazon S3文档列出密钥分层使用前缀和分隔符

config参数指定包含AWS连接凭据和通信参数的所需 s3 协议配置文件的位置。 参阅关于S3协议配置参数

s3协议配置文件

使用 s3 协议时,所有的Greenplum数据库Segment都需要一个s3 协议配置文件。 默认位置是:

  1. gpseg_data_dir/gpseg-prefixN/s3/s3.conf

gpseg_data_dir 是Greenplum数据库Segment数据目录的路径, gpseg-prefix 是Segment前缀, N是Segment的ID。 在初始化Greenplum数据库系统时,会设置Segment数据目录,前缀和ID。

如果Segment主机上有多个Segment实例,则可以通过在每个Segment主机上创建单个位置来简化配置。 然后可以使用s3协议 LOCATION子句中的config参数指定位置的绝对路径。但是,请注意,只读和可写S3外部表对于它们的连接使用相同的参数值。 如果要为只读和可写S3表配置协议参数不同,则在创建每个表时,必须使用两种不同的s3协议配置文件, 并在 CREATE EXTERNAL TABLE语句中指定正确的文件。

次示例指定gpadmin主目录的 the s3目录中的单个文件位置:

  1. config=/home/gpadmin/s3/s3.conf

主机上的所有Segment实例都使用文件 /home/gpadmin/s3/s3.conf。

s3s3协议配置文件是由 [default] 部分和参数组成的文本文件。这是一个配置文件示例:

  1. [default]
  2. secret = "secret"
  3. accessid = "user access id"
  4. threadnum = 3
  5. chunksize = 67108864

用户可以使用Greenplum数据库 gpcheckcloud 实用程序来测试S3配置文件。 参阅 使用gpcheckcloud工具

s3配置文件参数

accessid

必需。AWS S3 ID 访问s3的桶

secret

必需。AWS S3的S3代码访问S3存储区。

autocompress

对于可写入的S3外部表,此参数指定在上传到S3之前是否压缩文件(使用gzip)。如果不指定此参数,文件将默认压缩。

chunksize

每个Segment线程用于读取或写入到S3服务器的缓冲大小。默认值为64 MB。最小为8MB,最大为128MB。

当将数据插入到可写S3表中时,每个Greenplum数据库Segment将数据写入其缓冲区(using multiple threads up to the threadnum value) 直到缓冲区满为止,然后将缓冲区写入S3存储区中的一个文件。 然后根据需要在每个Segment上重复该过程,直到插入操作完成。

由于Amazon S3允许最多10,000个部分用于多部分上传,因此最小的 块 大小为 8MB, 支持每个Greenplum数据库Segment的最大插入大小为80GB。 最大的 块大小是128MB 支持每个Greenplum数据库Segment的最大插入大小为1.28TB.对于可写的S3表,用户必须确保 chunksize 设置可以支持表的预期表格大小。 有关上传到S3的更多信息,请参阅Multipart Upload Overview

encryption

使用通过安全套接字层(SSL)保护的连接。 默认值为true。 值为true, t, on, yes, 和 y (不区分大小写)被视为true。 任何其他值被视为false。

如果在 CREATE EXTERNAL TABLE命令的 LOCATION 子句中的URL中未指定端口,则配置文件的 加密参数会影响 s3 协议使用的端口(HTTP端口80或HTTPS端口443)。 如果指定端口,则使用该端口,而不管加密设置如何。

low_speed_limit

上传/下载速度下限,以字节/秒为单位。 默认速度为10240(10K)。 如果上传或下载 速度低于由 low_speed_time, 指定的时间长于限制,则连接将中止并重试。 3次重试后,s3 协议返回错误。 值0指定没有下限。

low_speed_time

当连接速度小于 low_speed_limit时,此参数指定中止上载或从S3存储桶下载之前等待的时间(以秒为单位)。默认值为60秒。 值0指定没有时间限制。

server_side_encryption

已为桶配置的S3服务器端加密方法。 Greenplum数据库仅支持使用Amazon S3管理的密钥进行服务器端加密,由配置参数值 sse-s3标识。 默认情况下禁用服务器端加密(无) 。

threadnum

在将数据上传到S3桶中的数据或从S3桶中下载数据时,Segment可以创建的最大并发线程数。 默认值为4.最小值为1,最大值为8。

verifycert

控制在客户端和s3 数据源之间通过HTTPS建立加密通信时,s3协议如何处理身份验证。 该值为 true 或 false。默认值为 true。

  • verifycert=false - 忽略身份验证错误,并通过HTTPS进行加密通信。
  • verifycert=true - 需要通过HTTPS进行加密通信的有效身份验证(特有的证书)。

将值设置为 false 可用于测试和开发环境, 以允许通信而不更改证书。

警告: 将值设置为 false通过在客户端和S3数据存储之间建立通信时忽略无效凭据来暴露安全风险。

version

指定 CREATE EXTERNAL TABLE 命令的LOCATION 子句中 指定的信息版本。值为1或 2。 默认值为1。

如果值为1,则LOCATION 子句支持Amazon S3 URL, 并且不包含 region 参数。如果值为 2,the LOCATION 子句支持S3兼容服务,并且必须包含 region 参数。region 参数指定S3数据源区域。 对于这个S3 URL s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/, AWS S3区域是 us-west-2。

如果版本 是1或者没被指定,则这是一个示例 LOCATION 子句, CREATE EXTERNAL TABLE命令指定一个Amazon S3端点。

  1. LOCATION ('s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/
  2. config=/home/gpadmin/aws_s3/s3.conf')

如果版本是2, 一个示例 LOCATION子句,其中包括AWS兼容服务的 region 参数。 .

  1. LOCATION ('s3://test.company.com/s3test.company/test1/normal/ region=local-test
  2. config=/home/gpadmin/aws_s3/s3.conf')

如果版本 是2,LOCATION 子句也可以指定一个Amazon S3端点。 此示例指定使用该Amazon S3端点 region 参数。

  1. LOCATION ('s3://s3-us-west-2.amazonaws.com/s3test.example.com/dataset1/normal/ region=us-west-2
  2. config=/home/gpadmin/aws_s3/s3.conf')

注解: 当上传或下载S3文件时,Greenplum数据库可能需要在每个分Segment主机上最多可以使用 threadnum * chunksize 的内存。 当用户配置总体的Greenplum数据库内存时,请考虑此s3 协议内存要求,并根据需要增加 gp_vmem_protect_limit 的值。

兼容性

CREATE EXTERNAL TABLE 是Greenplum数据库扩展。SQL标准没有规定外部表。

另见

CREATE TABLE AS, CREATE TABLE, COPY, SELECT INTO, INSERT

上级主题: SQL命令参考