Nebula Importer
Nebula Importer(简称Importer)是一款Nebula Graph的CSV文件单机导入工具。Importer可以读取本地的CSV文件,然后导入数据至Nebula Graph图数据库中。
适用场景
Importer适用于将本地CSV文件的内容导入至Nebula Graph中。
优势
轻量快捷:不需要复杂环境即可使用,快速导入数据。
灵活筛选:通过配置文件可以实现对CSV文件数据的灵活筛选。
前提条件
在使用Nebula Importer之前,请确保:
已部署Nebula Graph服务。目前有三种部署方式:
Nebula Graph中已创建Schema,包括图空间、Tag和Edge type,或者通过参数
clientSettings.postStart.commands
设置。运行Importer的机器已部署Golang环境。详情请参见Golang 环境搭建。
操作步骤
配置yaml文件并准备好待导入的CSV文件,即可使用本工具向Nebula Graph批量写入数据。
源码编译运行
克隆仓库。
$ git clone -b 2.5.0 https://github.com/vesoft-inc/nebula-importer.git
进入目录
nebula-importer
。$ cd nebula-importer
编译源码。
$ make build
启动服务。
$ ./nebula-importer --config <yaml_config_file_path>
无网络编译方式
如果服务器不能联网,建议在能联网的机器上将源码和各种依赖打包上传到对应的服务器上编译即可,操作步骤如下:
克隆仓库。
$ git clone -b 2.5.0 https://github.com/vesoft-inc/nebula-importer.git
使用如下的命令下载并打包依赖的源码。
$ cd nebula-importer
$ go mod vendor
$ cd .. && tar -zcvf nebula-importer.tar.gz nebula-importer
将压缩包上传到不能联网的服务器上。
解压并编译。
$ tar -zxvf nebula-importer.tar.gz
$ cd nebula-importer
$ go build -mod vendor cmd/importer.go
Docker方式运行
使用Docker可以不必在本地安装Go语言环境,只需要拉取Nebula Importer的镜像,并将本地配置文件和CSV数据文件挂载到容器中。命令如下:
$ docker run --rm -ti \
--network=host \
-v <config_file>:<config_file> \
-v <csv_data_dir>:<csv_data_dir> \
vesoft/nebula-importer:<version>
--config <config_file>
<config_file>
:本地yaml配置文件的绝对路径。<csv_data_dir>
:本地CSV数据文件的绝对路径。<version>
:Nebula Graph 2.x请填写v2
。
配置文件说明
Nebula Importer通过nebula-importer/examples/v2/example.yaml
配置文件来描述待导入文件信息、Nebula Graph服务器信息等。用户可以参考示例配置文件:无表头配置/有表头配置。下文将分类介绍配置文件内的字段。
基本配置
示例配置如下:
version: v2
description: example
removeTempFiles: false
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
version | v2 | 是 | 目标Nebula Graph的版本。 |
description | example | 否 | 配置文件的描述。 |
removeTempFiles | false | 否 | 是否删除临时生成的日志和错误数据文件。 |
客户端配置
客户端配置存储客户端连接Nebula Graph相关的配置。
示例配置如下:
clientSettings:
retry: 3
concurrency: 10
channelBufferSize: 128
space: test
connection:
user: user
password: password
address: 192.168.11.13:9669,192.168.11.14:9669
postStart:
commands: |
UPDATE CONFIGS storage:wal_ttl=3600;
UPDATE CONFIGS storage:rocksdb_column_family_options = { disable_auto_compactions = true };
afterPeriod: 8s
preStop:
commands: |
UPDATE CONFIGS storage:wal_ttl=86400;
UPDATE CONFIGS storage:rocksdb_column_family_options = { disable_auto_compactions = false };
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
clientSettings.retry | 3 | 否 | nGQL语句执行失败的重试次数。 |
clientSettings.concurrency | 10 | 否 | Nebula Graph客户端并发数。 |
clientSettings.channelBufferSize | 128 | 否 | 每个Nebula Graph客户端的缓存队列大小。 |
clientSettings.space | - | 是 | 指定数据要导入的Nebula Graph图空间。不要同时导入多个空间,以免影响性能。 |
clientSettings.connection.user | - | 是 | Nebula Graph的用户名。 |
clientSettings.connection.password | - | 是 | Nebula Graph用户名对应的密码。 |
clientSettings.connection.address | - | 是 | 所有Graph服务的地址和端口。 |
clientSettings.postStart.commands | - | 否 | 配置连接Nebula Graph服务器之后,在插入数据之前执行的一些操作。 |
clientSettings.postStart.afterPeriod | - | 否 | 执行上述commands 命令后到执行插入数据命令之间的间隔,例如8s 。 |
clientSettings.preStop.commands | - | 否 | 配置断开Nebula Graph服务器连接之前执行的一些操作。 |
文件配置
文件配置存储数据文件和日志的相关配置,以及Schema的具体信息。
文件和日志配置
示例配置如下:
logPath: ./err/test.log
files:
- path: ./student_without_header.csv
failDataPath: ./err/studenterr.csv
batchSize: 128
limit: 10
inOrder: false
type: csv
csv:
withHeader: false
withLabel: false
delimiter: ","
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
logPath | - | 否 | 导入过程中的错误等日志信息输出的文件路径。 |
files.path | - | 是 | 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。可以使用星号(*)进行模糊匹配,导入多个名称相似的文件,但是文件的结构需要相同。 |
files.failDataPath | - | 是 | 插入失败的数据文件存放路径,以便后面补写数据。 |
files.batchSize | 128 | 否 | 单批次插入数据的语句数量。 |
files.limit | - | 否 | 读取数据的行数限制。 |
files.inOrder | - | 否 | 是否按顺序在文件中插入数据行。如果为false ,可以避免数据倾斜导致的导入速率降低。 |
files.type | - | 是 | 文件类型。 |
files.csv.withHeader | false | 是 | 是否有表头。详情请参见关于CSV文件表头。 |
files.csv.withLabel | false | 是 | 是否有LABEL。详情请参见有表头配置说明。 |
files.csv.delimiter | “,” | 是 | 指定csv文件的分隔符。只支持一个字符的字符串分隔符。 |
Schema配置
Schema配置描述当前数据文件的Meta信息,Schema的类型分为点和边两类,可以同时配置多个点或边。
- 点配置
示例配置如下:
schema:
type: vertex
vertex:
vid:
type: string
index: 0
tags:
- name: student
props:
- name: name
type: string
index: 1
- name: age
type: int
index: 2
- name: gender
type: string
index: 3
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
files.schema.type | - | 是 | Schema的类型,可选值为vertex 和edge 。 |
files.schema.vertex.vid.type | - | 否 | 点ID的数据类型,可选值为int 和string 。 |
files.schema.vertex.vid.index | - | 否 | 点ID对应CSV文件中列的序号。 |
files.schema.vertex.tags.name | - | 是 | Tag名称。 |
files.schema.vertex.tags.props.name | - | 是 | Tag属性名称,必须和Nebula Graph中的Tag属性一致。 |
files.schema.vertex.tags.props.type | - | 否 | 属性数据类型,支持bool 、int 、float 、double 、timestamp 和string 。 |
files.schema.vertex.tags.props.index | - | 否 | 属性对应CSV文件中列的序号。 |
- 边配置
示例配置如下:
schema:
type: edge
edge:
name: follow
withRanking: true
srcVID:
type: string
index: 0
dstVID:
type: string
index: 1
rank:
index: 2
props:
- name: degree
type: double
index: 3
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
files.schema.type | - | 是 | Schema的类型,可选值为vertex 和edge 。 |
files.schema.edge.name | - | 是 | Edge type名称。 |
files.schema.edge.srcVID.type | - | 否 | 边的起始点ID的数据类型。 |
files.schema.edge.srcVID.index | - | 否 | 边的起始点ID对应CSV文件中列的序号。 |
files.schema.edge.dstVID.type | - | 否 | 边的目的点ID的数据类型。 |
files.schema.edge.dstVID.index | - | 否 | 边的目的点ID对应CSV文件中列的序号。 |
files.schema.edge.rank.index | - | 否 | 边的rank值对应CSV文件中列的序号。 |
files.schema.edge.props.name | - | 是 | Edge type属性名称,必须和Nebula Graph中的Edge type属性一致。 |
files.schema.edge.props.type | - | 否 | 属性类型,支持bool 、int 、float 、double 、timestamp 和string 。 |
files.schema.edge.props.index | - | 否 | 属性对应CSV文件中列的序号。 |
关于CSV文件表头(header)
Importer根据CSV文件有无表头,需要对配置文件进行不同的设置,相关示例和说明请参见:
视频
- 数据库导入工具——Nebula Importer 简介(3分09秒)