Nebula ImporterGraph
Nebula Importer(简称Importer)是一款Graph的CSV文件导入工具。Importer可以读取本地的CSV文件,然后导入数据至NebulaGraph图数据库中。
适用场景Graph
Importer适用于将本地CSV文件的内容导入至NebulaGraph中。
优势Graph
- 轻量快捷:不需要复杂环境即可使用,快速导入数据。
- 灵活筛选:通过配置文件可以实现对CSV文件数据的灵活筛选。
前提条件Graph
在使用Nebula Importer之前,请确保:
-
已部署NebulaGraph服务。目前有三种部署方式:
- Graph(快速部署)
- Graph
- Graph
- NebulaGraph中已创建Schema,包括图空间、标签和边类型,或者通过参数
clientSettings.postStart.commands
设置。
- 运行Importer的机器已部署Golang环境。详情请参见Graph。
操作步骤Graph
配置yaml文件并准备好待导入的CSV文件,即可使用本工具向NebulaGraph批量写入数据。
源码编译运行Graph
-
克隆仓库。
$ git clone --branch <branch> https://github.com/vesoft-inc/nebula-importer.git
说明:请使用正确的分支。
NebulaGraph 1.x和2.x的rpc协议不同,因此:
- Nebula Importer v1分支只能连接NebulaGraph 1.x。
- Nebula Importer master分支和v2分支可以连接NebulaGraph 2.x。
-
进入目录
nebula-importer
。$ cd nebula-importer
-
编译源码。
$ make build
-
启动服务。
$ ./nebula-importer --config <yaml_config_file_path>
说明:yaml配置文件说明请参见Graph。
无网络编译方式Graph
如果您的服务器不能联网,建议您在能联网的机器上将源码和各种以来打包上传到对应的服务器上编译即可,操作步骤如下:
-
克隆仓库。
$ git clone --branch <branch> https://github.com/vesoft-inc/nebula-importer.git
-
使用如下的命令下载并打包依赖的源码。
$ cd nebula-importer $ go mod vendor $ cd .. && tar -zcvf nebula-importer.tar.gz nebula-importer
-
将压缩包上传到不能联网的服务器上。
-
解压并编译。
$ tar -zxvf nebula-importer.tar.gz $ cd nebula-importer $ go build -mod vendor cmd/
Docker方式运行Graph
使用Docker可以不必在本地安装Go语言环境,只需要拉取Nebula Importer的Graph,并将本地配置文件和CSV数据文件挂载到容器中。命令如下:
$ docker run --rm -ti \
--network=host \
-v <config_file>:<config_file> \
-v <csv_data_dir>:<csv_data_dir> \
vesoft/nebula-importer:<version>
--config <config_file>
<config_file>
:本地yaml配置文件的绝对路径。<csv_data_dir>
:本地CSV数据文件的绝对路径。<version>
:NebulaGraph 2.x请填写v2
。
说明:建议您使用相对路径。如果使用本地绝对路径,请检查路径映射到Docker中的路径。
配置文件说明Graph
Nebula Importer通过yaml配置文件来描述待导入文件信息、NebulaGraph服务器信息等。您可以参考示例配置文件:Graph。下文将分类介绍配置文件内的字段。
基本配置Graph
示例配置如下:
version: v2
description: example
removeTempFiles: false
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
version |
v2 | 是 | 目标NebulaGraph的版本。 |
description |
example | 否 | 配置文件的描述。 |
removeTempFiles |
false | 否 | 是否删除临时生成的日志和错误数据文件。 |
客户端配置Graph
客户端配置存储客户端连接NebulaGraph相关的配置。
示例配置如下:
clientSettings:
retry: 3
concurrency: 10
channelBufferSize: 128
space: test
connection:
user: user
password: password
address: 192.168.*.*:9669,192.168.*.*:9669
postStart:
commands: |
UPDATE CONFIGS storage:wal_ttl=3600;
UPDATE CONFIGS storage:rocksdb_column_family_options = { disable_auto_compactions = true };
afterPeriod: 8s
preStop:
commands: |
UPDATE CONFIGS storage:wal_ttl=86400;
UPDATE CONFIGS storage:rocksdb_column_family_options = { disable_auto_compactions = false };
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
clientSettings.retry |
3 | 否 | nGQL语句执行失败的重试次数。 |
clientSettings.concurrency |
10 | 否 | NebulaGraph客户端并发数。 |
clientSettings.channelBufferSize |
128 | 否 | 每个NebulaGraph客户端的缓存队列大小。 |
clientSettings.space |
- | 是 | 指定数据要导入的NebulaGraph图空间。不要同时导入多个空间,以免影响性能。 |
clientSettings.connection.user |
- | 是 | NebulaGraph的用户名。 |
clientSettings.connection.password |
- | 是 | NebulaGraph用户名对应的密码。 |
clientSettings.connection.address |
- | 是 | 所有Graph服务的地址和端口。 |
clientSettings.postStart.commands |
- | 否 | 配置连接NebulaGraph服务器之后,在插入数据之前执行的一些操作。 |
clientSettings.postStart.afterPeriod |
- | 否 | 执行上述commands 命令后到执行插入数据命令之间的间隔,例如8s 。 |
clientSettings.preStop.commands |
- | 否 | 配置断开NebulaGraph服务器连接之前执行的一些操作。 |
文件配置Graph
文件配置存储数据文件和日志的相关配置,以及Schema的具体信息。
文件和日志配置Graph
示例配置如下:
logPath: ./err/test.log
files:
- path: ./student_without_header.csv
failDataPath: ./err/studenterr.csv
batchSize: 128
limit: 10
inOrder: false
type: csv
csv:
withHeader: false
withLabel: false
delimiter: ","
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
logPath |
- | 否 | 导入过程中的错误等日志信息输出的文件路径。 |
files.path |
- | 是 | 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。 |
files.failDataPath |
- | 是 | 插入失败的数据文件存放路径,以便后面补写数据。 |
files.batchSize |
128 | 否 | 单批次插入数据的语句数量。 |
files.limit |
- | 否 | 读取数据的行数限制。 |
files.inOrder |
- | 否 | 是否按顺序在文件中插入数据行。如果为false ,可以避免数据倾斜导致的导入速率降低。 |
files.type |
- | 是 | 文件类型。 |
files.csv.withHeader |
false |
是 | 是否有表头。详情请参见Graph。 |
files.csv.withLabel |
false |
是 | 是否有LABEL。详情请参见Graph。 |
files.csv.delimiter |
"," |
是 | 指定csv文件的分隔符。只支持一个字符的字符串分隔符。 |
Schema配置Graph
Schema配置描述当前数据文件的Meta信息,Schema的类型分为点和边两类,可以同时配置多个点或边。
- 点配置
示例配置如下:
schema:
type: vertex
vertex:
vid:
type: string
index: 0
tags:
- name: student
props:
- name: name
type: string
index: 1
- name: age
type: int
index: 2
- name: gender
type: string
index: 3
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
files.schema.type |
- | 是 | Schema的类型,可选值为vertex 和edge 。 |
files.schema.vertex.vid.type |
- | 否 | 点ID的数据类型,可选值为int 和string 。 |
files.schema.vertex.vid.index |
- | 否 | 点ID对应CSV文件中列的序号。 |
files.schema.vertex.tags.name |
- | 是 | 标签名称。 |
files.schema.vertex.tags.props.name |
- | 是 | 标签属性名称,必须和NebulaGraph中的标签属性一致。 |
files.schema.vertex.tags.props.type |
- | 否 | 属性数据类型,支持bool 、int 、float 、double 、timestamp 和string 。 |
files.schema.vertex.tags.props.index |
- | 否 | 属性对应CSV文件中列的序号。 |
- 边配置
示例配置如下:
schema:
type: edge
edge:
name: follow
withRanking: true
srcVID:
type: string
index: 0
dstVID:
type: string
index: 1
rank:
index: 2
props:
- name: degree
type: double
index: 3
参数 | 默认值 | 是否必须 | 说明 |
---|---|---|---|
files.schema.type |
- | 是 | Schema的类型,可选值为vertex 和edge 。 |
files.schema.edge.name |
- | 是 | 边类型名称。 |
files.schema.edge.srcVID.type |
- | 否 | 边的起始点ID的数据类型。 |
files.schema.edge.srcVID.index |
- | 否 | 边的起始点ID对应CSV文件中列的序号。 |
files.schema.edge.dstVID.type |
- | 否 | 边的目的点ID的数据类型。 |
files.schema.edge.dstVID.index |
- | 否 | 边的目的点ID对应CSV文件中列的序号。 |
files.schema.edge.rank.index |
- | 否 | 边的rank值对应CSV文件中列的序号。 |
files.schema.edge.props.name |
- | 是 | 边类型属性名称,必须和NebulaGraph中的边类型属性一致。 |
files.schema.edge.props.type |
- | 否 | 属性类型,支持bool 、int 、float 、double 、timestamp 和string 。 |
files.schema.edge.props.index |
- | 否 | 属性对应CSV文件中列的序号。 |
说明:CSV文件中列的序号从0开始,即第一列的序号为0,第二列的序号为1。
关于CSV文件表头(header)Graph
Importer根据CSV文件有无表头,需要对配置文件进行不同的设置,相关示例和说明请参见:
- Graph
- Graph