跳转至

Nebula Importer

Nebula Importer(简称 Importer)是一款 Nebula Graph 的 CSV 文件单机导入工具。Importer 可以读取本地的 CSV 文件,然后导入数据至 Nebula Graph 图数据库中。

适用场景

Importer 适用于将本地 CSV 文件的内容导入至 Nebula Graph 中。

优势

  • 轻量快捷:不需要复杂环境即可使用,快速导入数据。
  • 灵活筛选:通过配置文件可以实现对 CSV 文件数据的灵活筛选。

更新说明

Release

前提条件

在使用 Nebula Importer 之前,请确保:

  • Nebula Graph 中已创建 Schema,包括图空间、Tag 和 Edge type,或者通过参数clientSettings.postStart.commands设置。

操作步骤

配置 yaml 文件并准备好待导入的 CSV 文件,即可使用本工具向 Nebula Graph 批量写入数据。

下载二进制包运行

  1. Release页面下载二进制包,并添加执行权限。

  2. 启动服务。

    $ ./<binary_package_name> --config <yaml_config_file_path>
    

源码编译运行

  1. 克隆仓库。

    $ git clone -b v2.6.0 https://github.com/vesoft-inc/nebula-importer.git
    

    Note

    请使用正确的分支。 Nebula Graph 1.x 和 2.x 的 rpc 协议不同,因此:

    • Nebula Importer v1 分支只能连接 Nebula Graph 1.x。
    • Nebula Importer master 分支和 v2 分支可以连接 Nebula Graph 2.x。
  2. 进入目录nebula-importer

    $ cd nebula-importer
    
  3. 编译源码。

    $ make build
    
  4. 启动服务。

    $ ./nebula-importer --config <yaml_config_file_path>
    

    Note

    yaml 配置文件说明请参见下文的配置文件说明。

无网络编译方式

如果服务器不能联网,建议在能联网的机器上将源码和各种依赖打包上传到对应的服务器上编译即可,操作步骤如下:

  1. 克隆仓库。

    $ git clone -b 2.6.0 https://github.com/vesoft-inc/nebula-importer.git
    
  2. 使用如下的命令下载并打包依赖的源码。

    $ cd nebula-importer
    $ go mod vendor
    $ cd .. && tar -zcvf nebula-importer.tar.gz nebula-importer
    
  3. 将压缩包上传到不能联网的服务器上。

  4. 解压并编译。

    $ tar -zxvf nebula-importer.tar.gz 
    $ cd nebula-importer
    $ go build -mod vendor cmd/importer.go
    

Docker 方式运行

使用 Docker 可以不必在本地安装 Go 语言环境,只需要拉取 Nebula Importer 的镜像,并将本地配置文件和 CSV 数据文件挂载到容器中。命令如下:

$ docker run --rm -ti \
    --network=host \
    -v <config_file>:<config_file> \
    -v <csv_data_dir>:<csv_data_dir> \
    vesoft/nebula-importer:<version>
    --config <config_file>
  • <config_file>:本地 yaml 配置文件的绝对路径。
  • <csv_data_dir>:本地 CSV 数据文件的绝对路径。
  • <version>:Nebula Graph 2.x 请填写v2

Note

建议使用相对路径。如果使用本地绝对路径,请检查路径映射到 Docker 中的路径。

配置文件说明

Nebula Importer 通过nebula-importer/examples/v2/example.yaml配置文件来描述待导入文件信息、Nebula Graph 服务器信息等。用户可以参考示例配置文件:无表头配置/有表头配置。下文将分类介绍配置文件内的字段。

Note

如果用户下载的是二进制包,请手动创建配置文件。

基本配置

示例配置如下:

version: v2
description: example
removeTempFiles: false
参数 默认值 是否必须 说明
version v2 目标 Nebula Graph 的版本。
description example 配置文件的描述。
removeTempFiles false 是否删除临时生成的日志和错误数据文件。

客户端配置

客户端配置存储客户端连接 Nebula Graph 相关的配置。

示例配置如下:

clientSettings:
  retry: 3
  concurrency: 10
  channelBufferSize: 128
  space: test
  connection:
    user: user
    password: password
    address: 192.168.11.13:9669,192.168.11.14:9669
  # # 只有 local_config 是 false 的情况下,才可以通过 UPDATE CONFIGS 更新配置
  # postStart:
  #   commands: |
  #     UPDATE CONFIGS storage:wal_ttl=3600;
  #     UPDATE CONFIGS storage:rocksdb_column_family_options = { disable_auto_compactions = true };
  #   afterPeriod: 8s
  # preStop:
  #   commands: |
  #     UPDATE CONFIGS storage:wal_ttl=86400;
  #     UPDATE CONFIGS storage:rocksdb_column_family_options = { disable_auto_compactions = false };
参数 默认值 是否必须 说明
clientSettings.retry 3 nGQL 语句执行失败的重试次数。
clientSettings.concurrency 10 Nebula Graph 客户端并发数。
clientSettings.channelBufferSize 128 每个 Nebula Graph 客户端的缓存队列大小。
clientSettings.space - 指定数据要导入的 Nebula Graph 图空间。不要同时导入多个空间,以免影响性能。
clientSettings.connection.user - Nebula Graph 的用户名。
clientSettings.connection.password - Nebula Graph 用户名对应的密码。
clientSettings.connection.address - 所有 Graph 服务的地址和端口。
clientSettings.postStart.commands - 配置连接 Nebula Graph 服务器之后,在插入数据之前执行的一些操作。
clientSettings.postStart.afterPeriod - 执行上述commands命令后到执行插入数据命令之间的间隔,例如8s
clientSettings.preStop.commands - 配置断开 Nebula Graph 服务器连接之前执行的一些操作。

文件配置

文件配置存储数据文件和日志的相关配置,以及 Schema 的具体信息。

文件和日志配置

示例配置如下:

logPath: ./err/test.log
files:
  - path: ./student_without_header.csv
    failDataPath: ./err/studenterr.csv
    batchSize: 128
    limit: 10
    inOrder: false
    type: csv
    csv:
      withHeader: false
      withLabel: false
      delimiter: ","
参数 默认值 是否必须 说明
logPath - 导入过程中的错误等日志信息输出的文件路径。
files.path - 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。可以使用星号(*)进行模糊匹配,导入多个名称相似的文件,但是文件的结构需要相同。
files.failDataPath - 插入失败的数据文件存放路径,以便后面补写数据。
files.batchSize 128 单批次插入数据的语句数量。
files.limit - 读取数据的行数限制。
files.inOrder - 是否按顺序在文件中插入数据行。如果为false,可以避免数据倾斜导致的导入速率降低。
files.type - 文件类型。
files.csv.withHeader false 是否有表头。详情请参见关于 CSV 文件表头
files.csv.withLabel false 是否有 LABEL。详情请参见有表头配置说明
files.csv.delimiter "," 指定 csv 文件的分隔符。只支持一个字符的字符串分隔符。

Schema 配置

Schema 配置描述当前数据文件的 Meta 信息,Schema 的类型分为点和边两类,可以同时配置多个点或边。

  • 点配置

示例配置如下:

schema:
  type: vertex
  vertex:
    vid:
      type: string
      index: 0
    tags:
      - name: student
        props:
          - name: name
            type: string
            index: 1
          - name: age
            type: int
            index: 2
          - name: gender
            type: string
            index: 3
参数 默认值 是否必须 说明
files.schema.type - Schema 的类型,可选值为vertexedge
files.schema.vertex.vid.type - 点 ID 的数据类型,可选值为intstring
files.schema.vertex.vid.index - 点 ID 对应 CSV 文件中列的序号。
files.schema.vertex.tags.name - Tag 名称。
files.schema.vertex.tags.props.name - Tag 属性名称,必须和 Nebula Graph 中的 Tag 属性一致。
files.schema.vertex.tags.props.type - 属性数据类型,支持boolintfloatdoubletimestampstring
files.schema.vertex.tags.props.index - 属性对应 CSV 文件中列的序号。

Note

CSV 文件中列的序号从 0 开始,即第一列的序号为 0,第二列的序号为 1。

  • 边配置

示例配置如下:

schema:
  type: edge
  edge:
    name: follow
    withRanking: true
    srcVID:
      type: string
      index: 0
    dstVID:
      type: string
      index: 1
    rank:
      index: 2
    props:
      - name: degree
        type: double
        index: 3
参数 默认值 是否必须 说明
files.schema.type - Schema 的类型,可选值为vertexedge
files.schema.edge.name - Edge type 名称。
files.schema.edge.srcVID.type - 边的起始点 ID 的数据类型。
files.schema.edge.srcVID.index - 边的起始点 ID 对应 CSV 文件中列的序号。
files.schema.edge.dstVID.type - 边的目的点 ID 的数据类型。
files.schema.edge.dstVID.index - 边的目的点 ID 对应 CSV 文件中列的序号。
files.schema.edge.rank.index - 边的 rank 值对应 CSV 文件中列的序号。
files.schema.edge.props.name - Edge type 属性名称,必须和 Nebula Graph 中的 Edge type 属性一致。
files.schema.edge.props.type - 属性类型,支持boolintfloatdoubletimestampstring
files.schema.edge.props.index - 属性对应 CSV 文件中列的序号。

关于 CSV 文件表头(header)

Importer 根据 CSV 文件有无表头,需要对配置文件进行不同的设置,相关示例和说明请参见:

视频


最后更新: March 7, 2023