跳转至

配置说明

本文介绍使用 NebulaGraph Exchange 时如何自动生成示例配置文件,以及介绍配置文件 application.conf

自动生成示例配置文件

通过如下命令,指定要导入的数据源,即可获得该数据源所对应的配置文件示例。

java -cp <exchange_jar_package> com.vesoft.exchange.common.GenerateConfigTemplate -s <source_type> -p
<config_file_save_path>

例如:

java -cp nebula-exchange_spark_2.4-3.0-SNAPSHOT.jar com.vesoft.exchange.common.GenerateConfigTemplate -s csv -p /home/nebula/csv_application.conf

使用加密密码

用户在配置文件里设置连接 NebulaGraph 的密码时,可以使用明文密码,也可以使用 RSA 加密后的密码。

如果需要使用 RSA 加密后的密码,需要在配置文件内进行如下设置:

  • nebula.pswd配置为 RSA 加密后的密码。
  • nebula.privateKey配置为 RSA 加密的密钥。
  • nebula.enableRSA配置为true

用户可以使用自己的工具加密,也可以使用 Exchange 的 JAR 包内提供的加密工具,例如:

spark-submit --master local --class com.vesoft.exchange.common.PasswordEncryption nebula-exchange_spark_2.4-3.0-SNAPSHOT.jar -p nebula

返回结果如下:

=================== public key begin ===================
MIGfMA0GCSqGSIb3DQEBAQUAA4GNADCBiQKBgQCLl7LaNSEXlZo2hYiJqzxgyFBQdkxbQXYU/xQthsBJwjOPhkiY37nokzKnjNlp6mv5ZUomqxLsoNQHEJ6BZD4VPiaiElFAkTD+gyul1v8f3A446Fr2rnVLogWHnz8ECPt7X8jwmpiKOXkOPIhqU5E0Cua+Kk0nnVosbos/VShfiQIDAQAB
=================== public key end ===================


=================== private key begin ===================
MIICeAIBADANBgkqhkiG9w0BAQEFAASCAmIwggJeAgEAAoGBAIuXsto1IReVmjaFiImrPGDIUFB2TFtBdhT/FC2GwEnCM4+GSJjfueiTMqeM2Wnqa/llSiarEuyg1AcQnoFkPhU+JqISUUCRMP6DK6XW/x/cDjjoWvaudUuiBYefPwQI+3tfyPCamIo5eQ48iGpTkTQK5r4qTSedWixuiz9VKF+JAgMBAAECgYADWbfEPwQ1UbTq3Bej3kVLuWMcG0rH4fFYnaq5UQOqgYvFRR7W9H+80lOj6+CIB0ViLgkylmaU4WNVbBOx3VsUFFWSqIIIviKubg8m8ey7KAd9X2wMEcUHi4JyS2+/WSacaXYS5LOmMevvuaOwLEV0QmyM+nNGRIjUdzCLR1935QJBAM+IF8YD5GnoAPPjGIDS1Ljhu/u/Gj6/YBCQKSHQ5+HxHEKjQ/YxQZ/otchmMZanYelf1y+byuJX3NZ04/KSGT8CQQCsMaoFO2rF5M84HpAXPi6yH2chbtz0VTKZworwUnpmMVbNUojf4VwzAyOhT1U5o0PpFbpi+NqQhC63VUN5k003AkEArI8vnVGNMlZbvG7e5/bmM9hWs2viSbxdB0inOtv2g1M1OV+B2gp405ru0/PNVcRV0HQFfCuhVfTSxmspQoAihwJBAJW6EZa/FZbB4JVxreUoAr6Lo8dkeOhT9M3SZbGWZivaFxot/Cp/8QXCYwbuzrJxjqlsZUeOD6694Uk08JkURn0CQQC8V6aRa8ylMhLJFkGkMDHLqHcQCmY53Kd73mUu4+mjMJLZh14zQD9ydFtc0lbLXTeBAMWV3uEdeLhRvdAo3OwV
=================== private key end ===================


=================== encrypted  password begin ===================
Io+3y3mLOMnZJJNUPHZ8pKb4VfTvg6wUh6jSu5xdmLAoX/59tK1HTwoN40aOOWJwa1a5io7S4JqcX/jEcAorw7pelITr+F4oB0AMCt71d+gJuu3/lw9bjUEl9tF4Raj82y2Dg39wYbagN84fZMgCD63TPiDIevSr6+MFKASpGrY=
=================== encrypted  password end ===================
check: the real password decrypted by private key and encrypted password is: nebula

配置说明

修改配置文件之前,建议根据数据源复制并修改文件名称,便于区分。例如数据源为 CSV 文件,可以复制为csv_application.conf

配置文件的内容主要分为如下几类:

  • Spark 相关配置
  • Hive 配置(可选)
  • NebulaGraph 相关配置
  • 点配置
  • 边配置

Spark 相关配置

本文只列出部分 Spark 参数,更多参数请参见官方文档

参数 数据类型 默认值 是否必须 说明
spark.app.name string - Spark 驱动程序名称。
spark.driver.cores int 1 驱动程序使用的 CPU 核数,仅适用于集群模式。
spark.driver.maxResultSize string 1G 单个 Spark 操作(例如 collect)时,所有分区的序列化结果的总大小限制(字节为单位)。最小值为 1M,0 表示无限制。
spark.executor.memory string 1G Spark 驱动程序使用的内存量,可以指定单位,例如 512M、1G。
spark.cores.max int 16 当驱动程序以“粗粒度”共享模式在独立部署集群或 Mesos 集群上运行时,跨集群(而非从每台计算机)请求应用程序的最大 CPU 核数。如果未设置,则值为 Spark 的独立集群管理器上的spark.deploy.defaultCores或 Mesos 上的 infinite(所有可用的内核)。

Hive 配置(可选)

如果 Spark 和 Hive 部署在不同集群,才需要配置连接 Hive 的参数,否则请忽略这些配置。

参数 数据类型 默认值 是否必须 说明
hive.warehouse string - HDFS 中的 warehouse 路径。用双引号括起路径,以hdfs://开头。
hive.connectionURL string - JDBC 连接的 URL。例如"jdbc:mysql://127.0.0.1:3306/hive_spark?characterEncoding=UTF-8"
hive.connectionDriverName string "com.mysql.jdbc.Driver" 驱动名称。
hive.connectionUserName list[string] - 连接的用户名。
hive.connectionPassword list[string] - 用户名对应的密码。

NebulaGraph相关配置

参数 数据类型 默认值 是否必须 说明
nebula.address.graph list[string] ["127.0.0.1:9669"] 所有 Graph 服务的地址,包括 IP 和端口,多个地址用英文逗号(,)分隔。格式为["ip1:port1","ip2:port2","ip3:port3"]
nebula.address.meta list[string] ["127.0.0.1:9559"] 所有 Meta 服务的地址,包括 IP 和端口,多个地址用英文逗号(,)分隔。格式为["ip1:port1","ip2:port2","ip3:port3"]
nebula.user string - 拥有 NebulaGraph 写权限的用户名。
nebula.pswd string - 用户名对应的密码。密码支持明文或者 RSA 加密后的密码。如果使用 RSA 加密后的密码,需要设置enableRSAprivateKey。如何加密密码,参见上文使用加密密码
nebula.enableRSA bool false 是否使用 RSA 加密的密码。
nebula.privateKey string - RSA 加密的密钥。
nebula.space string - 需要导入数据的的图空间名称。
nebula.ssl.enable.graph bool false 开启 Exchange 与 Graph 服务之间的 SSL 加密传输。当值为true时开启,下方的 SSL 相关参数生效。如果 Exchange 运行在多机集群上,在设置以下 SSL 相关路径时,需要在每台机器的相同路径都存储相应的文件。
nebula.ssl.enable.meta bool false 开启 Exchange 与 Meta 服务之间的 SSL 加密传输。当值为true时开启,下方的 SSL 相关参数生效。如果 Exchange 运行在多机集群上,在设置以下 SSL 相关路径时,需要在每台机器的相同路径都存储相应的文件。
nebula.ssl.sign string ca 签名方式,可选值:ca(CA 签名)或self(自签名)。
nebula.ssl.ca.param.caCrtFilePath string "/path/caCrtFilePath" nebula.ssl.sign的值为ca时生效,用于指定 CA 证书的存储路径。
nebula.ssl.ca.param.crtFilePath string "/path/crtFilePath" nebula.ssl.sign的值为ca时生效,用于指定 CRT 证书的存储路径。
nebula.ssl.ca.param.keyFilePath string "/path/keyFilePath" nebula.ssl.sign的值为ca时生效,用于指定私钥文件的存储路径。
nebula.ssl.self.param.crtFilePath string "/path/crtFilePath" nebula.ssl.sign的值为self时生效,用于指定 CRT 证书的存储路径。
nebula.ssl.self.param.keyFilePath string "/path/keyFilePath" nebula.ssl.sign的值为self时生效,用于指定私钥文件的存储路径。
nebula.ssl.self.param.password string "nebula" nebula.ssl.sign的值为self时生效,用于指定密码文件的存储路径。
nebula.path.local string "/tmp" 导入 SST 文件时需要设置本地 SST 文件路径。
nebula.path.remote string "/sst" 导入 SST 文件时需要设置远端 SST 文件路径。
nebula.path.hdfs.namenode string "hdfs://name_node:9000" 导入 SST 文件时需要设置 HDFS 的 namenode。
nebula.connection.timeout int 3000 Thrift 连接的超时时间,单位为 ms。
nebula.connection.retry int 3 Thrift 连接重试次数。
nebula.execution.retry int 3 nGQL 语句执行重试次数。
nebula.error.max int 32 导入过程中的最大失败次数。当失败次数达到最大值时,提交的 Spark 作业将自动停止。
nebula.error.output string /tmp/errors 输出错误日志的路径。错误日志保存执行失败的 nGQL 语句。
nebula.rate.limit int 1024 导入数据时令牌桶的令牌数量限制。
nebula.rate.timeout int 1000 令牌桶中拿取令牌的超时时间,单位:毫秒。

Note

NebulaGraph 默认不支持无 Tag 的点。如果需要导入无 Tag 的点,需要先在集群内开启支持无 Tag 点,然后在 Exchange 的配置文件内新增nebula.enableTagless参数,值为true。示例如下:

nebula: {
    address:{
      graph:["127.0.0.1:9669"]
      meta:["127.0.0.1:9559"]
    }
    user: root
    pswd: nebula
    space: test
    enableTagless: true
    ......

 }

点配置

对于不同的数据源,点的配置也有所不同,有很多通用参数,也有部分特有参数,配置时需要配置通用参数和不同数据源的特有参数。

通用参数

参数 数据类型 默认值 是否必须 说明
tags.name string - NebulaGraph 中定义的 Tag 名称。
tags.type.source string - 指定数据源。例如csv
tags.type.sink string client 指定导入方式,可选值为clientSST
tags.writeMode string INSERT 对数据的批量操作类型,包括批量导入、更新和删除。可选值为INSERTUPDATEDELETE
tags.deleteEdge string false 进行批量删除操作时是否删除该点关联的出边和入边。tags.writeModeDELETE时该参数生效。
tags.fields list[string] - 属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果 CSV 文件没有表头,用[_c0, _c1, _c2]的形式表示第一列、第二列、第三列,以此类推。
tags.nebula.fields list[string] - NebulaGraph 中定义的属性名称,顺序必须和tags.fields一一对应。例如[_c1, _c2]对应[name, age],表示第二列为属性 name 的值,第三列为属性 age 的值。
tags.vertex.field string - 点 ID 的列。例如 CSV 文件没有表头时,可以用_c0表示第一列的值作为点 ID。
tags.vertex.udf.separator string - 通过自定义规则合并多列,该参数指定连接符。
tags.vertex.udf.oldColNames list - 通过自定义规则合并多列,该参数指定待合并的列名。多个列用英文逗号(,)分隔。
tags.vertex.udf.newColName string - 通过自定义规则合并多列,该参数指定新列的列名。
tags.vertex.prefix string - 为 VID 增加指定的前缀。例如 VID 为12345,增加前缀tag1后为tag1_12345。下划线无法修改。
tags.vertex.policy string - 仅支持取值hash。对 string 类型的 VID 进行哈希化操作。
tags.batch int 256 单批次写入NebulaGraph的最大点数量。
tags.partition int 32 数据写入NebulaGraph时需要创建的分区数。如果tags.partition ≤ 1,在NebulaGraph中创建的分区数和数据源的分区数相同。
tags.filter string - 过滤规则。符合过滤规则的数据会被导入NebulaGraph。格式请参见Dataset

Parquet/JSON/ORC 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.path string - HDFS 中点数据文件的路径。用双引号括起路径,以hdfs://开头。

CSV 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.path string - HDFS 中点数据文件的路径。用双引号括起路径,以hdfs://开头。
tags.separator string , 分隔符。默认值为英文逗号(,)。对于特殊字符,如控制符^A,可以用 ASCII 八进制\001或 UNICODE 编码十六进制\u0001表示,控制符^B,用 ASCII 八进制\002或 UNICODE 编码十六进制\u0002表示,控制符^C,用 ASCII 八进制\003或 UNICODE 编码十六进制\u0003表示。
tags.header bool true 文件是否有表头。

Hive 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.exec string - 查询数据源的语句。例如select name,age from mooc.users

MaxCompute 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.table string - MaxCompute 的表名。
tags.project string - MaxCompute 的项目名。
tags.odpsUrl string - MaxCompute 服务的 odpsUrl。地址可根据阿里云文档查看。
tags.tunnelUrl string - MaxCompute 服务的 tunnelUrl。地址可根据阿里云文档查看。
tags.accessKeyId string - MaxCompute 服务的 accessKeyId。
tags.accessKeySecret string - MaxCompute 服务的 accessKeySecret。
tags.partitionSpec string - MaxCompute 表的分区描述。
tags.numPartitions int 1 MaxCompute 的 Spark 连接器在读取 MaxCompute 数据时使用的分区数。
tags.sentence string - 查询数据源的语句。SQL 语句中的表名和上方 table 的值相同。

Neo4j 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.exec string - 查询数据源的语句。例如match (n:label) return n.neo4j-field-0
tags.server string "bolt://127.0.0.1:7687" Neo4j 服务器地址。
tags.user string - 拥有读取权限的 Neo4j 用户名。
tags.password string - 用户名对应密码。
tags.database string - Neo4j 中保存源数据的数据库名。
tags.check_point_path string /tmp/test 设置保存导入进度信息的目录,用于断点续传。如果未设置,表示不启用断点续传。

MySQL/PostgreSQL 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.host string - MySQL/PostgreSQL 服务器地址。
tags.port string - MySQL/PostgreSQL 服务器端口。
tags.database string - 数据库名称。
tags.table string - 需要作为数据源的表名称。
tags.user string - 拥有读取权限的 MySQL/PostgreSQL 用户名。
tags.password string - 用户名对应密码。
tags.sentence string - 查询数据源的语句。例如"select teamid, name from team order by teamid"

Oracle 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.url string - Oracle 数据库连接地址。
tags.driver string - Oracle 驱动地址。
tags.user string - 拥有读取权限的 Oracle 用户名。
tags.password string - 用户名对应密码。
tags.table string - 需要作为数据源的表名称。
tags.sentence string - 查询数据源的语句。例如"select playerid, name, age from player"

ClickHouse 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.url string - ClickHouse 的 JDBC URL。
tags.user string - 有读取权限的 ClickHouse 用户名。
tags.password string - 用户名对应密码。
tags.numPartition string - ClickHouse 分区数。
tags.sentence string - 查询数据源的语句。

Hbase 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.host string 127.0.0.1 Hbase 服务器地址。
tags.port string 2181 Hbase 服务器端口。
tags.table string - 需要作为数据源的表名称。
tags.columnFamily string - 表所属的列族(column family)。

Pulsar 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.service string "pulsar://localhost:6650" Pulsar 服务器地址。
tags.admin string "http://localhost:8081" 连接 pulsar 的 admin.url。
tags.options.<topic|topics|topicsPattern> string - Pulsar 的选项,可以从topictopicstopicsPattern选择一个进行配置。
tags.interval.seconds int 10 读取消息的间隔。单位:秒。

Kafka 源特有参数

参数 数据类型 默认值 是否必须 说明
tags.service string - Kafka 服务器地址。
tags.topic string - 消息类别。
tags.interval.seconds int 10 读取消息的间隔。单位:秒。
tags.securityProtocol string - Kafka 安全协议。
tags.mechanism string - Kafka SASL 安全认证机制。
tags.kerberos bool false 是否启用 Kerberos 进行安全认证。如果tags.mechanismkerberos,该参数必须设置为true
tags.kerberosServiceName string - Kerberos 服务名称。如果tags.kerberostrue,该参数必填。

生成 SST 时的特有参数

参数 数据类型 默认值 是否必须 说明
tags.path string - 指定需要生成 SST 文件的源文件的路径。
tags.repartitionWithNebula bool true 生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。开启该功能可减少 DOWNLOAD 和 INGEST SST 文件需要的时间。

边配置

对于不同的数据源,边的配置也有所不同,有很多通用参数,也有部分特有参数,配置时需要配置通用参数和不同数据源的特有参数。

边配置的不同数据源特有参数请参见上方点配置内的特有参数介绍,注意区分 tags 和 edges 即可。

通用参数

参数 数据类型 默认值 是否必须 说明
edges.name string - NebulaGraph 中定义的 Edge type 名称。
edges.type.source string - 指定数据源。例如csv
edges.type.sink string client 指定导入方式,可选值为clientSST
edges.writeMode string INSERT 对数据的批量操作类型,包括批量导入、更新和删除。可选值为INSERTUPDATEDELETE
edges.fields list[string] - 属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果 CSV 文件没有表头,用[_c0, _c1, _c2]的形式表示第一列、第二列、第三列,以此类推。
edges.nebula.fields list[string] - NebulaGraph 中定义的属性名称,顺序必须和edges.fields一一对应。例如[_c2, _c3]对应[start_year, end_year],表示第三列为开始年份的值,第四列为结束年份的值。
edges.source.field string - 边的起始点的列。例如_c0表示第一列的值作为边的起始点。
edges.source.prefix string - 为 VID 增加指定的前缀。例如 VID 为12345,增加前缀tag1后为tag1_12345。下划线无法修改。
edges.source.policy string - 仅支持取值hash。对 string 类型的 VID 进行哈希化操作。
edges.target.field string - 边的目的点的列。例如_c1表示第二列的值作为边的目的点。
edges.target.prefix string - 为 VID 增加指定的前缀。例如 VID 为12345,增加前缀tag1后为tag1_12345。下划线无法修改。
edges.target.policy string - 仅支持取值hash。对 string 类型的 VID 进行哈希化操作。
edges.ranking int - rank 值的列。没有指定时,默认所有 rank 值为0
edges.batch int 256 单批次写入NebulaGraph的最大边数量。
edges.partition int 32 数据写入NebulaGraph时需要创建的分区数。如果edges.partition ≤ 1,在NebulaGraph中创建的分区数和数据源的分区数相同。
edges.filter string - 过滤规则。符合过滤规则的数据会被导入NebulaGraph。格式请参见Dataset

生成 SST 时的特有参数

参数 数据类型 默认值 是否必须 说明
edges.path string - 指定需要生成 SST 文件的源文件的路径。
edges.repartitionWithNebula bool true 生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。开启该功能可减少 DOWNLOAD 和 INGEST SST 文件需要的时间。

最后更新: April 26, 2024