配置说明
本文介绍使用 NebulaGraph Exchange 时如何修改配置文件 application.conf
。
修改配置文件之前,建议根据数据源复制并修改文件名称,便于区分。例如数据源为 CSV 文件,可以复制为csv_application.conf
。
配置文件的内容主要分为如下几类:
Spark 相关配置
本文只列出部分 Spark 参数,更多参数请参见官方文档。
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
spark.app.name |
string |
- |
否 |
Spark 驱动程序名称。 |
spark.driver.cores |
int |
1 |
否 |
驱动程序使用的 CPU 核数,仅适用于集群模式。 |
spark.driver.maxResultSize |
string |
1G |
否 |
单个 Spark 操作(例如 collect)时,所有分区的序列化结果的总大小限制(字节为单位)。最小值为 1M,0 表示无限制。 |
spark.executor.memory |
string |
1G |
否 |
Spark 驱动程序使用的内存量,可以指定单位,例如 512M、1G。 |
spark.cores.max |
int |
16 |
否 |
当驱动程序以“粗粒度”共享模式在独立部署集群或 Mesos 集群上运行时,跨集群(而非从每台计算机)请求应用程序的最大 CPU 核数。如果未设置,则值为 Spark 的独立集群管理器上的spark.deploy.defaultCores 或 Mesos 上的 infinite(所有可用的内核)。 |
Hive 配置(可选)
如果 Spark 和 Hive 部署在不同集群,才需要配置连接 Hive 的参数,否则请忽略这些配置。
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
hive.warehouse |
string |
- |
是 |
HDFS 中的 warehouse 路径。用双引号括起路径,以hdfs:// 开头。 |
hive.connectionURL |
string |
- |
是 |
JDBC 连接的 URL。例如"jdbc:mysql://127.0.0.1:3306/hive_spark?characterEncoding=UTF-8" 。 |
hive.connectionDriverName |
string |
"com.mysql.jdbc.Driver" |
是 |
驱动名称。 |
hive.connectionUserName |
list[string] |
- |
是 |
连接的用户名。 |
hive.connectionPassword |
list[string] |
- |
是 |
用户名对应的密码。 |
NebulaGraph 相关配置
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
nebula.address.graph |
list[string] |
["127.0.0.1:9669"] |
是 |
所有 Graph 服务的地址,包括 IP 和端口,多个地址用英文逗号(,)分隔。格式为["ip1:port1","ip2:port2","ip3:port3"] 。 |
nebula.address.meta |
list[string] |
["127.0.0.1:9559"] |
是 |
所有 Meta 服务的地址,包括 IP 和端口,多个地址用英文逗号(,)分隔。格式为["ip1:port1","ip2:port2","ip3:port3"] 。 |
nebula.user |
string |
- |
是 |
拥有 NebulaGraph 写权限的用户名。 |
nebula.pswd |
string |
- |
是 |
用户名对应的密码。 |
nebula.space |
string |
- |
是 |
需要导入数据的的图空间名称。 |
nebula.ssl.enable.graph |
bool |
false |
是 |
开启 Exchange 与 Graph 服务之间的 SSL 加密传输。当值为true 时开启,下方的 SSL 相关参数生效。如果 Exchange 运行在多机集群上,在设置以下 SSL 相关路径时,需要在每台机器的相同路径都存储相应的文件。 |
nebula.ssl.enable.meta |
bool |
false |
是 |
开启 Exchange 与 Meta 服务之间的 SSL 加密传输。当值为true 时开启,下方的 SSL 相关参数生效。如果 Exchange 运行在多机集群上,在设置以下 SSL 相关路径时,需要在每台机器的相同路径都存储相应的文件。 |
nebula.ssl.sign |
string |
ca |
是 |
签名方式,可选值:ca (CA 签名)或self (自签名)。 |
nebula.ssl.ca.param.caCrtFilePath |
string |
"/path/caCrtFilePath" |
是 |
nebula.ssl.sign 的值为ca 时生效,用于指定 CA 证书的存储路径。 |
nebula.ssl.ca.param.crtFilePath |
string |
"/path/crtFilePath" |
是 |
nebula.ssl.sign 的值为ca 时生效,用于指定 CRT 证书的存储路径。 |
nebula.ssl.ca.param.keyFilePath |
string |
"/path/keyFilePath" |
是 |
nebula.ssl.sign 的值为ca 时生效,用于指定私钥文件的存储路径。 |
nebula.ssl.self.param.crtFilePath |
string |
"/path/crtFilePath" |
是 |
nebula.ssl.sign 的值为self 时生效,用于指定 CRT 证书的存储路径。 |
nebula.ssl.self.param.keyFilePath |
string |
"/path/keyFilePath" |
是 |
nebula.ssl.sign 的值为self 时生效,用于指定私钥文件的存储路径。 |
nebula.ssl.self.param.password |
string |
"nebula" |
是 |
nebula.ssl.sign 的值为self 时生效,用于指定密码文件的存储路径。 |
nebula.path.local |
string |
"/tmp" |
否 |
导入 SST 文件时需要设置本地 SST 文件路径。 |
nebula.path.remote |
string |
"/sst" |
否 |
导入 SST 文件时需要设置远端 SST 文件路径。 |
nebula.path.hdfs.namenode |
string |
"hdfs://name_node:9000" |
否 |
导入 SST 文件时需要设置 HDFS 的 namenode。 |
nebula.connection.timeout |
int |
3000 |
否 |
Thrift 连接的超时时间,单位为 ms。 |
nebula.connection.retry |
int |
3 |
否 |
Thrift 连接重试次数。 |
nebula.execution.retry |
int |
3 |
否 |
nGQL 语句执行重试次数。 |
nebula.error.max |
int |
32 |
否 |
导入过程中的最大失败次数。当失败次数达到最大值时,提交的 Spark 作业将自动停止。 |
nebula.error.output |
string |
/tmp/errors |
否 |
输出错误日志的路径。错误日志保存执行失败的 nGQL 语句。 |
nebula.rate.limit |
int |
1024 |
否 |
导入数据时令牌桶的令牌数量限制。 |
nebula.rate.timeout |
int |
1000 |
否 |
令牌桶中拿取令牌的超时时间,单位:毫秒。 |
点配置
对于不同的数据源,点的配置也有所不同,有很多通用参数,也有部分特有参数,配置时需要配置通用参数和不同数据源的特有参数。
通用参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.name |
string |
- |
是 |
NebulaGraph 中定义的 Tag 名称。 |
tags.type.source |
string |
- |
是 |
指定数据源。例如csv 。 |
tags.type.sink |
string |
client |
是 |
指定导入方式,可选值为client 和SST 。 |
tags.fields |
list[string] |
- |
是 |
属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果 CSV 文件没有表头,用[_c0, _c1, _c2] 的形式表示第一列、第二列、第三列,以此类推。 |
tags.nebula.fields |
list[string] |
- |
是 |
NebulaGraph 中定义的属性名称,顺序必须和tags.fields 一一对应。例如[_c1, _c2] 对应[name, age] ,表示第二列为属性 name 的值,第三列为属性 age 的值。 |
tags.vertex.field |
string |
- |
是 |
点 ID 的列。例如 CSV 文件没有表头时,可以用_c0 表示第一列的值作为点 ID。 |
tags.batch |
int |
256 |
是 |
单批次写入 NebulaGraph 的最大点数量。 |
tags.partition |
int |
32 |
是 |
Spark 分片数量。 |
Parquet/JSON/ORC 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.path |
string |
- |
是 |
HDFS 中点数据文件的路径。用双引号括起路径,以hdfs:// 开头。 |
CSV 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.path |
string |
- |
是 |
HDFS 中点数据文件的路径。用双引号括起路径,以hdfs:// 开头。 |
tags.separator |
string |
, |
是 |
分隔符。默认值为英文逗号(,)。 |
tags.header |
bool |
true |
是 |
文件是否有表头。 |
Hive 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.exec |
string |
- |
是 |
查询数据源的语句。例如select name,age from mooc.users 。 |
MaxCompute 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.table |
string |
- |
是 |
MaxCompute 的表名。 |
tags.project |
string |
- |
是 |
MaxCompute 的项目名。 |
tags.odpsUrl |
string |
- |
是 |
MaxCompute 服务的 odpsUrl。地址可根据阿里云文档查看。 |
tags.tunnelUrl |
string |
- |
是 |
MaxCompute 服务的 tunnelUrl。地址可根据阿里云文档查看。 |
tags.accessKeyId |
string |
- |
是 |
MaxCompute 服务的 accessKeyId。 |
tags.accessKeySecret |
string |
- |
是 |
MaxCompute 服务的 accessKeySecret。 |
tags.partitionSpec |
string |
- |
否 |
MaxCompute 表的分区描述。 |
tags.numPartitions |
int |
1 |
否 |
MaxCompute 的 Spark 连接器在读取 MaxCompute 数据时使用的分区数。 |
tags.sentence |
string |
- |
否 |
查询数据源的语句。SQL 语句中的表名和上方 table 的值相同。 |
Neo4j 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.exec |
string |
- |
是 |
查询数据源的语句。例如match (n:label) return n.neo4j-field-0 。 |
tags.server |
string |
"bolt://127.0.0.1:7687" |
是 |
Neo4j 服务器地址。 |
tags.user |
string |
- |
是 |
拥有读取权限的 Neo4j 用户名。 |
tags.password |
string |
- |
是 |
用户名对应密码。 |
tags.database |
string |
- |
是 |
Neo4j 中保存源数据的数据库名。 |
tags.check_point_path |
string |
/tmp/test |
否 |
设置保存导入进度信息的目录,用于断点续传。如果未设置,表示不启用断点续传。 |
MySQL/PostgreSQL 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.host |
string |
- |
是 |
MySQL/PostgreSQL 服务器地址。 |
tags.port |
string |
- |
是 |
MySQL/PostgreSQL 服务器端口。 |
tags.database |
string |
- |
是 |
数据库名称。 |
tags.table |
string |
- |
是 |
需要作为数据源的表名称。 |
tags.user |
string |
- |
是 |
拥有读取权限的 MySQL/PostgreSQL 用户名。 |
tags.password |
string |
- |
是 |
用户名对应密码。 |
tags.sentence |
string |
- |
是 |
查询数据源的语句。例如"select teamid, name from team order by teamid" 。 |
ClickHouse 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.url |
string |
- |
是 |
ClickHouse 的 JDBC URL。 |
tags.user |
string |
- |
是 |
有读取权限的 ClickHouse 用户名。 |
tags.password |
string |
- |
是 |
用户名对应密码。 |
tags.numPartition |
string |
- |
是 |
ClickHouse 分区数。 |
tags.sentence |
string |
- |
是 |
查询数据源的语句。 |
Hbase 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.host |
string |
127.0.0.1 |
是 |
Hbase 服务器地址。 |
tags.port |
string |
2181 |
是 |
Hbase 服务器端口。 |
tags.table |
string |
- |
是 |
需要作为数据源的表名称。 |
tags.columnFamily |
string |
- |
是 |
表所属的列族(column family)。 |
Pulsar 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.service |
string |
"pulsar://localhost:6650" |
是 |
Pulsar 服务器地址。 |
tags.admin |
string |
"http://localhost:8081" |
是 |
连接 pulsar 的 admin.url。 |
tags.options.<topic\|topics\| topicsPattern> |
string |
- |
是 |
Pulsar 的选项,可以从topic 、topics 和topicsPattern 选择一个进行配置。 |
tags.interval.seconds |
int |
10 |
是 |
读取消息的间隔。单位:秒。 |
Kafka 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.service |
string |
- |
是 |
Kafka 服务器地址。 |
tags.topic |
string |
- |
是 |
消息类别。 |
tags.interval.seconds |
int |
10 |
是 |
读取消息的间隔。单位:秒。 |
生成 SST 时的特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
tags.path |
string |
- |
是 |
指定需要生成 SST 文件的源文件的路径。 |
tags.repartitionWithNebula |
bool |
false |
否 |
生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。开启该功能可减少 DOWNLOAD 和 INGEST SST 文件需要的时间。当图空间的分片数量(partition_num)大于1 时,请设置为true ,否则可能会导致生成的数据文件中只包含无 Tag 的点。 |
边配置
对于不同的数据源,边的配置也有所不同,有很多通用参数,也有部分特有参数,配置时需要配置通用参数和不同数据源的特有参数。
边配置的不同数据源特有参数请参见上方点配置内的特有参数介绍,注意区分 tags 和 edges 即可。
通用参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
edges.name |
string |
- |
是 |
NebulaGraph 中定义的 Edge type 名称。 |
edges.type.source |
string |
- |
是 |
指定数据源。例如csv 。 |
edges.type.sink |
string |
client |
是 |
指定导入方式,可选值为client 和SST 。 |
edges.fields |
list[string] |
- |
是 |
属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果 CSV 文件没有表头,用[_c0, _c1, _c2] 的形式表示第一列、第二列、第三列,以此类推。 |
edges.nebula.fields |
list[string] |
- |
是 |
NebulaGraph 中定义的属性名称,顺序必须和edges.fields 一一对应。例如[_c2, _c3] 对应[start_year, end_year] ,表示第三列为开始年份的值,第四列为结束年份的值。 |
edges.source.field |
string |
- |
是 |
边的起始点的列。例如_c0 表示第一列的值作为边的起始点。 |
edges.target.field |
string |
- |
是 |
边的目的点的列。例如_c1 表示第二列的值作为边的目的点。 |
edges.ranking |
int |
- |
否 |
rank 值的列。没有指定时,默认所有 rank 值为0 。 |
edges.batch |
int |
256 |
是 |
单批次写入 NebulaGraph 的最大边数量。 |
edges.partition |
int |
32 |
是 |
Spark 分片数量。 |
生成 SST 时的特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
edges.path |
string |
- |
是 |
指定需要生成 SST 文件的源文件的路径。 |
edges.repartitionWithNebula |
bool |
false |
否 |
生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。开启该功能可减少 DOWNLOAD 和 INGEST SST 文件需要的时间。 |
NebulaGraph 源特有参数
参数 |
数据类型 |
默认值 |
是否必须 |
说明 |
edges.path |
string |
"hdfs://namenode:9000/path/edge" |
是 |
指定 CSV 文件的存储路径。设置的路径必须不存在,Exchange 会自动创建该路径。存储到 HDFS 服务器时路径格式同默认值,例如"hdfs://192.168.8.177:9000/edge/follow" 。存储到本地时路径格式为"file:///path/edge" ,例如"file:///home/nebula/edge/follow" 。有多个 Edge 时必须为每个 Edge 设置不同的目录。 |
edges.noField |
bool |
false |
是 |
当值为true 时,仅导出起始点 VID、目的点 VID 和 Rank,而不导出属性数据;当值为false 时导出起始点 VID、目的点 VID、Rank 和属性数据。 |
edges.return.fields |
list |
[] |
是 |
指定要导出的属性。例如,要导出start_year 和end_year 属性,需将参数值设置为["start_year","end_year"] 。该参数仅在edges.noField 的值为false 时生效。 |
最后更新:
February 3, 2023