导入 SST 文件Graph
Nebula Exchange 能将不同来源的数据转换成 SST 文件后再导入 NebulaGraph 数据库中。本文描述 Exchange 将源数据转换为 SST 文件并导入 NebulaGraph 的实现原理,并提供示例说明如何修改配置文件完成 SST 文件导入操作。
说明:仅 Linux 系统支持导入 SST 文件。
实现方法Graph
NebulaGraph 底层使用 RocksDB 作为键值型存储引擎。RocksDB 是基于磁盘的存储引擎,数据以 Sorted String Table(SSTable)格式存放。SSTable 是一个内部包含了任意长度、排好序的键值对 <key,value> 集合的文件,用于高效地存储大量的键值型数据。
RocksDB 提供了一系列 API 用于创建及导入 SST 文件,有助于您快速导入海量数据。
处理 SST 文件的整个过程主要由 Exchange 的 Reader、sstProcessor 和 sstWriter 完成。整个数据处理过程如下所示:
-
Exchange 的 Reader 从数据源中读取数据。
-
sstProcessor 按照 NebulaGraph 要求的格式生成 SST 文件,存储到本地,并上传到 HDFS。SST 文件主要包含点和边两类数据,其中,
- 表示点的键包括:分区信息、点 ID(VID)、标签类型信息和标签版本信息。
- 表示边的键包括:分区信息、起点和终点 ID(
rsc_vid
和dst_vid
)、边类型信息、边排序信息和边版本信息。 - 对应的值主要包含各个属性键值对序列化信息。
-
SstFileWriter 创建 SST 文件:Exchange 会创建一个 SstFileWriter 对象,然后打开一个文件并插入数据。生成 SST 文件时,行数据必须严格按照增序进行写入。
-
生成 SST 文件之后,RocksDB 通过
IngestExternalFile()
方法将 SST 文件导入到 NebulaGraph 之中。例如:IngestExternalFileOptions ifo; // Ingest the 2 passed SST files into the DB Status s = db_->IngestExternalFile({"/home/usr/file1.sst", "/home/usr/file2.sst"}, ifo); if (!s.ok()) { printf("Error while adding file %s and %s, Error %s\n", file_path1.c_str(), file_path2.c_str(), s.ToString().c_str()); return 1; }
调用
IngestExternalFile()
方法时,RocksDB 默认会将文件拷贝到数据目录,并且阻塞 RocksDB 写入操作。如果 SST 文件中的键范围覆盖了 Memtable 键的范围,则将 Memtable 落盘(flush)到硬盘。将 SST 文件放置在 LSM 树最优位置后,为文件分配一个全局序列号,并打开写操作。
使用示例Graph
不同来源的数据,导入 NebulaGraph 的操作与客户端形式导入操作基本相同,但是有以下差异:
- 环境里必须部署 HDFS。
- 在配置文件中,必须做以下修改:
- 源数据的标签和边类型配置:
tags.type.sink
和edges.type.sink
必须配置为sst
。 -
NebulaGraph 相关配置里,需要添加 NebulaGraph 数据库 Meta 服务的 IP 地址和端口,并添加 SST 文件在本地和 HDFS 的存储路径。
# NebulaGraph 相关配置 nebula: { address: { # 添加 NebulaGraph 数据库 Graph 服务的 IP 地址和端口 graph: ["127.0.0.1:3699"] # 添加 NebulaGraph 数据库 Meta 服务的 IP 地址和端口 meta:["127.0.0.1:45500"] } user: user pswd: password space: test path:{ # 指定 SST 文件保存到本地的路径 local:/Users/example/path # 指定上传 SST 文件的 HDFS 路径 remote:/example/ } connection { timeout: 3000 retry: 3 } execution { retry: 3 } error: { max: 32 output: /tmp/errors } rate: { limit: 64M timeout: 1000 } }
- 源数据的标签和边类型配置:
详细描述请参考不同数据源的操作示例:
- Graph
- Graph
- Graph
- Graph
- 导入 HBase 数据[doc_TODO]
- 导入 HIVE 数据[doc_TODO]
- 导入 Kafka 数据[doc_TODO]
- 导入 MySQL 数据[doc_TODO]