跳转至

NebulaGraph Analytics

NebulaGraph Analytics 是一款高性能图计算框架工具,支持对 NebulaGraph 数据库中的数据执行图分析。

前提条件

  • 已部署 2.2.x 或以上版本的 HDFS
  • 已安装 1.8 版本的 JDK。

适用场景

支持将数据源为 NebulaGraph 集群、HDFS 上的 CSV 文件或本地 CSV 文件中的数据导入 NebulaGraph Analytics,并将图计算结果输出至 NebulaGraph 集群、HDFS 上的 CSV 文件或本地 CSV 文件。

使用限制

输入和输出均为 NebulaGraph 集群时,图计算结果只能输出到数据源所在的图空间。

版本兼容性

NebulaGraph Analytics 版本和 NebulaGraph 内核的版本对应关系如下。

NebulaGraph 版本 NebulaGraph Analytics 版本
3.3.0 3.3.0
3.1.0 ~ 3.2.x 3.2.0
3.0.x 1.0.x
2.6.x 0.9.0

支持算法

NebulaGraph Analytics 支持的图计算算法如下。

算法名 说明 分类
APSP 全图最短路径 路径
SSSP 单源最短路径 路径
BFS 广度优先遍历 路径
ShortestPath 最短路径 路径
PageRank 页面排序 节点重要度
KCore K核 节点重要度
DegreeCentrality 度中心性 节点重要度
DegreeWithTime 基于边的时间范围统计邻居 节点重要度
BetweennessCentrality 中介中心性 节点重要度
ClosenessCentrality 紧密中心性 节点重要度
TriangleCount 三角计数 图特征
Node2Vec 图神经网络 图特征
Tree_stat 树结构统计 图特征
HyperANF 图平均距离估算 图特征
LPA 标签传播 社区发现
HANP 标签传播进阶版 社区发现
WCC 弱联通分量 社区发现
LOUVAIN 鲁汶 社区发现
InfoMap 社区分类 社区发现
Clustering Coefficient 聚集系数 聚类
Jaccard 杰卡德相似度 相似度

安装 NebulaGraph Analytics

  1. 安装 NebulaGraph Analytics。

    $ sudo rpm -ivh <analytics_package_name> --prefix <install_path>
    $ sudo chown <user>:<user> -R <install path>
    

    例如:

    $ sudo rpm -ivh nebula-analytics-3.3.0-centos.x86_64.rpm --prefix=/home/vesoft/nebula-analytics
    $ sudo chown vesoft:vesoft -R /home/vesoft/nebula-analytics
    
  2. 配置set_env.sh文件,路径为nebula-analytics/scripts/set_env.sh。配置正确的 Hadoop 路径和 JDK 路径。如果有多台机器,请确保路径一致。

    export HADOOP_HOME=<hadoop_path>
    export JAVA_HOME=<java_path>
    
  3. 拷贝 License 至所有机器的 NebulaGraph Analytics 安装路径的scripts目录内。

使用方法

安装完成后,用户可以设置不同算法的参数,然后执行脚本,即可获得算法的结果,并导出为指定格式。

  1. 选择 NebulaGraph Analytics 集群的任一节点,进入目录scripts

    $ cd scripts
    
  2. 确认数据源和输出路径。配置方法如下:

    • 数据源为 NebulaGraph 集群

      1. 修改配置文件nebula.conf,设置 NebulaGraph 集群相关信息。

        # 连接 NebulaGraph 时的重试次数。
        --retry=3  
        # 要读取或写入的图空间名称。
        --space=baskeyballplayer  
        
        # 读取 NebulaGraph 设置
        # NebulaGraph 的 metad leader服务地址,例如为192.168.8.101。
        --meta_server_addrs=192.168.8.101:9559
        # 要读取的边的名称。
        --edges=LIKES  
        # 要读取的作为边的权重属性的名称。可以是属性名,也可以是 _rank。
        #--edge_data_fields 
        # 每次扫描读取的行数。
        --read_batch_size=10000  
        
        # 写回 NebulaGraph 设置
        # NebulaGraph 的 graphd 服务地址。
        --graph_server_addrs=192.168.8.100:9669  
        # NebulaGraph 的登录用户名。
        --user=root  
        # NebulaGraph 的登录密码。
        --password=nebula 
        # 写回 NebulaGraph 时采用的模式: insert 和 update。
        --mode=insert  
        # 写回到 NebulaGraph 的 Tag 名称。
        --tag=pagerank  
        # 写回到 NebulaGraph 的 Tag 对应的属性名称。
        --prop=pr  
        # 写回到 NebulaGraph 的 Tag 对应的属性的类型。
        --type=double 
        # 写回时,每次写入的行数。
        --write_batch_size=1000 
        # 写回失败的数据所存储的文件。
        --err_file=/home/xxx/analytics/err.txt 
        
      2. 修改需要使用的算法脚本,例如run_pagerank.sh,设置相关参数。

        # 集群所有机器所运行的进程数之和,推荐每台机器为 1 或者 NUMA 架构的 node 数。
        WNUM=3 
        # 每个进程的线程数,推荐最大设置为机器的硬件线程数。
        WCORES=4  
        # 数据源路径
        # 可以通过文件 nebula.conf 设置从 NebulaGraph 读取:
        INPUT=${INPUT:="nebula:$PROJECT/scripts/nebula.conf"}  
        # 也可以通过本地或 HDFS 上的 CSV 文件读取:
        # #INPUT=${INPUT:="$PROJECT/data/graph/v100_e2150_ua_c3.csv"}
        
        # 图计算结果输出路径
        # 可以输出至 NebulaGraph 集群,如果数据源也为 NebulaGraph,结果会输出至 nebula.conf 指定的图空间。
        OUTPUT=${OUTPUT:="nebula:$PROJECT/scripts/nebula.conf"}
        # 也可以输出至本地或 HDFS 上的 CSV 文件:
        # OUTPUT=${OUTPUT:='hdfs://192.168.8.100:9000/_test/output'}
        
        # true 为有向图,false 为无向图。
        IS_DIRECTED=${IS_DIRECTED:=true}
        # 是否进行 ID 编码
        NEED_ENCODE=${NEED_ENCODE:=true}
        # 数据源的点 ID 类型,例如:string、int32、int64。
        VTYPE=${VTYPE:=int32}
        # 编码类型。distributed 为分布式点ID编码,single 为单机点 ID 编码。
        ENCODER=${ENCODER:="distributed"}
        # PageRank 算法的参数。不同算法的参数不同。
        EPS=${EPS:=0.0001}
        DAMPING=${DAMPING:=0.85}
        # 迭代次数
        ITERATIONS=${ITERATIONS:=100}
        
    • 数据源为本地或 HDFS 上的 CSV 文件

      修改需要使用的算法脚本,例如run_pagerank.sh,设置相关参数。

      # 集群所有机器所运行的进程数之和,推荐每台机器为 1 或者 NUMA 架构的 node 数。
      WNUM=3 
      # 每个进程的线程数,推荐最大设置为机器的硬件线程数。
      WCORES=4  
      # 数据源路径
      # 可以通过文件 nebula.conf 设置从 NebulaGraph 读取:
      # INPUT=${INPUT:="nebula:$PROJECT/scripts/nebula.conf"}  
      # 也可以通过本地或 HDFS 上的 CSV 文件读取:
      INPUT=${INPUT:="$PROJECT/data/graph/v100_e2150_ua_c3.csv"}
      
      # 图计算结果输出路径
      # 可以输出至 NebulaGraph 集群,如果数据源也为 NebulaGraph,结果会输出至 nebula.conf 指定的图空间。
      # OUTPUT=${OUTPUT:="nebula:$PROJECT/scripts/nebula.conf"}
      # 也可以输出至本地或 HDFS 上的 CSV 文件:
      OUTPUT=${OUTPUT:='hdfs://192.168.8.100:9000/_test/output'}
      
      # true 为有向图,false 为无向图。
      IS_DIRECTED=${IS_DIRECTED:=true}
      # 是否进行 ID 编码
      NEED_ENCODE=${NEED_ENCODE:=true}
      # 数据源的点 ID 类型,例如:string、int32、int64。
      VTYPE=${VTYPE:=int32}
      # 编码类型。distributed 为分布式点ID编码,single 为单机点 ID 编码。
      ENCODER=${ENCODER:="distributed"}
      # PageRank 算法的参数。不同算法的参数不同。
      EPS=${EPS:=0.0001}
      DAMPING=${DAMPING:=0.85}
      # 迭代次数
      ITERATIONS=${ITERATIONS:=100}
      
  3. 修改配置文件cluster,设置执行算法的 NebulaGraph Analytics 集群节点和任务分配权重。

    # NebulaGraph Analytics 集群节点 IP 地址:任务分配权重
    192.168.8.200:1
    192.168.8.201:1
    192.168.8.202:1
    
  4. 执行算法脚本。例如:

    ./run_pagerank.sh
    
  5. 在输出路径查看计算结果。

    • 输出至 NebulaGraph 集群,请根据nebula.conf的设置查看计算结果。
    • 输出至 HDFS 上的 CSV 文件或本地 CSV 文件,请根据图计算脚本内的OUTPUT设置查看计算结果,计算结果为.gz格式的压缩文件。

最后更新: December 2, 2022