跳转至

导入命令参数

完成配置文件修改后,可以运行以下命令将指定来源的数据导入NebulaGraph数据库。

  • 首次导入

    <spark_install_path>/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange <nebula-exchange-2.x.y.jar_path> -c <application.conf_path> 
    
  • 导入 reload 文件

    如果首次导入时有一些数据导入失败,会将导入失败的数据存入 reload 文件,可以用参数-r尝试导入 reload 文件。

    <spark_install_path>/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange <nebula-exchange-2.x.y.jar_path> -c <application.conf_path> -r "<reload_file_path>" 
    

Note

JAR 文件版本号以实际编译得到的 JAR 文件名称为准。

Faq

如果使用 yarn-cluster 模式提交任务,请参考如下示例,尤其是示例中的两个--conf

$SPARK_HOME/bin/spark-submit     --master yarn-cluster \
--class com.vesoft.nebula.exchange.Exchange \
--files application.conf \
--conf spark.driver.extraClassPath=./ \
--conf spark.executor.extraClassPath=./ \
nebula-exchange-3.6.0.jar \
-c application.conf

下表列出了命令的相关参数。

参数 是否必需 默认值 说明
--class  指定驱动的主类。
--master  指定 Spark 集群中 master 进程的 URL。详情请参见 master-urls
-c  / --config  指定配置文件的路径。
-h  / --hive  false 添加这个参数表示支持从 Hive 中导入数据。
-D  / --dry  false 添加这个参数表示检查配置文件的格式是否符合要求,但不会校验tagsedges的配置项是否正确。正式导入数据时不能添加这个参数。
-r / --reload 指定需要重新加载的 reload 文件路径。

更多 Spark 的参数配置说明请参见 Spark Configuration


最后更新: October 17, 2023