导入Kafka数据
本文示例在MacOS下完成,以下是相关的环境配置信息:
硬件规格:
- CPU:1.7 GHz Quad-Core Intel Core i7
- 内存:16 GB
Spark:2.4.7,单机版
Nebula Graph:2.5.1。使用Docker Compose部署。
开始导入数据之前,用户需要确认以下信息:
已经安装Spark。
了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。
已经安装并开启Kafka服务。
分析数据,按以下步骤在Nebula Graph中创建Schema:
在Nebula Graph中创建一个图空间basketballplayer,并创建一个Schema,如下所示。
更多信息,请参见。
Note
编译Exchange后,复制文件设置Kafka数据源相关的配置。在本示例中,复制的文件名为kafka_application.conf
。各个配置项的详细说明请参见配置说明。
运行如下命令将Kafka数据导入到Nebula Graph中。关于参数的说明,请参见。
Note
JAR包有两种获取方式:自行编译或者从maven仓库下载。
示例:
用户可以在返回信息中搜索batchSuccess.<tag_name/edge_name>
,确认成功的数量。例如batchSuccess.follow: 300
。
用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如:
用户也可以使用命令查看统计数据。