Kafka 数据源集成
⚠️注意:该功能为 Crawlab 专业版 专属功能,如需体验此功能,请访问 演示网站。
以下为操作步骤:
- 在 “设置” -> “数据源” 中创建新的数据源,选择 Kafka,输入目标数据库的 Host、Port、Topic、用户名、密码等信息;
- 在 “爬虫详情“ 页面,选择之前创建的数据源;
- 保证爬虫的脚本是用 Crawlab SDK 的
save_item
保存结果数据; - 运行爬虫任务;
- 在 “爬虫详情” -> “结果“ 中查看结果数据。
⚠️注意:该功能为 Crawlab 专业版 专属功能,如需体验此功能,请访问 演示网站。
以下为操作步骤:
save_item
保存结果数据;本文档使用 BookStack 构建