数据采集组件支持流式采集、批量采集两种方式,其中:
流式采集任务可将文件、外部Kafka、文件夹、自定义source、oracle数据库、MySQL数据库中的数据,实时采集至大数据云平台的Kafka中。
可以,进入批量采集 > 页面上传文件功能页面,可以将选中的多个文件一次性上传至选定的KS3目录下。可在采集开发页面将将本地文件上传至测试环境,可在运维中心 > 数据采集 > 生产任务 > 任务管理 > 批量采集中,将文件上传至生产环境。
流式采集Agent可以部署在多个客户端,部署启动后,可以在采集任务列表点击Agent列表查看部署Agent的客户端IP、hostname。
修改流式Agent采集的Agent信息后,需要在Agent列表中,选择需要升级的客户端,暂停采集任务后,点击更新按钮,进行更新。
Agent停止后,无法在平台页面上重启采集动作,需要在客户端上通过Agent进行启动。
无论是通过页面上传的文件,还是通过上传工具上传的文件,或者从FTP拉取的文件,都可以通过批量采集任务列表中的【采集明细/拉取明细】功能,查看历史的采集/上传/拉取情况。
文档内容是否对您有帮助?
评价建议不能为空
非常感谢您的反馈,我们会继续努力做到更好!