网站建设费用包括哪些方面,做评测好的视频网站,wordpress运行速度,化妆品包装设计1、日志采集框架Flume 1.1 Flume介绍 Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。 Flume可以采集文件#xff0c;socket数据包等各种形式源数据#xff0c;又可以将采集到的数据输出到HDFS、hbase、hive、 kafka等众多…1、日志采集框架Flume 1.1 Flume介绍 Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。 Flume可以采集文件socket数据包等各种形式源数据又可以将采集到的数据输出到HDFS、hbase、hive、 kafka等众多外部存储系统中 一般的采集需求通过对flume的简单配置即可实现 Flume针对特殊场景也具备良好的自定义扩展能力因此flume可以适用于大部分的日常数据采集场景 1.2 运行机制 1、 Flume分布式系统中最核心的角色是agentflume采集系统就是由一个个agent所连接起来形成 2、 每一个agent相当于一个数据传递员Source 到 Channel 到 Sink之间传递数据的形式是Event事件 Event事件是一个数据流单元。 内部有三个组件 a) Source采集源用于跟数据源对接以获取数据 b) Sink下沉地采集数据的传送目的用于往下一级agent传递数据或者往最终存储系统传递数据 c) Channelangent内部的数据传输通道用于从source将数据传递到sink 1.3 采集案例 1、采集目录到HDFS 采集需求某服务器的某特定目录下会不断产生新的文件每当有新文件出现就需要把文件采集到HDFS中去 根据需求首先定义以下3大要素 1) 采集源即source——监控文件目录 : spooldir 2) 下沉目标即sink——HDFS文件系统 : hdfs sink 3) source和sink之间的传递通道——channel可用file channel 也可以用内存channel 配置文件编写 # 配置source组件 agent1.sources.source1.type spooldir agent1.sources.source1.spoolDir /home/hadoop/logs/ # 配置sink组件 agent1.sinks.sink1.type hdfs agent1.sinks.sink1.hdfs.path hdfs://hdp-node-01:9000/weblog/flume-collection/%y-%m-%d/%H-%M agent1.sinks.sink1.hdfs.filePrefix access_log Channel参数解释 capacity默认该通道中最大的可以存储的event数量 trasactionCapacity每次最大可以从source中拿到或者送到sink中的event数量 keep-aliveevent添加到通道中或者移出的允许时间 2、采集文件到HDFS 采集需求比如业务系统使用log4j生成的日志日志内容不断增加需要把追加到日志文件中的数据实时采集到hdfs 根据需求首先定义以下3大要素 1 采集源即source——监控文件内容更新 : exec ‘tail -F file’ 2 下沉目标即sink——HDFS文件系统 : hdfs sink 3 Source和sink之间的传递通道——channel可用file channel 也可以用 内存channel # Describe/configure tail -F source1 agent1.sources.source1.type exec agent1.sources.source1.command tail -F /home/hadoop/logs/access_log agent1.sources.source1.channels channel1 # Describe sink1 agent1.sinks.sink1.type hdfs #a1.sinks.k1.channel c1 agent1.sinks.sink1.hdfs.path hdfs://hdp-node-01:9000/weblog/flume-collection/%y-%m-%d/%H-%M agent1.sinks.sink1.hdfs.filePrefix access_log 转载于:https://www.cnblogs.com/atomicbomb/p/9904867.html