iLogtail 与Filebeat 性能对比

2022 年 1 月 24 日 阿里技术


一  前言


前段时间, iLogtail [1]阿里千万实例可观测采集器开源,其中介绍了iLogtail采集性能可以达到单核100MB/s,相比开源采集Agent有5-10倍性能优势。很多小伙伴好奇iLogtail具体的性能数据和资源消耗如何,本文将针对目前业界使用度较高且性能相对较优的Agent FileBeat进行对比,测试这两个Agent在不同压力场景下的表现如何。

二  测试试验描述


随着Kubernetes 普及,Kubernetes 下的日志收集的需求也日益常态化,因此下文将分别进行容器标准输出流采集与容器内静态文件采集对比试验(使用静态文件采集的小伙伴可以参考容器内静态文件采集对比试验, iLogtail 纯静态文件采集会略优于试验2容器内文件静态采集),试验项具体如下:

  • 实验1:恒定采集配置4,Filebeat & iLogtail 在原始日志产生速率 1M/s、2M/s、 3M/s 下的标准输出流采集性能对比。

  • 实验2:恒定采集配置4,Filebeat & iLogtail 在原始日志产生速率 1M/s、2M/s、 3M/s 下的容器内文件采集性能对比。

而在真实的生产环境中,日志采集组件的可运维性也至关重要,为运维与后期升级便利,相比于Sidecar模式,K8s下采用Daemonset模式部署采集组件更加常见。但由于Daemonset 同时将整个集群的采集配置下发到各个采集节点的特性,单个采集节点正在工作的配置必定小于全量采集配置数目,因此我们还会进行以下2部分试验,验证采集配置的膨胀是否会影响采集器的工作效率:

  • 实验3:恒定输入速率3M/s,Filebeat & iLogtail 在采集配置50、100、500、1000 份下的标准输出流采集性能对比。

  • 实验4:恒定输入速率3M/s,Filebeat & iLogtail 在采集配置50、100、500、1000 份下的容器内文件采集性能对比。

 

最后会进行iLogtail 的大流量压测,具体如下:

  • 实验5:iLogtail 在 5M/s、10M/s、10M/s、40M/s 下的标准输出流采集性能。

  • 实验6:iLogtail 在 5M/s、10M/s、10M/s、40M/s 下的容器内文件采集性能。


三  试验环境


所有对比实验配置存储于[2], 感兴趣的同学可以自己动手进行整个对比测试实验, 以下部分分别描述了不同采集模式的具体配置,如果只关心采集对比结果,可以直接跳过此部分继续阅读。


1  环境


运行环境:阿里云ACK Pro 版本
节点配置:ecs.g6.xlarge (4 vCPU 16GB) 磁盘ESSD
底层容器:Containerd
iLogtail版本:1.0.28
FileBeat版本:v7.16.2


2  数据源


对于数据源,我们首先去除因正则解析或多行拼接能力带来的差异,仅仅以最基本的单行采集进行对比,数据产生源模拟产生nginx访问日志,单条日志大小为283B,以下配置描述了1000条/s 速率下的输入源:

    
    
      
apiVersion: batch/v1kind: Jobmetadata:  name: nginx-log-demo-0  namespace: defaultspec:  template:    metadata:      name: nginx-log-demo-0    spec:      restartPolicy: Never      containers:        - name: nginx-log-demo-0          image: registry.cn-hangzhou.aliyuncs.com/log-service/docker-log-test:latest          command: ["/bin/mock_log"]          args:  ["--log-type=nginx",  "--path=/var/log/medlinker/access.log", "--total-count=1000000000", "--log-file-size=1000000000", "--log-file-count=2", "--logs-per-sec=1000"]          volumeMounts:            - name: path              mountPath: /var/log/medlinker              subPath: nginx-log-demo-0          resources:            limits:              memory: 200Mi            requests:              cpu: 10m              memory: 10Mi      volumes:      - name: path        hostPath:          path: /testlog          type: DirectoryOrCreate      nodeSelector:        kubernetes.io/hostname: cn-beijing.192.168.0.140

3  Filebeat 标准输出流采集配置


Filebeat 原生支持容器文件采集,通过add_kubernetes_metadata组件增加kubernetes 元信息,为避免输出组件导致的性能差异,通过drop_event插件丢弃数据,避免输出,filebeat测试配置如下(harvester_buffer_size 调整设置为512K,filebeat.registry.flush: 30s,queue.mem 参数适当扩大,增加吞吐):

    
    
      
  filebeat.yml: |-    filebeat.registry.flush: 30s    processors:      - add_kubernetes_metadata:          host: ${NODE_NAME}          matchers:          - logs_path:              logs_path: "/var/log/containers/"      - drop_event:          when:            equals:              input.type: container    output.console:      pretty: false    queue:      mem:        events: 4096        flush.min_events: 2048        flush.timeout: 1s    max_procs: 4    filebeat.inputs:    - type: container      harvester_buffer_size: 524288      paths:        - /var/log/containers/nginx-log-demo-0-*.log

4  Filebeat 容器文件采集配置


Filebeat 原生不支持容器内文件采集,因此需要人工将日志打印路径挂载于宿主机HostPath,这里我们使用 subPath以及DirectoryOrCreate功能进行服务打印路径的分离, 以下为模拟不同服务日志打印路径独立情况。


filebeat 使用基础日志读取功能读取/testlog路径下的日志,为避免输出组件导致的性能差异,通过drop_event插件丢弃数据,避免输出,测试配置如下(harvester_buffer_size 调整设置为512K,filebeat.registry.flush: 30s,queue.mem 参数适当扩大,增加吞吐):

    
    
      
  filebeat.yml: |-    filebeat.registry.flush: 30s    output.console:      pretty: false    queue:      mem:        events: 4096        flush.min_events: 2048        flush.timeout: 1s    max_procs: 4
filebeat.inputs: - type: log harvester_buffer_size: 524288 paths: - /testlog/nginx-log-demo-0/*.log processors: - drop_event: when: equals: log.file.path: /testlog/nginx-log-demo-0/access.log

5  iLogtail 标准输出流采集配置


iLogtail 原生同样支持标准输出流采集,service_docker_stdout 组件已经会提取kubernetes 元信息,为避免输出组件导致的性能差异,通过processor_filter_regex,进行所有日志的过滤,测试配置如下:

    
    
      
{    "inputs":[        {            "detail":{                "ExcludeLabel":{
}, "IncludeLabel":{ "io.kubernetes.container.name":"nginx-log-demo-0" } }, "type":"service_docker_stdout" } ], "processors":[ { "type":"processor_filter_regex", "detail":{ "Exclude":{ "_namespace_":"default" } } } ]}

6  iLogtail 容器文件采集配置


iLogtail 原生支持容器内文件采集,但由于文件内采集元信息存在于tag标签,暂无过滤插件,为避免输出组件导致的性能差异,因此我们使用空输出插件进行输出,测试配置如下:

    
    
      
{    "metrics":{        "c0":{            "advanced":{                "k8s":{                    "IncludeLabel":{                        "io.kubernetes.container.name":"nginx-log-demo-0"                    }                }            },           ......            "plugin":{                "processors":[                    {                        "type":"processor_default"                    }                ],                "flushers":[                    {                        "type":"flusher_statistics",                        "detail":{                            "RateIntervalMs":1000000                        }                    }                ]            },            "local_storage":true,            "log_begin_reg":".*",            "log_path":"/var/log/medlinker",            ......        }    }}

四  Filebeat与iLogtail对比测试


Filebeat 与 iLogtail 的对比项主要包含以下内容:标准输出流采集性能、容器内文件采集性能、标准输出流多用户配置性能、容器内文件多用户配置性能以及大流量采集性能。

1  标准输出流采集性能对比


输入数据源: 283B/s, 底层容器contianerd,标准输出流膨胀后为328B, 共4个输入源:

  • 1M/s 输入日志3700条/s, 
  • 2M/s 输入日志7400条/s, 
  • 3M/s 输入日志条11100条/s。

以下显示了标准输出流不同采集的性能对比,可以看到iLogtail相比于Filebeat 有十倍级的性能优势(CPU的百分比为单核的百分比):


FIlebeat
ILogtail
1M/s
20%
2%
2M/s
37%
3.3%
3M/s
52%
4.1%

以下显示了标准输出流不同采集的内存对比,可以看到logtail 和filebeat 整体内存相差不大,没有出现随采集流量上升内存暴涨情况:


FIlebeat
ILogtail
1M/s
136M
90M
2M/s
134M
90M
3M/s
144M
90M

 

 


2  容器内文件采集性能对比


输入数据源: 283B/s, 共4个输入源:

  • 1M/s 输入日志3700条/s, 
  • 2M/s 输入日志7400条/s, 
  • 3M/s 输入日志条11100条/s。

以下显示了容器内文件不同采集的性能对比,Filebeat 容器内文件由于与container 采集共用采集组件,并省略了Kubernets meta 相关组件,所以相比于标准输出流采集有大性能提升,iLogtail 的容器内文件采集采用Polling + inotify机制,同样相比于容器标准输出流采集有性能提升, 但可以看到iLogtail相比于Filebeat 有5倍级的性能优势(CPU的百分比为单核的百分比):


FIlebeat
ILogtail
1M/s
5%
1.3%
2M/s
11%
2%
3M/s
15%
3%

以下显示了标准输出流不同采集的内存对比,可以看到logtail 和filebeat 整体内存相差不大,没有出现随采集流量上升内存暴涨情况:


FIlebeat
ILogtail
1M/s
136M
126M
2M/s
140M
141M
3M/s
141M
142M

 


3  采集配置膨胀性能对比


采集配置膨胀性能对比,输入源设置为4,总输入速率为3M/s, 分别进行50采集配置,100采集配置,500采集配置,1000采集配置 对比。

标准输出流采集配置膨胀对比


以下显示了标准输出流不同采集的性能对比,可以看到Filebeat 由于容器采集与静态文件采集底层共用相同静态文件采集逻辑,会在标准输出流采集路径var/log/containers下存在大量正则匹配的工作,可以看到虽然采集数据量没有增加由于采集配置的增加,CPU消耗增加10%+,而iLogtail 针对容器采集模型全局共享容器路径发现机制,所以避免了正则逻辑带来的性能损耗(CPU的百分比为单核的百分比)。

采集配置
FIlebeat
ILogtail
50
65%
5%
100
68%
6.30%
500
75%
7%
1000
82%
8.70%

在内存膨胀方面,可以看到不论是Filebeat 还是iLogtail 都存在由于采集配置增加导致的内存膨胀,但2者的膨胀大小都处于可接受范围。

采集配置
FIlebeat
ILogtail
50
148M
95M
100
149M
98M
500
163M
115M
1000
177M
149M



容器内文件采集配置膨胀对比


以下显示了容器内文件采集不同采集器的性能对比,可以看到Filebeat 静态文件采集由于避免标准输出流通用路径正则,相较于标准增加CPU消耗较少,而iLogtail CPU 变化同样很小,且相比于标准输出流采集性能略好(CPU的百分比为单核的百分比)。

采集配置
FIlebeat
ILogtail
50
16%
4.30%
100
16.30%
4.30%
500
20.00%
5.60%
1000
22%
7.30%

在内存膨胀方面,同样可以看到不论是Filebeat 还是iLogtail 都存在由于采集配置增加导致的内存膨胀,但2者的膨胀大小都处于可接受范围。

采集配置
FIlebeat
ILogtail
50
142M
99M
100
145M
104M
500
164M
128M
1000
183M
155M



4  iLogtail 采集性能测试


由于FileBeat在日志量大的场景下出现采集延迟问题,所以以下场景仅针对iLogtail进行测试,分别在5M/s、10M/s、20M/s 下针对iLogtail 进行容器标准输出流采集与容器内文件采集的性能压测。

  • 输入源数量:10
  • 单条日志大小283B
  • 5M/s 对应日志速率 18526条/s,单输入源产生速率1852条/s
  • 10M/s 对应日志速率 37052条/s,单输入源产生速率3705条/s
  • 20M/s 对应日志速率 74104条/s,单输入源产生速率7410条/s
  • 40M/s 对应日志速率 148208条/s,单输入源产生速率14820条/s

和上述试验类似可以看到CPU消耗方面容器文件采集略好于容器标准输出流采集性能(CPU的百分比为单核的百分比),主要是由于容器文件采集底层Polling + inotify机制。

速率
容器文件采集
标准输出流采集
5M/s
5.70%
4.70%
10M/s 
10.00%
10.30%
20M/s
15.00%
18.70%
40M/s
22%
36%

在内存方面,由于标准输出流采集主要依赖于GO,而容器文件采集主要依赖于C,可以由于GC机制的存在,随着速率的上升,标准输出流采集消耗的内存会逐渐超过容器内文件采集消耗的内存。

速率
容器文件采集
标准输出流采集
5M/s
148M
100M
10M/s 
146M
130M
20M/s
147M
171M
40M/s
150M
220M



5  对比总结



CPU 对比结论
内存对比结论
容器标准输出流采集性能
同流量输入下,iLogtail 相较于Filebeat 十倍级别性能
iLogtail 与Filebeat 内存消耗差异不大。
容器文件采集采集性能
同流量输入下,iLogtail 相较于Filebeat 5倍级别性能
iLogtail 与Filebeat 内存消耗差异不大。
容器标准输出流采集多配置性能
同流量输入下,随着采集配置增加,Filebeat CPU 增加量为iLogtail CPU增加量的3倍。
iLogtail 与Filebeat 都会因采集配置增加产生内存膨胀,都处于可接受范围。
容器文件采集多配置性能
同流量输入下,随着采集配置增加,Filebeat CPU 增加量为iLogtail CPU增加量的2倍。
iLogtail 与Filebeat 都会因采集配置增加产生内存膨胀,都处于可接受范围。


五  为什么Filebeat 容器标准输出与文件采集差异巨大?


通过上述试验可以看到FIlebeat 在不同工作模式下有较大的CPU差异,通过dump 容器标准输出流采集的pprof 可以得到如下火焰图,可以看到Filebeat 容器采集下的add_kubernets_meta 插件是性能瓶颈,同时FIlebeat 的add_kubernets_meta 采用与每个节点监听api-server 模式,也存在api-server 压力问题。


而iLogtail 取kubernetes meta 完全是兼容kubernetes CRI 协议,直接通过kubernets sandbox 进行meta 数据读取,保证了iLogtail 的高性能采集效率。


六  iLogtail DaemonSet 场景优化


通过以上对比,可以看到iLogtail 相比于Filebeat 具有了优秀的内存以及CPU 消耗,有小伙伴可能好奇iLogtail 拥有如此极致性能背后原因, 下文主要讲解iLogtail Daemonset 场景下的优化,如何让容器数据采集拥有与静态文件采集同样的使用与性能体验,其他优化特性如inotify 等请参考  Logtail技术分享一 与 Logtail技术分享二

首先对于标准输出流场景,相比于其他开源采集器,例如Filebeat 或Fluentd。一般都是通过监听var/log/containers 或 /var/log/pods/  实现容器标准输出流文件的采集,比如/var/log/pods/ 的路径结构为: /var/log/pods/<namespace>_<pod_name>_<pod_id>/<container_name>/, 通过此路径复用物理机静态文件采集模式进行采集。


而对于iLogtail,做到了容器化的全支持,iLogtail 通过发现机制,全局维护对Node 节点容器的列表,并实时监听与维护此容器列表。当我们拥有容器列表后,我们便具有了如下优势:

  • 采集路径不在依赖于静态配置路径,可以靠容器标签动态选择采集源,从而简化用户接入成本。

  • 可以根据容器元信息探测容器自动挂载节点的动态路径,所以iLogtail 无需挂载即可采集容器内文件,而如Filebeat 等采集器需要将容器内路径挂载于宿主机路径,再进行静态文件采集。

  • 对于新接入采集配置复用历史容器列表,快速接入采集,而对于空采集配置,由于容器发现全局共享机制的存在,也就避免了存在空轮训监听路径机制的情况,进而保证了在容器这样动态性极高的环境中,iLogtail 可运维性的成本达到可控态。

七  结语


综上所述,在动态性极高的Kubernetes 环境下,iLogtail不会因为采用Daemonset 的部署模型带来的多配置问题,造成内存大幅度膨胀,而且在静态文件采集方面,iLogtail 拥有5倍左右的性能优势,而对于标准输出流采集,由于iLogtail 的采集机制,iLogtail 拥有约10倍左右的性能优势。但是相比于Filebeat 或Fluentd 等老牌开源产品,在文档建设与社区建设上还欠缺很多,欢迎对iLogtail 感兴趣的小伙伴一起参与进来,共同打造易用且高性能的iLogtail产品。

参考文献


  • Logtail技术分享一

https://zhuanlan.zhihu.com/p/29303600

  • Logtail技术分享二

https://www.sohu.com/a/205324880_465959

  • Filebeat 配置

https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-input-container.html

  • Filebeat 容器化部署

https://www.elastic.co/guide/en/beats/filebeat/current/running-on-kubernetes.html

  • iLogtail 使用指南

https://github.com/alibaba/ilogtail/blob/main/docs/zh/setup/README.md


[1]https://github.com/alibaba/ilogtail
[2]https://github.com/EvanLjp/ilogtail-comparison



Java面向对象编程


面向对象是Java语言之中最为重要的特征,也是进一步学习Java的重要知识体系。在本课程之中将为读者详细的讲解面向对象的定义、类与对象的组成、内存分析、封装性、继承性、多态性等概念的全面分析。

 

在本课程之中还会为学员详细的归类面向对象之中重要的代码模型、数据分析方式、核心设计模式原理与分析使用。点击阅读原文查看详情!

登录查看更多
0

相关内容

Nginx(发音同 engine x)是一款由俄罗斯程序员 Igor Sysoev 所开发轻量级的网页服务器、反向代理服务器以及电子邮件(IMAP/POP3)代理服务器。Nginx相较于 Apache、lighttpd 具有占有内存少,稳定性高等优势,并且依靠并发能力强,丰富的模块库以及友好灵活的配置而闻名。
面向大数据处理框架的JVM优化技术综述
专知会员服务
16+阅读 · 2021年11月27日
专知会员服务
27+阅读 · 2021年7月3日
视频分析中的人工智能 (AI)白皮书,16页pdf
专知会员服务
65+阅读 · 2021年5月6日
​【CVPR 2021】半监督视频目标分割新算法,实现SOTA性能
专知会员服务
12+阅读 · 2021年4月26日
专知会员服务
21+阅读 · 2021年3月25日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
49+阅读 · 2021年2月7日
专知会员服务
30+阅读 · 2020年12月21日
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
服务网格数据面性能深度调优
InfoQ
0+阅读 · 2022年3月14日
RocketMQ这样做,压测后性能提高30%
CSDN
0+阅读 · 2022年2月14日
容器会取代虚拟机吗?
InfoQ
0+阅读 · 2022年1月13日
阿里千万实例可观测采集器-iLogtail正式开源
阿里技术
0+阅读 · 2021年12月9日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月20日
Tikhonov Regularization of Circle-Valued Signals
Arxiv
1+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月18日
VIP会员
相关VIP内容
面向大数据处理框架的JVM优化技术综述
专知会员服务
16+阅读 · 2021年11月27日
专知会员服务
27+阅读 · 2021年7月3日
视频分析中的人工智能 (AI)白皮书,16页pdf
专知会员服务
65+阅读 · 2021年5月6日
​【CVPR 2021】半监督视频目标分割新算法,实现SOTA性能
专知会员服务
12+阅读 · 2021年4月26日
专知会员服务
21+阅读 · 2021年3月25日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
49+阅读 · 2021年2月7日
专知会员服务
30+阅读 · 2020年12月21日
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员