为什么别人家的APP,上报日志就这么省流量?

2019 年 3 月 4 日 架构师之路

为了统计APP内用户行为,或者需要收集某些产品数据,APP往往需要进行日志上报,日志上报往往又非常费流量,大家的APP是怎么上报日志的呢?

画外音:用户流量的大头,是日志上报?


APP可不可以不上报日志,只从服务器日志统计用户的行为和产品数据?
不行,有些用户行为不会与服务器进行交互,例如“卡片切换”,服务器日志无法完成所有统计。


APP一般如何上报日志?
常用方法有这么几种。


(1)使用类似于Google Analytics第三方工具

优点:无需开发

缺点:不能做个性化统计


(2)自己制订私有协议进行上报;

优点:节省流量

缺点:开发成本高

画外音:例如,TCP二进制协议,可定制化,又省流量。


(3)使用HTTP协议,通过GET参数传递需要上报的数据。


如何通过HTTP协议进行上报?

可以在Web-Server下放置一个文件,APP发起HTTP请求访问这个文件,通过GET参数传递数据,并通过分析access日志来得到想要的数据。


如何通过GET参数传递数据?

一般又有两种方式:

(1)约定格式法;

(2)KV法。


什么是“约定格式法”?

约定格式法:约定分隔符,约定占位符,约定每个字段的含义,例如:

http://daojia.com/up?[bj][20190304][1939][1][login]


约定如下:

(1)被访问文件是up;

(2)分隔符是[];

(3)第一个字段[bj]代表城市,第二个字段代表日期,第三个字段代表时间,第四个字段代表用户id,第五个字段代表行为。


该方法缺点是:扩展性较差,有时候某些字段没有值,也必须在相应的位置保留占位符,因为每个字段的含义都是事先约定好的,要想新增统计项,只能在GET后面新增[]。


什么是“KV法”?

KV法:通过GET参数自解释的KV方式来上报数据。


上面的例子用KV法来上报,则上报形式为:

http://daojia.com/up?city=bj&date=20190304&time=1939&uid=1&action=login


该方法的优点是:扩展性好

缺点是:上报数据量比较大,非常消耗流量


为什么会这么消耗流量呢?

之所以消耗流量,主要有这样一些原因:

(1)无效流量多,HTTP报文有很多无效数据;
(2)
URL冗余,每次都要上报URL;
(3)
KEY冗余,每次都要上报KEY;
(4)
上报频度高,用户每次操作都要日志上报的话,上报量很大。


有没有节省流量的方法呢?

针对上述1-4点,常见的优化方案有这样一些。


痛点1:HTTP请求内无效数据多。

解决方案:手动构造HTTP请求,尽可能多的去除HTTP中的无效数据。

画外音:

如果使用第三方库构造HTTP请求,可能会带上你并不需要的UA数据。

自己构造,则可以只保留GET /up HTTP/1.1和GET传递的必须数据;


痛点2:URL冗余。

解决方案:使用尽可能短的域名来接收上报的日志。

画外音:例如,s.daojia.cn/a


痛点3:KEY冗余。

解决方案:使用尽可能短的KEY来标识数据,日志收集方一定要统一规范好KEY。

画外音:例如,city=bj可以优化为c=bj

一个BAD CASE,由于没有规范,曾经某个部门上报用户ID,不同项目中重复埋点,上报了4次:

name=shenjian&user_id=123&uid=123&user_name=shenjian

而上述name、user_id、uid、user_name都属于重复上报。


痛点4:上报频率高。

解决方案:先将数据保存到APP本地存储,再定时上报,这类优化对于PV类,SUM类,AVG类统计尤为有效。


例如,要统计登录按钮的点击次数,三次点击,传统统计可能需要上报三次:
http://daojia.com/up?date=20190304&uid=1&action=login
http://daojia.com/up?date=20190304&uid=1&action=login
http://daojia.com/up?date=20190304&uid=1&action=login


优化后,增加了一个参数,只需要上报一次:

http://daojia.com/up?date=20190304&uid=1&action=login&count=3


非实时上报,应该在什么时机进行日志上报呢?

如果进行合并上报,或者批量上报,数据的时效性会有一定的影响

画外音:如果策略合理,数据误差会非常小。


为了优化,会在这样的一些时间点进行上报:
(1)
特殊时间点上报:例如,APP打开,关闭,后台转入活跃时;
(2)
按时间批量上报:例如,每隔10分钟才上报一次;
(3)
按数据量批量上报:例如,每收集10条记录才上报一次;


还有其他什么优化方案?
批量上报,
数据压缩


希望,文章的逻辑是清晰的。


架构师之路-分享通俗易懂的技术文章


推荐阅读:

这一次,除了骂阿里云,还能做些什么?


调研:

贵司有埋点规范么?

不同项目出现过重复埋点么?

登录查看更多
1

相关内容

服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。
服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【实用书】Python爬虫Web抓取数据,第二版,306页pdf
专知会员服务
117+阅读 · 2020年5月10日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
【2020新书】Kafka实战:Kafka in Action,209页pdf
专知会员服务
67+阅读 · 2020年3月9日
【干货】大数据入门指南:Hadoop、Hive、Spark、 Storm等
专知会员服务
95+阅读 · 2019年12月4日
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
在K8S上运行Kafka合适吗?会遇到哪些陷阱?
DBAplus社群
9+阅读 · 2019年9月4日
今日头条技术架构分析
互联网架构师
11+阅读 · 2019年8月19日
被动DNS,一个被忽视的安全利器
运维帮
11+阅读 · 2019年3月8日
OLAP引擎这么多,为什么苏宁选择用Druid?
51CTO博客
12+阅读 · 2018年12月20日
Flink 靠什么征服饿了么工程师?
阿里技术
6+阅读 · 2018年8月13日
为什么分布式一定要有消息队列?
互联网架构师
4+阅读 · 2018年7月5日
【AI说】揭秘京东实时数据仓库背后的神秘力量—JDQ
Arxiv
5+阅读 · 2018年10月23日
Arxiv
5+阅读 · 2015年9月14日
VIP会员
相关VIP内容
相关资讯
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
在K8S上运行Kafka合适吗?会遇到哪些陷阱?
DBAplus社群
9+阅读 · 2019年9月4日
今日头条技术架构分析
互联网架构师
11+阅读 · 2019年8月19日
被动DNS,一个被忽视的安全利器
运维帮
11+阅读 · 2019年3月8日
OLAP引擎这么多,为什么苏宁选择用Druid?
51CTO博客
12+阅读 · 2018年12月20日
Flink 靠什么征服饿了么工程师?
阿里技术
6+阅读 · 2018年8月13日
为什么分布式一定要有消息队列?
互联网架构师
4+阅读 · 2018年7月5日
【AI说】揭秘京东实时数据仓库背后的神秘力量—JDQ
Top
微信扫码咨询专知VIP会员