Over the past years, advertisement companies have used a variety of tracking methods to persistently track users across the web. Such tracking methods usually include (first-party) cookies, third-party cookies, cookie synchronisation, as well as a variety of fingerprinting mechanisms. To complement these tracking approaches, Facebook recently introduced a new tracking method that attaches a one-time tag as a URL parameter (namely FBCLID) on outgoing links to other websites. Although one-time tags do not seem to have enough information to persistently track users, we demonstrate that this tag, despite its ephemeral nature, when combined with Facebook Pixel, can aid in persistent tracking of users across space (i.e., different websites) and time (i.e., both in the past as well as in the future). We show that this tag can be used to track web users' activity in the distant past -- even before those users had a Facebook account. In addition, by combining this tag with cookies that have rolling expiration dates, Facebook can also track users' browsing activities in the far future as well. Our experimental results suggest that more than 20% of the popular websites out there have adopted this technology, and thus can contribute to this kind of user tracking on the web. Our longitudinal study shows that user tracking can go as back as 2015, or even as 2013 (when the precursor of this technology was first introduced by Facebook). To put it simply, if a user creates for the first time a Facebook account today, Facebook could track her web browsing activity as far back as 2015.


翻译:过去几年来,广告公司使用各种跟踪方法来持续跟踪网络用户。这种跟踪方法通常包括(第一党)饼干、第三方饼干、饼干同步以及各种指纹机制。为了补充这些跟踪方法,Facebook最近引入了一种新的跟踪方法,将一次性标签附加为与其他网站的离网链接上的URL参数(即FBCLID ) 。尽管一次性标签似乎没有足够的信息来持续跟踪用户。尽管一次性标签似乎没有足够信息,但我们证明,尽管该标签与Facebook Pixel 结合时具有短暂性质,但通常可以帮助持续跟踪空间(即,第三方饼干)、第三方饼干同步以及各种指纹机制的用户。为了补充这些跟踪方法,Facebook最近采用了一种新的跟踪方法,在离线链接到其他网站的链接链接中将一次性标签附加为 URL(即FBCLID ) 。 尽管一次性标签似乎没有足够信息可以持续跟踪用户,但我们的标签也可以跟踪用户未来远处的活动。 我们的实验结果表明,即使超过20%的用户在2015年的网络上, 也能够对这个网络进行长期跟踪。

0
下载
关闭预览

相关内容

【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
117+阅读 · 2022年4月21日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年7月29日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年9月27日
Arxiv
31+阅读 · 2022年2月15日
Arxiv
33+阅读 · 2022年2月15日
Arxiv
24+阅读 · 2020年3月11日
Arxiv
12+阅读 · 2018年9月5日
VIP会员
相关VIP内容
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
117+阅读 · 2022年4月21日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年7月29日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关论文
Arxiv
0+阅读 · 2022年9月27日
Arxiv
31+阅读 · 2022年2月15日
Arxiv
33+阅读 · 2022年2月15日
Arxiv
24+阅读 · 2020年3月11日
Arxiv
12+阅读 · 2018年9月5日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员