Darknet markets provide a large platform for trading illicit goods and services due to their anonymity. Learning an invariant representation of each user based on their posts on different markets makes it easy to aggregate user information across different platforms, which helps identify anonymous users. Traditional user representation methods mainly rely on modeling the text information of posts and cannot capture the temporal content and the forum interaction of posts. While recent works mainly use CNN to model the text information of posts, failing to effectively model posts whose length changes frequently in an episode. To address the above problems, we propose a model named URM4DMU(User Representation Model for Darknet Markets Users) which mainly improves the post representation by augmenting convolutional operators and self-attention with an adaptive gate mechanism. It performs much better when combined with the temporal content and the forum interaction of posts. We demonstrate the effectiveness of URM4DMU on four darknet markets. The average improvements on MRR value and Recall@10 are 22.5% and 25.5% over the state-of-the-art method respectively.


翻译:翻译后的标题: URM4DMU:深网市场用户的用户表示模型 翻译后的摘要: 暗网市场由于其匿名性,为交易非法商品和服务提供了一个大平台。通过学习每个用户在不同市场上发布的帖子,并基于此生成不变的用户表示,有助于跨越不同平台来聚合用户信息,以便识别匿名用户。传统的用户表示方法主要依赖于建模帖子的文本信息,无法捕捉帖子的时间内容和论坛互动。最新的工作主要是利用CNN来建模帖子的文本信息,但无法有效地建模每一集中长度经常变化的帖子。为了解决这些问题,我们提出了一种名为URM4DMU(用户表示模型)的模型,该模型通过自适应门机制的卷积操作和自我注意力来改善帖子表示。当与帖子的时间内容和论坛互动相结合时,效果更好。我们在四个深网市场上展示了URM4DMU的效力。与最先进的方法相比,平均MRR值和Recall@10的改进幅度分别为22.5%和25.5%。

0
下载
关闭预览

相关内容

基于C语言的开源深度学习框架
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
【Google-BryanLim等】可解释深度学习时序预测
专知会员服务
61+阅读 · 2021年12月19日
专知会员服务
58+阅读 · 2021年4月29日
专知会员服务
53+阅读 · 2021年1月5日
【KDD2020】 半监督迁移协同过滤推荐
专知会员服务
19+阅读 · 2020年10月21日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
ORB_SLAM3和之前版本有什么不同?
计算机视觉life
11+阅读 · 2020年7月30日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
论文浅尝 | 利用 RNN 和 CNN 构建基于 FreeBase 的问答系统
开放知识图谱
11+阅读 · 2018年4月25日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月6日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
23+阅读 · 2018年8月3日
VIP会员
相关资讯
相关基金
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员