Facebook、Twitter、YouTube和TikTok等社交媒体平台的使用越来越广泛,目前全球用户已达数十亿。2021年,美国大多数成年人报告说至少使用一个社交媒体网站,其中最受欢迎的是YouTube(81%)和Facebook(69%),而TikTok在18-24岁的人中尤其普遍(55%)。
用户包括个人、公众人物、利益集团和组织,每天发布数十亿条内容。内容范围从个人更新到娱乐、教程和新闻故事。2021年,约有二分之一的美国人表示至少有时会从社交媒体上获得他们的新闻。
社交媒体公司部署了专有的推荐算法,在用户每次打开或刷新网站或应用程序时,在平台的 "feed"或推荐内容部分自动选择、排名和展示内容。YouTube估计,该平台上超过70%的浏览量来自该公司的推荐部分,而不是自主搜索或共享链接。
这些算法利用复杂的分布式机器学习模型,如深度神经网络,来识别、排名和提供所有可用帖子的子集,这些帖子被预测为与每个用户 "相关",基于用户通过浏览、点击、喜欢、分享和其他方式参与其中的可能性。
为了使这些参与预测对每个用户和每个时间点都是准确和个性化的,这些算法推荐系统是根据从用户先前的活动历史和推断的兴趣(以及其他 "类似 "用户的兴趣)得出的数十亿个数据点进行训练,并根据特定的环境(例如,一天中的时间,正在使用的设备等)进行调整。
推荐系统是推动和保持用户参与的一个重要工具。公司坚持认为,他们的推荐系统寻求将用户与对他们重要的人和内容联系起来,但批评者认为,他们的商业模式优先考虑那些引诱用户在网站上停留更长时间并经常回来的内容,即使这些内容是有争议的、有害的或其他低质量的。
最近在国会提出的许多法案显示出对监管社交媒体平台的兴趣,因为它们对用户的在线和离线体验有很大的影响,而且有越来越多的证据表明它们的下游危害,包括扩大错误信息和有害内容,恶化心理健康,以及使偏见和不平等现象永久化。
对社交媒体推荐算法的监管方法包括立法、自律和外部监督。法律学者和评论员建议,隐私和反垄断立法(例如,针对算法的互操作性)是比那些与内容托管和放大责任有关的更可行的监管途径,因为它们避免了强加内容偏好(这可能面临宪法挑战),而是将重点放在通过对自己的数据有更大的控制权和更多的推荐算法选择来增加用户的代理权。
技术驱动的解决方案包括设计替代性的推荐系统,以优化人类的价值观,如公平、幸福和事实的准确性。在实践中,使算法与复杂的人类价值观相一致是具有挑战性的,而且通常涉及到权衡和不可预见的后果。可持续的解决方案很可能需要更好地了解这些算法是如何运作的,以及它们的好处和坏处是如何体现的,这强调了需要向外部研究人员和监管机构提供更多关于社交媒体平台的算法实践和结果的数据。最终,监管社交媒体推荐算法的成功方法将需要政府监管、自我治理和外部监督的结合,以促进这些不同行为者的价值协调,并解决与该技术相关的各种挑战。
本文档以政策为导向,概述了社交媒体推荐算法,包括这些算法如何运作、相关的公共目的考虑以及当前的监管情况,重点是美国。这个领域很复杂,而且发展迅速,读者应注意,本文件的内容是截至2022年5月的最新内容。
在本文中,当我们说到社交媒体时,我们指的是流行的、多用途的数字平台,这些平台承载着各种用户产生的内容,如Facebook、Twitter、YouTube和TikTok。值得注意的是,推荐算法被更广泛的数字服务所使用,包括Spotify和Netflix等娱乐公司的音乐和电影推荐,亚马逊和苹果应用商店的购买推荐,以及谷歌等搜索引擎的更广泛使用。本入门读物特别关注大型、多用途的社交媒体,因为它们对个人的信息消费和对世界的理解有着广泛的影响,而且社交媒体的负面社会影响也越来越多。
当我们说到内容推荐算法时,我们指的是两种算法:(1)确定对用户尚未订阅的新内容的建议的算法(例如YouTube上的新闻评论频道);以及(2)过滤和排列用户在他们的feed上看到的所有内容的内容排名算法,它结合了用户已经订阅的广告内容,以及新的内容推荐(例如上面提到的YouTube的新闻评论,或者Facebook上的 "你可能认识的人 "建议)。
值得注意的是,本文件将不关注内容审核算法,这些算法用于标记和删除(而不是放大或推荐)违反平台规则或有其他问题的内容。关于社交媒体公司为处理问题内容所采取的措施,在 "如何处理问题内容?"中提供了有限的信息。内容推荐和内容删除都会影响用户在他们的Feeds上看到的内容,并且密切相关;例如,推荐系统会隐含地设定哪些内容被放大,哪些内容不被放大的社会规范,因此,可以提高或降低内容审核的负担。但它们作为两套算法运作,遵循不同的规则,有类似但不完全重叠的公共目的考虑。重要的是,即使所有非法或有问题的内容被立即从网站上删除,本文件中涉及的与推荐算法相关的许多公共利益问题也适用。