专家支招,破解社交媒体两极分化难题
在社交媒体上政治两极分化日益成为一个严重问题之时,华盛顿大学的数据科学家珍·斯普林斯汀正在探寻一种既能给热度降温,又能获得社交媒体公司认可的方法。
斯普林斯汀是麦凯维工程学院计算与数据科学系的研究生,她与计算机科学与工程系副教授威廉·杨以及艺术与科学学院政治学教授迪诺·克里斯滕森合作。
在接受该校“塑造未来工程”播客的采访时,斯普林斯汀与科学作家肖恩·巴拉德谈到了她的工作。
以下内容经过编辑和精简。在“塑造未来工程”网站上收听完整采访:
随着像 ChatGPT 这样的大型语言模型使人工智能(AI)变得更容易获得,我们在新闻中经常听到的一件事是关于训练这些模型的责任问题,对吧?这具有很强的交叉性,以及人工智能在医疗保健、教育等所有这些学科中的位置。这可能是目前最大的问题之一。
另一个重大问题,也是我关注的问题,处在计算机科学与政治学的交叉领域。社交媒体公司使用推荐系统,在我们登录脸书、推特或照片墙时向我们展示内容。它们向我们展示社交媒体推送中的内容。这属于计算机科学的范畴,对吧?但我们在社交媒体上所看到内容的影响远不止于计算机科学,这涉及到多学科领域。在政治学中,它对我们的选举、人们的意识形态有何影响?
所以,这在那个交叉点是一个相当大的问题,而且因为社交媒体影响我们互动的方式、我们思考的方式,我们在社交媒体上看到的内容会影响我们在感恩节晚餐上的谈论话题。
不幸的是,我们登录社交媒体时看到的内容背后的算法确实没有人情味。社交媒体公司并不是试图向我们展示我的新侄女和侄子,对吧?他们对展示这类内容不感兴趣。他们特别感兴趣的是向我展示他们觉得能让我留在该平台上的内容。他们对利润和用户参与度感兴趣。
他们可能会向我展示煽动性内容或错误信息,因为通过他们的机器学习技术,其算法正在了解到这类内容能推动用户参与度,而不一定是我作为用户登录时想要看到的内容。
我们很想知道极化现象似乎正在加剧。从算法层面来讲,我们能做些什么来减轻这种极化现象呢?所以,与其让算法只盯着用户参与度,倒不如我们去找一些指标,像极端政策这类的,比如人们对政策的感受咋样?人们对本党和其他政党的政治候选人是怎么看的?并把这些当作指标,而不只是用户参与度。
特别是在数据受限这方面,不容易。随着社交媒体公司越来越有影响力且不断发展,像咱们这样的研究人员缺乏数据访问权限,这情况很复杂。但我觉得这只是部分原因,像我的数学背景、计算机科学背景,咱们能想办法避开这一点,然后做模拟和搞用户调查来获取咱们自己的数据,而不是依赖正在减少的社交媒体数据访问。
没法确定,对吧?因为数据受限,咱们没法比较,也没法说咱们的模型实际上有多接近。但这就是为啥我们要做出明智的建模选择。我们跟其他研究人员交流。我们把政治学家请来然后说,您知道不,您看到啥了?
一旦咱们了解到社交媒体帖子的某些部分会不会引起极端或者两极分化的反应,咱们咋在这跟用户参与度指标之间取得平衡?
有一整套文献探讨了究竟是什么让人们留在社交媒体上
比如什么样的帖子能够使人们保持参与其中的状态
所以,如果我们能在此基础上进一步补充,说得更具体些,什么样的帖子会让人们更加两极分化,或者什么样的帖子会让人们不那么两极分化,那我们又该如何去平衡用户参与度与两极分化的问题呢?
所以,对我们来说,仅仅说我们觉得这会让人们不那么两极分化,是远远不够的,因为社交媒体公司听到后会说:“太好了,我们关心用户参与度,我们对那个不感兴趣。”所以,下一步是努力平衡这些事情。我们能否找到既能保持用户高参与度,又是人们想看并且愿意互动的帖子或者一组帖子,而且这些帖子在社交媒体上也许不那么极端或者错误信息更少?
我认为要实施其中的一些建议,会有多种方式。我们专注于推荐系统,那些算法。如果我们看到具有 X 和 Y 质量的帖子所引起的两极分化反应较少,对吧,我们如何将其纳入过滤策略,纳入该推荐系统,并说,好吧,也许让我们关注 X 和 Y,如果 Y 恰好是一个能提高用户参与度的指标,对吧,这就是我们想看到的那种东西。然后在那些推荐系统中,我们可以关注那些特征,向人们展示具有 X、Y 特征的帖子。
是的,这就是想法。这就是希望,对吧?