分享自:

党派偏见如何扭曲对Twitter(现X)上政治机器人的认知

期刊:British Journal of Social PsychologyDOI:10.1111/bjso.12794

本文是由Adrian Lüders、Stefan Reiss、Alejandro Dinkelberg、Pádraig Maccarron和Michael Quayle共同撰写的研究论文,发表于2024年的《British Journal of Social Psychology》。该研究探讨了党派偏见如何影响人们对社交媒体上政治机器人(social bots)的感知和互动,特别是在美国选民中的表现。

研究背景

随着社交媒体的普及,社交机器人(social bots)逐渐成为操纵公众舆论的工具。这些机器人通过自动生成内容和与人类互动,试图模仿甚至改变人类行为。尽管已有大量研究关注机器人的技术特征,但关于心理因素如何影响人类与机器人互动的研究却相对较少。本研究旨在填补这一空白,探讨党派偏见如何影响用户对机器人的感知、识别能力以及与之互动的意愿。

研究流程

研究分为两个部分:研究1研究2

研究1

研究1通过调查452名Twitter(现为X)用户,探讨了用户对机器人的全球性感知。研究结果表明,用户倾向于将机器人相关的威胁归因于政治对手,而不是将其视为对政治话语的共同威胁。具体来说,民主党和共和党用户都认为机器人主要是对方党派的问题,而不是自己党派的问题。

研究2

研究2通过在线实验,评估了党派偏见对用户区分人类和机器人账户能力的影响。实验共有619名参与者,他们被要求区分人类和机器人账户。结果显示,党派偏见导致了系统性的判断错误。尽管参与者普遍希望避免与机器人互动,但偏见判断可能在实际中削弱了这一动机。

主要结果

  1. 党派偏见影响机器人感知:研究1发现,民主党和共和党用户都倾向于将机器人视为对方党派的问题,而不是共同威胁。
  2. 党派偏见影响机器人识别:研究2表明,党派偏见显著影响了用户区分人类和机器人账户的能力。特别是,民主党用户更容易将支持民主党的机器人误认为人类,而共和党用户则更容易将支持共和党的机器人误认为人类。
  3. 用户互动意愿:尽管用户普遍希望避免与机器人互动,但党派偏见可能导致他们无意中与支持自己党派的机器人互动。

结论与意义

本研究揭示了党派偏见在人类与机器人互动中的重要作用。研究结果表明,党派偏见不仅影响了用户对机器人的感知,还影响了他们识别机器人的能力。这些发现强调了在应对机器人威胁时,除了技术手段外,还需要考虑心理和社会因素。未来的研究可以进一步探讨如何通过干预措施纠正用户对机器人的误解,从而提高他们在社交媒体上识别和避免机器人的能力。

研究亮点

  1. 跨学科视角:本研究结合了技术和社会心理学的视角,揭示了党派偏见在人类与机器人互动中的重要作用。
  2. 新颖的实验设计:研究通过在线实验和调查数据,系统地评估了党派偏见对机器人感知和识别的影响。
  3. 实际应用价值:研究结果为社交媒体平台和政策制定者提供了重要参考,帮助他们更好地应对机器人对公众舆论的潜在威胁。

未来研究方向

未来的研究可以进一步探讨不同政治背景下机器人活动的有效性,以及如何通过干预措施提高用户对机器人的识别能力。此外,研究还可以扩展到其他社交媒体平台,以验证研究结果的普遍性。

总之,本研究为理解党派偏见如何影响人类与社交机器人的互动提供了重要的理论和实践启示,强调了在应对机器人威胁时,跨学科合作的重要性。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com