本文是由Adrian Lüders、Stefan Reiss、Alejandro Dinkelberg、Pádraig Maccarron和Michael Quayle共同撰写的研究论文,发表于2024年的《British Journal of Social Psychology》。该研究探讨了党派偏见如何影响人们对社交媒体上政治机器人(social bots)的感知和互动,特别是在美国选民中的表现。
随着社交媒体的普及,社交机器人(social bots)逐渐成为操纵公众舆论的工具。这些机器人通过自动生成内容和与人类互动,试图模仿甚至改变人类行为。尽管已有大量研究关注机器人的技术特征,但关于心理因素如何影响人类与机器人互动的研究却相对较少。本研究旨在填补这一空白,探讨党派偏见如何影响用户对机器人的感知、识别能力以及与之互动的意愿。
研究分为两个部分:研究1和研究2。
研究1通过调查452名Twitter(现为X)用户,探讨了用户对机器人的全球性感知。研究结果表明,用户倾向于将机器人相关的威胁归因于政治对手,而不是将其视为对政治话语的共同威胁。具体来说,民主党和共和党用户都认为机器人主要是对方党派的问题,而不是自己党派的问题。
研究2通过在线实验,评估了党派偏见对用户区分人类和机器人账户能力的影响。实验共有619名参与者,他们被要求区分人类和机器人账户。结果显示,党派偏见导致了系统性的判断错误。尽管参与者普遍希望避免与机器人互动,但偏见判断可能在实际中削弱了这一动机。
本研究揭示了党派偏见在人类与机器人互动中的重要作用。研究结果表明,党派偏见不仅影响了用户对机器人的感知,还影响了他们识别机器人的能力。这些发现强调了在应对机器人威胁时,除了技术手段外,还需要考虑心理和社会因素。未来的研究可以进一步探讨如何通过干预措施纠正用户对机器人的误解,从而提高他们在社交媒体上识别和避免机器人的能力。
未来的研究可以进一步探讨不同政治背景下机器人活动的有效性,以及如何通过干预措施提高用户对机器人的识别能力。此外,研究还可以扩展到其他社交媒体平台,以验证研究结果的普遍性。
总之,本研究为理解党派偏见如何影响人类与社交机器人的互动提供了重要的理论和实践启示,强调了在应对机器人威胁时,跨学科合作的重要性。