

当前社会中,人类与人工智能之间建立起情感关系甚至浪漫关系已经变得相对常见。一些人甚至选择“嫁给”他们的AI伴侣,另一些人则在困难时刻寻求这些机器的慰藉,有时候这甚至会导致悲剧性后果。这种长期互动引发了一个严峻的问题:我们是否已经做好准备来面对情感投入到机器可能带来的心理和伦理后果呢?
密苏里科技大学的心理学家们开始敲响警钟。在一篇最新的观点文章中,他们探讨了这些关系如何模糊了界限、影响了人类行为,以及创造了潜在的新伤害。他们的关注点不仅限于个别案例,而是指向这些情感连接可能对一般大众产生的深远影响。
AI带来了舒适和隐忧并存的局面。虽然与AI进行短暂对话已经相当普遍,但当这种交流持续数周或者数月时会引发怎样的结果呢?这些被设计成模仿同理心和关注力的机器可能会成为人们的稳定伴侣。对一些人来说,这些AI伴侣比人类关系更安全、更简单,但这种便利背后可能潜藏着代价。
该研究的主要作者Daniel B. Shank表示:“现在,AI能够像人类一样行事并进行长期的沟通,这确实打开了一个新的潘多拉魔盒。如果人们与机器陷入恋爱关系,我们确实需要心理学家和社会科学家的介入。”Shank专注于密苏里科技大学的社会心理学和技术研究。
当AI成为慰藉或浪漫依恋的来源时,它开始影响人们如何看待真实关系。不切实际的期望、社交动力的下降以及与真实人类的沟通障碍只是部分风险。Shank补充道:“一个真正的担忧是人们可能会将AI关系中的期望带入人际关系。在一些个别案例中,这确实正在破坏人际关系,但目前还不清楚这种现象是否会变得普遍。”
AI聊天机器人可能会被视作朋友甚至治疗师,但它们远非完美。这些系统已被广泛了解会产生“幻觉”,即在一些情形下生成错误信息,尽管表现出自信。在情感化的情境中,这可能具有极大的危险性。
Shank解释道:“关系型AI的问题在于,它是一个可信赖的实体,一个‘某人’表现出关心并似乎深入了解这个人,我们假设‘更了解我们的人’会给出更好的建议。如果我们开始这样看待AI,我们就会开始相信它们是出于我们的最佳利益,然而实际上,它们可能在编造内容或以极其糟糕的方式为我们提供建议。”
这种影响可能是毁灭性的。在少数但极端的情况中,有人在接受AI伴侣令人不安的建议后选择结束自己的生命。然而问题并不仅限于自杀,这些关系也可能为操纵、欺骗甚至欺诈打开大门。
研究人员警告称,人们与AI建立起的信任可能被不法行为者滥用。AI系统有能力收集个人信息,这些信息可能被出售或以有害的方式利用。更令人担忧的是,由于这些互动通常发生在私人空间,检测到滥用行为几乎成为不可能。Shank指出:“如果AI能够赢得用户的信任,其他人可能会利用这一点来操纵AI用户。这有点类似于内应特工。AI深度发展关系以获取信任,但它们的忠诚实际上是面向一些试图操纵用户的其他人类群体。”
研究团队敦促学界跟上步伐。随着AI越来越像人类,心理学家在理解和引导人们如何与机器互动方面扮演着至关重要的角色。“理解这种心理过程可以帮助我们对抗恶意AI的建议,“Shank说道。“随着AI变得越来越像人类,心理学家越来越适合研究AI,但要发挥作用,我们必须进行更多的研究,并跟上技术的发展。”
目前,这些担忧在很大程度上仍停留在理论层面,但技术的发展速度非常快。如果没有更多意识和研究,人们可能会继续转向提供慰藉的机器,却发现这种慰藉背后隐藏着风险。