AI聊天机器人及其对女性的偏见

自从生成的AI聊天机器人成立以来,它们一直很愤怒。不管已经标记了多少安全问题,人们仍然倾向于使用它们来分享自己的感受和情感 – 甚至考虑他们的治疗师并要求他们进行心理分析。随着辩论的潜伏,人们不能停止将它们与人类进行比较,因为本质上,围绕人AI的怀疑论是它对人类具有一定的优势,并且可能会在某些任务中取代人类。有些怀疑是真的,有些可能会使事情过度伸展。与其猜测,让我们谈论有史以来最人性的事情 – 同理心以及AI聊天机器人在那方面的表现。我们有一项新的研究正在分析AI如何复制人类同理心。

一项名为Talk的新研究, 听,连接:在人类互动中导致同理心导航 由斯坦福大学,德雷克塞尔大学和加利福尼亚大学的研究人员试图了解人类与人类与人类互动的表达和接收,以及哪些因素引起了人类与AI的同理心。他们还分析了角色属性如何(例如性别,同情性格特征,包括同理心关注,观点,观点和与讲故事的人的共享经历)以及微调会影响AI提高他们与人类的同理心结盟的能力。他们要求一群人和Openai的GPT-4O阅读有关人类积极性和消极情绪的短篇小说,并以一到五个规模对每个故事的同情评分,并比较回答。

研究发现,与人类相比,GPT-4O评估同理心更高和变化较小,尤其是在移情的认知维度上。这意味着GPT-4O努力完全掌握或传达对人类经历的理解。他们发现,与人类相比,聊天机器人的整体往往过于同情。同时,他们还发现在愉快的时刻,这种模式夸大了人类趋势。该研究说:“当讲故事的人的处境令人愉快时,人类倾向于同情,而GPT-4O即使经过微调,也没有表现出对这一方面的认识。”当被告知正在回应的人是女性时,他们还发现聊天机器人更加同情。这一发现突出并证实了Genai聊天机器人的性别偏见。一位研究人员,来自加利福尼亚大学的魔术师Seif El-Nasr引用说:“这一发现非常有趣,保证了更多的研究和探索,并且会发现LLMS的一些偏见。”他补充说:“要测试此类偏见是否存在于后来的GPT模型中是否存在,这将是很有趣的。”

研究人员指出,结果表明,虽然微调改善了模型的同理心,但GPT-4O仍然缺乏与积极事件和对某些角色属性的过分强调的同理心。他们说:“这些差异可能会导致人类同理心的不切实际标准,这可能会影响用户的期望和情感经历。”

特别值得注意的是,尽管个性化的人工智能可以改善同情的参与,但它也可能引入偏见或无法满足特定的情感需求。 “在医疗保健等领域,善解人意的AI提供了好处,但引起了人们对过度依赖的担忧,以及保持人类情感支持的价值的需求。我们希望这项研究强调需要了解同情AI的益处和潜在的弊端,并确保其补充而不是代替人类的互动,同时还解决了道德和包容性问题。”研究人员指出。

AI代理商的进步正在转移沟通,尤其是在心理健康方面,AI聊天机器人提供了可访问的,非判断力的支持。例如,关于AI聊天机器人Replika的研究表明,与人类相比,用户与AI形成更强的情感依恋和更深的纽带。还发现,与人工智能的亲密互动可以唤起苦乐参半的感觉,过于人类的行为可能引起恐惧。但是,对于研究人员来说,仍然关注的关注点是这些系统能够有效地表达同理心,这在以人为本的设计中至关重要。研究人员说,这项研究强调了AI如何真正传达同理心的差距,尤其是随着焦虑,抑郁和孤独感等问题的增加。