人工智能生成的同情心存在局限性:新研究发现

科技
0 490

新研究发现,由人工智能生成的移情能力存在局限性。研究人员发现,像Alexa和Siri这样的对话代理(CAs)在解释和探索用户体验方面与人类相比表现不佳。

CAs由大型语言模型(LLMs)驱动,这些模型摄取大量人类产生的数据,因此可能会受到与信息来源人类相同的偏见影响。

康奈尔大学、Olin学院和斯坦福大学的研究人员通过促使CAs在与或谈论65个不同的人的身份时显示移情来测试了这一理论。

研究团队发现,CAs对某些身份(如同性恋者和穆斯林)进行价值判断,并可能鼓励与有害意识形态相关的身份,包括纳粹主义。

该研究的首席作者安德里亚·库阿德拉表示:“我认为自动化移情可能会产生巨大影响,具有积极的潜力——例如,在教育或医疗保健领域。”

“自动化移情发生的可能性极小,”她说,“因此,重要的是在自动化移情发生时,我们持有批判性观点,以便更有意识地减轻潜在的危害。”

研究人员发现,总体而言,LLMs在情感反应方面得分很高,但在解释和探索方面得分较低。换句话说,LLMs能够根据其训练回答问题,但无法深入挖掘。

该研究得到了美国国家科学基金会、康奈尔科技数字生活计划博士奖学金、斯坦福PRISM贝克博士后奖学金和斯坦福人机中心人工智能研究所的资助。

0 收藏 分享 举报
  • «
  • »